LUK

Det ser ud som om at du ikke er logget ind

Log ind for at læse alle artikler

Glemt adgangskode? Klik her.

5 spørgsmål til forskeren

Teolog: Løgstrup kan bidrage til robotetikken

Denne robot kaldes også en humanoide på grund af dens menneskelignende udseende. En social robot behøver imidlertid ikke ligne et menneske. Inden for de seneste år er der kommet robotter, som ligner kæledyr. Og så er der dem, der bare ligner det, de er. Foto: Edgard Garrido/Reuters/Ritzau Scanpix

Simon Nøddebo Balle er ph.d.-studerende på Aarhus Universitet. Han forsker i, hvordan man teologisk kan beskæftige sig med feltet omkring sociale robotter. ”Meget forskning peger på, at mennesker interagerer med robotten, som om den er levende – altså som om den er et bevidst individ, der kræver éns moralske hensyn”

Hvad arbejder du med lige nu?
Fordi emnet for mit ph.d.-projekt ikke har en særlig lang historie inden for teologien, og fordi robotetik i det hele taget et ungt felt, er en stor del af mit arbejde at etablere, hvordan vi kan beskæftige os teologisk med det. Det involverer blandt andet at trække tråde fra andre fagområder, som beskæftiger sig med dette.

Helt konkret arbejder jeg lige nu på et led i min afhandling, som er en forskningsartikel til et internationalt tidsskrift. Artiklen handler om menneskers følelsesmæssige tilknytning til og moralske intuitioner over for sociale robotter.

Meget empirisk forskning peger nemlig på, at mennesker, der bliver sat til at interagere med en social robot, som enten ligner et menneske eller et kæledyr, i meget høj grad interagerer med robotten, som om den var ’levende’ – altså som om den er et bevidst individ, der kræver éns moralske hensyn.

Det vil sige, at folk udviser empati med en robot, der bliver tortureret; de knytter sig til robotter, de samarbejder med; de tager hensyn til den ved eksempelvis at lyve for at dække over den. Samlet set peger alle disse eksempler på, at det, der foregår, er, at vi tildeler robotterne en bevidsthed. Vi forestiller os altså – ubevidst for det meste – at de er mennesker, dyr eller et andet levende væsen. Et lignende eksempel er, når børn leger, at deres legetøj er levende, eller når Tom Hanks bliver ven med volleybolden ’Wilson’ i filmen ”Cast Away”.

Egentligt er det ikke så mærkeligt, at folk menneskeliggør robotter, fordi vi som mennesker er evolutionært disponerede til at opdage agens, handling. Vi er meget sensitive over for enhver ændring i vores omgivelser, der kunne tyde på, at noget eller nogen har ageret, at der er et levende væsen i nærheden, som enten vil os noget ondt eller godt. Det er ikke svært at få øje på den evolutionære fordel ved et skærpet agens-opdagelsesapparat.

Der er dog langt fra at konstatere, at det er en væsentlig social egenskab hos mennesket, til at vide, hvad vi skal stille op med det i etisk henseende, når det dukker op i relationen til sociale robotter.

Og det er i virkeligheden det etiske spørgsmål, jeg undersøger i den her forbindelse: Er der reelt tale om etiske situationer, når vi tildeler bevidstheder, og dermed tager vores moralske intuitioner og reaktioner fra en menneske-menneske-interaktion over i en menneske-robot-interaktion?

I forskningen er der, lidt forsimplet og polemiserende udlagt, grundlæggende to grupperinger: Dem, der på den ene side siger klart ”nej” – for dem er der tale om, at mennesker begår en kategorifejl, når de behandler robotten som et menneske, og derfor er idéen om et moralsk hensyn over for robotter også en fejl. Og på den anden side dem, der giver forrang til menneskers moralske intuition, og lader den være bestemmende frem for nogle metafysiske krav om egenskabs- eller bevidsthedstilstedeværelse. Derfor vil man i den position sige ”ja”, situationen er etisk, fordi mennesket allerede har opfattet robotten som en Anden eller som sin næste.

Jeg forsøger at spille en slags forsonende mellemposition ind, der for min del er teologisk motiveret. Jeg forsøger at vise, at det udmærket kan være en etisk situation, når vi interagerer med sociale robotter, ikke fordi den skulle være et individ, der har krav på mit moralske hensyn, men fordi den sociale interaktion, som robotten giver mulighed for, i sig selv kan være enten velgørende eller nedbrydende for mig at medvirke i.

Et eksempel er, hvis jeg i min hverdag bliver konfronteret med en fremmed, der har brug for min hjælp. Så er det godt for mig at hjælpe vedkommende, fordi det vender mig udad som menneske – ud mod min næste. Og modsat er det dårligt for mig at ignorere et råb om hjælp, fordi det medvirker til at lukke mig inde i mig selv; det accelerer min indkrogethed i mig selv.

Det er altså ikke robottens bevidste eller følende liv, der kunne drage fordel eller ulykke af mine handlinger, der gør situationen moralsk, hvilket selvfølgelig ville være tilfældet, hvis der var tale om et menneske. Det er derimod de muligheder, den sociale interaktion giver mig; hvordan den påvirker mig og eventuelt andre menneskelige interaktionspartnere.

Der er noget normativt i at hævde, at der er noget godt eller skidt forbundet med bestemt social adfærd, og det er også netop her, min teologiske synsvinkel kommer på banen. I den sociale interaktion med andre mennesker – og med andre sociale aktører som eksempelvis robotter, som jeg forsøger at vise – ligger der en mulighed for at realisere det gode i tilværelsen.

Det er ikke, fordi jeg er god, eller fordi min næste er kilde til godhed, men fordi det gode kan aktiveres spontant i den sociale interaktion. At det gode i tilværelsen er til uden for mig og kan bryde frem i det sociale, er en central tanke i teologen K.E. Løgstrups etik. Blandt andet med denne grundlæggende idé hos Løgstrup mener jeg, at han kan bidrage til robotetikken. Skulle man pege på noget originalt, som min forskning bidrager med, kunne det være her.

Hvorfor er du optaget af dit forskningsfelt?
Forskningsfeltet appellerede blandt andet til mig, fordi det er så fremtidsbetonet. Meget teologisk forskning skuer bagud og oplyser os om, hvad bestemte tekster eller personer har ment på et bestemt tidspunkt, hvilket bestemt også er værdifuldt. Men det tiltaler mig meget at arbejde teologisk med en etisk udfordring, der er mere presserende og i højere grad hører morgendagen til.

Og så er det klart, at Hollywood også gør sit for at opflamme fascinationen for kunstig intelligens og robotteknologi.

Spørgsmålet om, hvorvidt robotter kan have en moralsk patient-status, om de altså har krav på vores moralske hensyn, har også en juridisk parallel, som jeg er meget optaget af, men dog langt mindre kvalificeret til at sige noget om.

Det handler om noget så grundlæggende som rettigheder: Om hvorvidt autonome robotter juridisk skal anses for at være personer, som kan være ansvarlige for egne handlinger. Det rører ved noget substantielt for hele verdenssamfundet at pille ved rettigheder, som vi ellers kun tildeler mennesker og virksomheder. EU har formelt åbnet for den mulighed og diskuteret det siden 2017.

Hvad har du fundet ud af indtil videre?
I forhold til det delprojekt, jeg arbejder på lige nu, har jeg læst nok empiriske studier af menneske-robot interaktioner igennem til ret utvetydigt at kunne konkludere, at mennesker er meget tilbøjelige til at behandle menneskelignende robotter, som om de er mennesker. Mennesket bliver følelsesmæssigt involveret og betjener sig af samme moralske opfattelser i omgangen med dem.

Derudover mener jeg også at have fundet en god kontaktflade fra dette fænomen til den populære Aarhus-teolog K.E. Løgstrups etik, som antydet ovenfor.

Hvordan bidrager din forskning til dit fag?
For teologien er jeg med til overhovedet at åbne og udvikle robotetikken som forskningsområde – og for robotetikken håber jeg at vise, hvordan teologien har meget at bidrage med på det socialetiske.

Jeg er overbevist om, at den teologiske tradition er en rig kilde til viden om og analyser af mennesket, også på det sociale og etiske felt. Og jeg tænker også, den kan oplyse vejen forude.

Hvilken betydning har din forskning for samfundet?
Det er udmærket at forvente en samfundsmæssig relevans af forskningen, men det det kan være svært at konkretisere inden for ’de bløde fag’ – også fordi det de facto afhænger af, om samfundet tillægger det betydning og tager det op. Jeg håber selvfølgelig på, at jeg kan være med til at stimulere en etisk stillingtagen til robotteknologien, så vi tænker os om i forhold til implementering og lovgivning vedrørende robotteknologi.

Hvis jeg virkelig skal være optimistisk, så håber jeg også, at nogle af mine anbefalinger finder gehør.

Det vil sige, at folk udviser empati med en robot, der bliver tortureret; de knytter sig til robotter, de samarbejder med; de tager hensyn til den ved eksempelvis at lyve for at dække over den

Simon Nøddebo Balle