Robots en antropomorfisme


Kun je medelijden hebben met een robot? Ja heel makkelijk, en dat kan gevaarlijk zijn
Scientias, 4 november 2024, door Jeannette Kras
Vraaggesprek met onderzoeker Marieke Wieringa, gepromoveerd aan de Radboud Universiteit

Hij hoeft maar een beetje droevig te kijken en we willen het liefst een arm om hem heen slaan. En nee, we hebben het hier niet over een verdrietig jongetje, maar over een robot. Uit nieuw onderzoek blijkt, dat we (veel te) snel medelijden hebben met zo’n machine. En daar kan makkelijk misbruik van worden gemaakt. Onderzoeker Marieke Wieringa die op het onderwerp promoveert aan de Radboud Universiteit, heeft aangetoond dat mensen een robot, die pijn simuleert, al vlug zielig vinden.
“Als een robot kan doen alsof hij emotioneel leed ervaart, voelen mensen zich schuldiger wanneer ze de robot mishandelen," legt Wieringa uit.

Zielige geluidjes

Samen met collega’s testte ze hoe mensen reageren op geweld tegen robots. “Sommige deelnemers kregen video’s te zien van robots die wel of niet mishandeld werden, soms vroegen we deelnemers zelf de robot flink te schudden. We hebben allerlei variaties geprobeerd: soms reageerde de robot niet, soms wel - met zielige geluidjes en andere uitdrukkingen, die we associëren met pijn," legt ze uit in het persbericht.
De deelnemers bleken bepaald niet rationeel: de mishandelde robots, die bijvoorbeeld zielige geluidjes maakten, wekten serieus medelijden op. De proefpersonen wilden de tweede keer de robot niet meer door elkaar schudden. “Vroegen we mensen om de robot te schudden die geen emotie toonde, dan leken ze er juist helemaal geen moeite mee te hebben.”
En ook opmerkelijk: de deelnemers voerden liever een extreem saaie taak uit dan dat ze de robot schudden. “Bij een stille robot hadden de meeste mensen geen moeite met schudden, maar zodra de robot zielige geluiden maakte, besloten mensen toch maar de saaie taak op te pakken," aldus Wieringa.

Antropomorfisme en robot

Ze concludeert dan ook dat mensen meer geneigd zijn om te denken dat een robot pijn kan ervaren, als die gewelddadig wordt behandeld. “Dit effect is vrij robuust. Dat wil zeggen dat het in veel verschillende situaties voorkomt," vertelt ze aan Scientias. “Zo treedt het bijvoorbeeld op als een robot emoties laat zien, maar ook wanneer een robot dit niet doet. Wel vinden we dat mensen het over het algemeen - dus los van of de robot gewelddadig wordt behandeld of niet - meer eens zijn met de stelling dat een robot pijn kan ervaren, als de robot emoties laat zien, dan als een robot dit niet doet.”

Denken en voelen
Maar mensen dénken niet alleen dat robots die zielige geluidjes maken pijn ervaren, ze vóélen dat ook zo. “Ik ontdekte dat mensen zich schuldiger voelen na het mishandelen van een robot, als die op de mishandeling reageert met emotie dan wanneer die dit niet doet. Ook vond ik dat robots die emoties tonen als ze gewelddadig worden behandeld, allerlei met name negatieve gevoelens bij mensen opwekken, zoals medelijden, verdriet, en woede richting degene die de robot mishandelt," legt Wieringa uit.

Niet voor de lol

“Tot slot heb ik ontdekt dat robots die emoties simuleren, ook ons gedrag naar de robot toe beïnvloeden. Ik vond namelijk dat mensen meer geneigd zijn om in het belang van de robot te handelen, hoewel dat tegen hun eigen belang in ging. Mensen waren namelijk meer bereid om tijd te spenderen om een saaie taak uit te voeren, als ze hiermee een emotie simulerende robot ‘pijn’ konden besparen.
Tijdens de interviews zag ik ook vaak dat mensen die zich schuldig voelden na het schudden van de robot, zich vaak nog schuldiger voelden als ze de robot nog een tweede keer moesten schudden. Dit komt omdat ze bij de tweede keer al weten dat de robot emotioneel zal reageren, en ze dus al op schuldgevoel anticiperen. De meeste mensen gaven ook aan dat ze geen zin hadden om het voor de lol nog een keer te doen.”

Antropomorfiseren zeer persoonlijk
Maar niet iedere deelnemer was even meelevend met de robots. “We zien grote verschillen per individu. Dit komt omdat de neiging om robots te antropomorfiseren (toeschrijven van menselijke eigenschappen zoals emoties aan de robot) sterk verschilt per persoon. We weten eigenlijk nog niet zo goed waardoor dit wordt veroorzaakt," vertelt de onderzoeker.

Sociale wezens

Ze heeft wel een verklaring voor het medelijden van mensen met een machine. “Ik denk dat dit komt doordat mensen van nature sociale wezens zijn, die over het algemeen vaak erg gevoelig zijn voor emoties van anderen. Duizenden jaren geleden was het horen bij de groep namelijk van groot belang voor onze overleving. Ons emotionele brein is daardoor zo sterk ontwikkeld, dat er weinig voor nodig is om emoties bij mensen op te roepen.
Ik zeg wel eens: als je een paar zielig kijkende oogjes op een glas plakt en het vervolgens stuk gooit, kunnen mensen daar al wat bij voelen. Dit vermogen verklaart bijvoorbeeld ook waarom we emotioneel kunnen worden geraakt door verhalen, boeken, en films, want ook daarvan weten we dat het niet echt is.”

Uitbuiting

Wieringa is bezorgd over de mogelijke uitbuiting door emotionele manipulatie. “In mijn onderzoek vind ik dat mensen meer geneigd zijn om in het belang van een robot te handelen, zelfs als dit tegen hun eigen belang in gaat, wanneer een robot emoties kan tonen. Nu bestaan er zorgen dat mensen hierdoor uitgebuit kunnen worden door de bedrijven die zulke robots ontwikkelen, die uiteindelijk natuurlijk een commercieel doel hebben. Stel je maar eens voor dat een robot heel zielig gaat doen, om zo te proberen mensen over te halen om die dure upgrade te kopen voor de robot, of om meer tijd door te brengen met de robot in plaats van met andere sociale contacten.
Zo zijn er ook zorgen dat zulke robots mensen kunnen overhalen om allerlei gevoelige informatie over zichzelf prijs te geven, die vervolgens in de handen van commerciële bedrijven valt om zo nog beter hun producten te kunnen adverteren.”

Realistische reacties

Gek genoeg waren de meeste mensen toch van mening, dat robots realistisch zouden moeten reageren op geweld, dus bijvoorbeeld met emotie of zogenaamde pijn. “Sommige mensen uitten weliswaar hun zorgen dat kunstmatige emoties potentieel als manipulatief konden worden gezien, maar die zorgen leken niet op te wegen tegen de voordelen die mensen zagen. Hierbij hadden ze het voornamelijk over het afgeven van het signaal dat geweld in het algemeen niet goed is.
Tegelijkertijd bleek uit een van mijn andere studies dat mensen zich wel degelijk laten beïnvloeden door zulke emoties. Vandaar dat ik dus pleit voor richtlijnen die voorschrijven wanneer het gepast is voor robots om emoties zoals pijn te simuleren - bijvoorbeeld om aan te geven dat gewelddadig gedrag niet gewenst is - en wanneer niet - bijvoorbeeld om mensen over te halen meer tijd en geld aan de robot te besteden of persoonlijke informatie los te peuteren.”

Geen robots

Helemaal verbieden lijkt Wieringa namelijk geen goed idee. “Het heeft ook zeker voordelen. Denk aan robots die in therapeutische situaties worden gebruikt, die mensen helpen om bepaalde dingen te verwerken. En ook tijdens het onderzoek zagen we dat de meeste deelnemers het juist goed vonden, als de robot meelij opwekte. Toch moeten we waken voor de risico’s bij mensen die gevoelig zijn voor ‘valse’ emoties. We denken graag dat we heel logische, rationele wezens zijn die nergens intrappen, maar uiteindelijk worden wij ook geleid door emoties. En dat is maar goed ook, anders zijn wij net robots.”

Bronmateriaal
"Can you feel sorry for a robot?" - EurekAlert


terug naar kunstmatige intelligentie

terug naar het weblog







^