Mensen zijn klaar om te profiteren van welwillende AI

Update: 8 juni 2021
Mensen zijn klaar om te profiteren van welwillende AI

Mensen verwachten dat AI welwillend en betrouwbaar is. Een nieuwe studie onthult dat mensen tegelijkertijd niet bereid zijn om samen te werken en compromissen te sluiten met machines. Ze maken er zelfs misbruik van.

Stel je voor dat je in de nabije toekomst op een smalle weg rijdt wanneer plotseling een andere auto uit een bocht voor je komt. Het is een zelfrijdende auto zonder passagiers erin. Zult u doorgaan en uw voorrang laten gelden, of voorrang geven om het voorbij te laten gaan? Momenteel gedragen de meesten van ons zich vriendelijk in dergelijke situaties waarbij andere mensen betrokken zijn. Zullen we diezelfde vriendelijkheid tonen tegenover autonome voertuigen?

Met behulp van methoden uit de gedragsspeltheorie heeft een internationaal team van onderzoekers van LMU München en de Universiteit van Londen grootschalige online onderzoeken uitgevoerd om te zien of mensen zich net zo coöperatief zouden gedragen met kunstmatige intelligentie (AI)-systemen als met medemensen.

Samenwerking houdt een samenleving bij elkaar. Het vereist vaak dat we compromissen sluiten met anderen en het risico accepteren dat ze ons teleurstellen. Verkeer is een goed voorbeeld. We verliezen een beetje tijd wanneer we andere mensen voor ons laten passeren en zijn woedend als anderen onze vriendelijkheid niet beantwoorden. Gaan we hetzelfde doen met machines?

Mensen hebben hetzelfde vertrouwen in AI als mensen: de meesten verwachten iemand te ontmoeten die bereid is om samen te werken. Het verschil komt daarna. Mensen zijn veel minder bereid om met AI te reageren, en in plaats daarvan misbruiken ze de welwillendheid ervan in hun eigen voordeel. Terugkomend op het verkeersvoorbeeld: een menselijke bestuurder zou plaats maken voor een andere mens, maar niet voor een zelfrijdende auto. De studie identificeert deze onwil om compromissen te sluiten met machines als een nieuwe uitdaging voor de toekomst van mens-AI-interacties.

"We plaatsen mensen in de schoenen van iemand die voor het eerst interactie heeft met een kunstmatige agent, zoals het op de weg zou kunnen gebeuren", legt Jurgis Karpus, PhD, een gedragsspeltheoreticus en een filosoof bij LMU München en de eerste auteur van de studie. “We hebben verschillende soorten sociale ontmoetingen gemodelleerd en een consistent patroon gevonden. Mensen verwachtten dat kunstmatige middelen net zo coöperatief zouden zijn als medemensen. Ze beantwoordden hun welwillendheid echter niet zo vaak en exploiteerden de AI meer dan mensen.”

Met perspectieven uit de speltheorie, de cognitieve wetenschap en de filosofie ontdekten de onderzoekers dat 'algoritme-exploitatie' een robuust fenomeen is. Ze repliceerden hun bevindingen in negen experimenten met bijna 2,000 menselijke deelnemers. Elk experiment onderzoekt verschillende soorten sociale interacties en stelt de mens in staat te beslissen of hij compromissen wil sluiten en meewerkt of zelfzuchtig handelt. Ook werden de verwachtingen van de andere spelers gemeten. In een bekend spel, het Prisoner's Dilemma, moeten mensen erop vertrouwen dat de andere personages hen niet teleurstellen. Ze omarmden risico's met zowel mensen als AI, maar beschaamden veel vaker het vertrouwen van de AI om meer geld te verdienen.

“De samenwerking wordt ondersteund door een wederzijdse weddenschap: ik vertrouw erop dat u aardig voor mij zult zijn, en u vertrouwt erop dat ik aardig voor u zal zijn. De grootste zorg in ons vakgebied is dat mensen machines niet zullen vertrouwen. Maar we laten zien dat ze dat wel doen!” merkt dr. Bahador Bahrami op, een sociaal neurowetenschapper aan de LMU, en een van de senior onderzoekers in het onderzoek. “Ze vinden het echter prima om de machine in de steek te laten, en dat is een groot verschil. Mensen rapporteren zelfs niet veel schuldgevoelens als ze dat wel doen, "voegt hij eraan toe.

Bevooroordeelde en onethische AI ​​heeft veel krantenkoppen gehaald - van het examenfiasco van 2020 in het Verenigd Koninkrijk tot rechtssystemen - maar dit nieuwe onderzoek brengt een nieuwe waarschuwing naar voren. De industrie en wetgevers streven ernaar om ervoor te zorgen dat kunstmatige intelligentie welwillend is. Maar welwillendheid kan averechts werken. Als mensen denken dat AI geprogrammeerd is om welwillend jegens hen te zijn, zullen ze minder in de verleiding komen om mee te werken. Sommige ongevallen met zelfrijdende auto's laten misschien al voorbeelden uit de praktijk zien: automobilisten herkennen een autonoom voertuig op de weg en verwachten dat het voorrang geeft. Het zelfrijdende voertuig verwacht ondertussen dat normale compromissen tussen chauffeurs standhouden.”

De exploitatie van algoritmen heeft in de loop van de tijd nog meer gevolgen. “Als mensen terughoudend zijn om een ​​beleefde zelfrijdende auto vanaf een zijweg in te laten stappen, moet de zelfrijdende auto dan minder beleefd en agressiever zijn om nuttig te zijn?

Welwillende en betrouwbare AI is een modewoord waar iedereen enthousiast over is. Maar het repareren van de AI is niet het hele verhaal. Als we ons realiseren dat de robot voor ons hoe dan ook coöperatief zal zijn, zullen we hem gebruiken voor ons zelfzuchtige belang.

Compromissen zijn de olie die de samenleving laat werken. Voor ieder van ons lijkt het slechts een kleine daad van eigenbelang. Voor de samenleving als geheel zou het veel grotere gevolgen kunnen hebben. Als niemand het toelaat autonoom auto's voegen zich bij het verkeer, ze creëren hun eigen files aan de zijkant en maken het transport niet gemakkelijker.