Menschen sind bereit, die Vorteile der wohlwollenden KI zu nutzen

Update: 8. Juni 2021
Menschen sind bereit, die Vorteile der wohlwollenden KI zu nutzen

Menschen erwarten, dass KI wohlwollend und vertrauenswürdig ist. Gleichzeitig zeigt eine neue Studie, dass Menschen nicht bereit sind, mit Maschinen zu kooperieren und Kompromisse einzugehen. Sie nutzen sie sogar aus.

Stellen Sie sich vor, Sie fahren in naher Zukunft auf einer schmalen Straße, als plötzlich ein anderes Auto aus einer Kurve vor Ihnen auftaucht. Es ist ein selbstfahrendes Auto ohne Passagiere. Werden Sie Ihr Vorfahrtsrecht durchsetzen und geltend machen oder nachgeben, um es passieren zu lassen? Gegenwärtig verhalten sich die meisten von uns in solchen Situationen, in denen andere Menschen beteiligt sind, freundlich. Werden wir diese Freundlichkeit gegenüber autonomen Fahrzeugen zeigen?

Mit Methoden der Verhaltensspieltheorie hat ein internationales Forscherteam der LMU München und der University of London in großen Online-Studien untersucht, ob sich Menschen mit Systemen der künstlichen Intelligenz (KI) genauso kooperativ verhalten wie mit Mitmenschen.

Kooperation hält eine Gesellschaft zusammen. Es erfordert oft, dass wir mit anderen Kompromisse eingehen und das Risiko eingehen, dass sie uns im Stich lassen. Der Verkehr ist ein gutes Beispiel. Wir verlieren ein wenig Zeit, wenn wir andere an uns vorbeiziehen lassen und sind empört, wenn andere unsere Freundlichkeit nicht erwidern. Werden wir das auch mit Maschinen machen?

Menschen haben gegenüber KI das gleiche Vertrauen wie Menschen: Die meisten erwarten, jemanden zu treffen, der bereit ist, zusammenzuarbeiten. Der Unterschied kommt danach. Die Menschen sind viel weniger bereit, sich mit der KI zu erwidern, sondern nutzen deren Wohlwollen zu ihrem eigenen Vorteil. Zurück zum Verkehrsbeispiel: Ein menschlicher Fahrer würde einem anderen Menschen weichen, aber nicht einem selbstfahrenden Auto. Die Studie identifiziert diese mangelnde Kompromissbereitschaft gegenüber Maschinen als neue Herausforderung für die Zukunft der Mensch-KI-Interaktion.

„Wir versetzen Menschen in die Lage eines Menschen, der zum ersten Mal mit einem künstlichen Agenten interagiert, wie es im Straßenverkehr passieren könnte“, erklärt Dr. Jurgis Karpus, Verhaltensspieltheoretiker und Philosoph an der LMU München und Erstautor des die Studium. „Wir haben verschiedene Arten sozialer Begegnungen modelliert und ein einheitliches Muster gefunden. Die Menschen erwarteten, dass künstliche Agenten genauso kooperativ sind wie Mitmenschen. Sie haben ihr Wohlwollen jedoch nicht so sehr erwidert und die KI mehr ausgebeutet als die Menschen.“

Mit Perspektiven aus Spieltheorie, Kognitionswissenschaft und Philosophie fanden die Forscher heraus, dass die „Ausbeutung von Algorithmen“ ein robustes Phänomen ist. Sie replizierten ihre Ergebnisse in neun Experimenten mit fast 2,000 menschlichen Teilnehmern. Jedes Experiment untersucht verschiedene Arten sozialer Interaktionen und lässt den Menschen entscheiden, ob er Kompromisse eingehen und kooperieren oder egoistisch handeln möchte. Auch die Erwartungen der anderen Spieler wurden gemessen. In einem bekannten Spiel, dem Gefangenendilemma, müssen die Leute darauf vertrauen, dass die anderen Charaktere sie nicht im Stich lassen. Sie gingen Risiken mit Menschen und KI gleichermaßen ein, verrieten jedoch viel häufiger das Vertrauen der KI, um mehr Geld zu verdienen.

„Die Zusammenarbeit wird durch eine gegenseitige Wette getragen: Ich vertraue darauf, dass Sie freundlich zu mir sind, und Sie vertrauen darauf, dass ich freundlich zu Ihnen sein werde. Die größte Sorge in unserem Bereich ist, dass die Menschen Maschinen nicht vertrauen. Aber wir zeigen, dass sie es tun!“ bemerkt Dr. Bahador Bahrami, Sozialneurowissenschaftler an der LMU und einer der leitenden Forscher der Studie. „Aber sie sind damit einverstanden, die Maschine im Stich zu lassen, und das ist ein großer Unterschied. Die Leute berichten nicht einmal viel Schuld, wenn sie es tun“, fügt er hinzu.

Voreingenommene und unethische KI hat viele Schlagzeilen gemacht – vom Fiasko der Prüfungen 2020 im Vereinigten Königreich bis hin zu Justizsystemen –, aber diese neue Forschung wirft eine neue Vorsichtsmaßnahme auf. Industrie und Gesetzgeber bemühen sich um eine wohlwollende Künstliche Intelligenz. Aber Wohlwollen kann nach hinten losgehen. Wenn die Leute denken, dass KI so programmiert ist, dass sie ihnen gegenüber wohlwollend sind, werden sie weniger versucht sein, zu kooperieren. Einige der Unfälle mit selbstfahrenden Autos können bereits Beispiele aus der Praxis zeigen: Autofahrer erkennen ein autonomes Fahrzeug auf der Straße und erwarten, dass es nachgibt. Das selbstfahrende Fahrzeug rechnet inzwischen damit, dass sich normale Kompromisse zwischen den Fahrern halten.“

Die Ausnutzung von Algorithmen hat weitere Konsequenzen. „Wenn Menschen zögerlich sind, ein höfliches selbstfahrendes Auto von einer Seitenstraße zuzulassen, sollte das selbstfahrende Auto dann weniger höflich und aggressiver sein, um nützlich zu sein?

Wohlwollende und vertrauenswürdige KI ist ein Schlagwort, das alle begeistert. Aber die Reparatur der KI ist nicht die ganze Geschichte. Wenn wir erkennen, dass der Roboter vor uns auf jeden Fall kooperativ ist, werden wir ihn für unser egoistisches Interesse einsetzen.

Kompromisse sind das Öl, das die Gesellschaft zum Funktionieren bringt. Für jeden von uns sieht es nur nach einem kleinen Akt des Eigeninteresses aus. Für die Gesellschaft als Ganzes könnte es weitaus größere Auswirkungen haben. Wenn keiner lässt Autonom Autos mischen sich in den Verkehr ein, sie werden nebenbei ihre eigenen Staus schaffen und den Transport nicht einfacher machen.