Gli esseri umani sono pronti a sfruttare l'intelligenza artificiale benevola

Aggiornamento: 8 giugno 2021
Gli esseri umani sono pronti a sfruttare l'intelligenza artificiale benevola

Gli esseri umani si aspettano che l'IA sia benevola e affidabile. Un nuovo studio rivela che allo stesso tempo gli umani non sono disposti a collaborare e scendere a compromessi con le macchine. Li sfruttano persino.

Immagina di guidare su una strada stretta in un prossimo futuro quando improvvisamente un'altra macchina emerge da una curva davanti a te. È un'auto a guida autonoma senza passeggeri all'interno. Ti spingerai avanti e affermerai il tuo diritto di precedenza, o darai il modo di lasciarlo passare? Al momento, la maggior parte di noi si comporta gentilmente in tali situazioni che coinvolgono altri umani. Mostreremo la stessa gentilezza verso i veicoli autonomi?

Utilizzando metodi della teoria dei giochi comportamentali, un team internazionale di ricercatori della LMU di Monaco e dell'Università di Londra ha condotto studi online su larga scala per vedere se le persone si comporteranno in modo cooperativo con i sistemi di intelligenza artificiale (AI) come fanno con gli altri umani.

La cooperazione tiene insieme una società. Spesso ci richiede di scendere a compromessi con gli altri e di accettare il rischio che ci abbiano deluso. Il traffico è un buon esempio. Perdiamo un po' di tempo quando lasciamo passare altre persone davanti a noi e ci indignamo quando gli altri non riescono a ricambiare la nostra gentilezza. Faremo lo stesso con le macchine?

Le persone hanno lo stesso livello di fiducia nei confronti dell'IA dell'essere umano: la maggior parte si aspetta di incontrare qualcuno che sia pronto a collaborare. La differenza viene dopo. Le persone sono molto meno pronte a ricambiare con l'IA e, invece, sfruttano la sua benevolenza a proprio vantaggio. Tornando all'esempio del traffico, un guidatore umano lascerebbe il posto a un altro umano ma non a un'auto a guida autonoma. Lo studio identifica questa riluttanza a scendere a compromessi con le macchine come una nuova sfida per il futuro delle interazioni uomo-IA.

“Mettiamo le persone nei panni di qualcuno che interagisce per la prima volta con un agente artificiale, come potrebbe accadere sulla strada”, spiega Jurgis Karpus, PhD, teorico dei giochi comportamentali e filosofo presso LMU Munich e primo autore di lo studio. “Abbiamo modellato diversi tipi di incontri sociali e trovato uno schema coerente. La gente si aspettava che gli agenti artificiali fossero cooperativi quanto gli altri umani. Tuttavia, non hanno ricambiato tanto la loro benevolenza e hanno sfruttato l'intelligenza artificiale più degli umani".

Con le prospettive della teoria dei giochi, della scienza cognitiva e della filosofia, i ricercatori hanno scoperto che lo "sfruttamento dell'algoritmo" è un fenomeno robusto. Hanno replicato le loro scoperte in nove esperimenti con quasi 2,000 partecipanti umani. Ogni esperimento esamina diversi tipi di interazioni sociali e consente all'essere umano di decidere se scendere a compromessi e cooperare o agire in modo egoistico. Sono state misurate anche le aspettative degli altri giocatori. In un noto gioco, il dilemma del prigioniero, le persone devono confidare che gli altri personaggi non le deluderanno. Hanno abbracciato il rischio sia con gli umani che con l'IA, ma hanno tradito la fiducia dell'IA molto più spesso, per guadagnare più soldi.

“La cooperazione è sostenuta da una scommessa reciproca: confido che tu sarai gentile con me, e tu confidi che io sarò gentile con te. La più grande preoccupazione nel nostro campo è che le persone non si fidino delle macchine. Ma dimostriamo che lo fanno!” osserva il dott. Bahador Bahrami, neuroscienziato sociale presso la LMU e uno dei ricercatori senior dello studio. “Però stanno bene a deludere la macchina, e questa è una grande differenza. Le persone non riferiscono nemmeno molto senso di colpa quando lo fanno", aggiunge.

L'intelligenza artificiale parziale e non etica ha fatto notizia su molti titoli, dal fiasco degli esami del 2020 nel Regno Unito ai sistemi giudiziari, ma questa nuova ricerca solleva un nuovo avvertimento. L'industria e i legislatori si sforzano di garantire che l'intelligenza artificiale sia benevola. Ma la benevolenza può ritorcersi contro. Se le persone pensano che l'IA sia programmata per essere benevola nei loro confronti, saranno meno tentate di cooperare. Alcuni degli incidenti che coinvolgono auto a guida autonoma potrebbero già mostrare esempi di vita reale: i conducenti riconoscono un veicolo autonomo sulla strada e si aspettano che ceda. Il veicolo a guida autonoma nel frattempo si aspetta che i normali compromessi tra i conducenti reggano”.

Lo sfruttamento dell'algoritmo ha ulteriori conseguenze su tutta la linea. “Se gli umani sono riluttanti a lasciare che un'auto a guida autonoma educata si unisca da una strada laterale, l'auto a guida autonoma dovrebbe essere meno educata e più aggressiva per essere utile?

L'intelligenza artificiale benevola e affidabile è una parola d'ordine di cui tutti sono entusiasti. Ma riparare l'intelligenza artificiale non è tutta la storia. Se ci rendiamo conto che il robot di fronte a noi sarà cooperativo, qualunque cosa accada, lo useremo per il nostro interesse egoistico.

I compromessi sono il petrolio che fa funzionare la società. Per ognuno di noi, sembra solo un piccolo atto di interesse personale. Per la società nel suo insieme, potrebbe avere ripercussioni molto più grandi. Se nessuno lo permette autonomo le auto si uniscono al traffico, creeranno i propri ingorghi sul lato e non renderanno più facile il trasporto.