Perché i robot possono essere culturalmente insensibili e come gli scienziati stanno cercando di risolverlo

Aggiornamento: 17 aprile 2024


robot
Credito: dominio pubblico Unsplash / CC0

Un robot sta chiacchierando con un anziano britannico nella sua camera da letto. Il robot ha un comportamento allegro e una voce piacevolmente acuta.


Il robot, forse a causa dell'età dell'uomo, inizia a chiedergli quali sono i suoi ricordi della Seconda Guerra Mondiale: "Per favore, dimmi qual è stata la cosa più difficile che tu e la tua famiglia avete dovuto affrontare?" L'anziano continua parlando di come suo padre era nella Royal Air Force e non lo vedevano per quasi quattro anni.

Ma perché un robot gli stava chiedendo senza mezzi termini quella che potrebbe essere stata una delle esperienze più traumatiche che abbia mai avuto? Il comportamento del robot è il prodotto del progetto Caresses (Culture-Aware Robots and Environmental Sensor Systems for Elderly Support).

Questo progetto si inserisce nel nuovo campo della "robotica culturale", che mira a progettare robot in grado di tenere conto del background culturale della persona con cui stanno parlando e adattare di conseguenza il loro comportamento. Ecco perché il robot parla della guerra. L'uomo era britannico, quindi si presumeva fosse interessato.

In futuro, possiamo aspettarci che i robot vengano utilizzati sempre di più nella nostra vita personale e sociale. Attualmente è attiva la ricerca in campi diversi come robot di consegna per supermercati, robot di intrattenimento, robot di servizio per l'assistenza sanitaria, robot di prelievo per magazzini, robot per il supporto della demenza, robot per persone nello spettro autistico e robot di cura per gli anziani.

Ci sono persino preti robot che possono impartire benedizioni in cinque lingue e monaci robot che possono educare le persone al buddismo.






Stereotipi culturali

La robotica culturale fa parte di un movimento più ampio volto a rendere l’intelligenza artificiale e la robotica più inclusive dal punto di vista culturale.

Le preoccupazioni su questo movimento sono state sollevate in precedenza. Ad esempio, i modelli linguistici di grandi dimensioni (LLM) come quello utilizzato da ChatGPT di OpenAI vengono addestrati su enormi quantità di testo. Ma poiché Internet è ancora prevalentemente inglese, gli LLM vengono formati principalmente su testi inglesi, con i presupposti e i pregiudizi culturali che ne derivano.

Allo stesso modo, il tentativo di rendere i robot e l’intelligenza artificiale più sensibili dal punto di vista culturale è ben intenzionato, ma siamo preoccupati di dove potrebbe portare.

Ad esempio, uno studio ha confrontato le preferenze culturali di Cina, Germania e Corea per trarre conclusioni su come le persone in questi paesi vorrebbero che fossero i loro robot.

Basandosi su lavori precedenti sulle preferenze culturali, hanno suggerito che le società più “maschili” tendono a considerare belle le cose “grandi e veloci”, mentre le società più “femminili” trovano belle le cose “piccole e lente”. Hanno fatto riferimento a lavori che affermano di dimostrare che la cultura coreana è “mascolinità media”, mentre la cultura tedesca è “mascolinità elevata”, e hanno ipotizzato che i coreani abbiano maggiori probabilità di trovare robot di servizio (che tendono ad essere di piccole o medie dimensioni e lenti). simpatico.

Un altro studio ha confrontato le preferenze di spazio personale di tedeschi e “arabi”. Ma queste cose non sono paragonabili. “Arabo” è un termine potenzialmente offensivo per molte persone e può essere usato per descrivere persone provenienti da contesti culturali e nazionali diversi. Certamente non è alla pari con categorie come “tedesco”, che è un termine non offensivo per persone di una sola nazionalità.

Diventa inoltre sempre più evidente che gli esseri umani reagiscono in modo diverso ai robot a seconda del proprio background culturale. Ad esempio, culture diverse hanno aspettative diverse riguardo allo spazio personale, e questo influisce sulla distanza in cui preferiscono che i robot si allontanino da loro.

Culture diverse interpretano anche le espressioni facciali in modo diverso. Uno studio ha scoperto che le persone sono più capaci di capire un robot se comunica usando le espressioni facciali con cui hanno familiarità.






Un altro modo?

Se vogliamo evitare di progettare robot sulla base di generalizzazioni e stereotipi ampi e grossolani, allora avremo bisogno di un approccio più sfumato alla cultura della robotica.

La cultura è un concetto notoriamente confuso e ricco di sfumature, aperto a molte interpretazioni. Un sondaggio elenca oltre 300 potenziali definizioni di cultura.

Nella nostra recente ricerca, abbiamo sostenuto che la cultura è “concettualmente frammentata”. In breve, la nostra opinione è che esistano così tanti modi diversi di comprendere la cultura, e così tanti diversi tipi di robot, che non dovremmo aspettarci un approccio valido per tutti.

Riteniamo che le diverse applicazioni della robotica richiederanno approcci radicalmente diversi alla cultura. Ad esempio, immagina un robot di intrattenimento in un teatro che ha il compito di ballare per il pubblico.

Per questo lavoro, il modo migliore per avvicinarsi alla cultura potrebbe essere quello di concentrarsi sul tipo di intrattenimento preferito dalla gente del territorio. Ciò potrebbe comportare la domanda su quali tipi di stili di ballo siano comuni a livello locale e la modellazione del design del robot attorno a quello.

Altre applicazioni potrebbero richiedere un approccio diverso alla cultura. Ad esempio, per un robot che dovrebbe interagire con lo stesso piccolo numero di esseri umani per un lungo periodo di tempo (come un robot di servizio in una casa di cura) potrebbe essere più importante che il robot cambi il suo comportamento nel tempo, per adattarsi alle mutevoli preferenze delle persone che aiuta.

In questo caso, potrebbe essere meglio pensare alla cultura come a qualcosa che emerge lentamente e dinamicamente attraverso l’interazione di soggetti diversi.

Ciò significa che avvicinarsi alla cultura della robotica rischia di essere un approccio complesso, sfaccettato e specifico per ogni situazione.

Se progettiamo robot basandoci su stereotipi relativamente grossolani e generalizzazioni generali su culture diverse, rischiamo di propagare quegli stereotipi.