Os humanos estão prontos para aproveitar as vantagens da IA ​​benevolente

Atualização: 8 de junho de 2021
Os humanos estão prontos para aproveitar as vantagens da IA ​​benevolente

Os humanos esperam que a IA seja benevolente e confiável. Um novo estudo revela que, ao mesmo tempo, os humanos não estão dispostos a cooperar e se comprometer com as máquinas. Eles até os exploram.

Imagine-se dirigindo em uma estrada estreita em um futuro próximo, quando de repente outro carro surge de uma curva à frente. É um carro que dirige sozinho, sem passageiros dentro. Você vai avançar e fazer valer o seu direito de passagem ou cederá para deixá-lo passar? No momento, a maioria de nós se comporta com gentileza em tais situações que envolvem outros humanos. Vamos mostrar essa mesma gentileza para com os veículos autônomos?

Usando métodos da teoria dos jogos comportamentais, uma equipe internacional de pesquisadores da LMU Munich e da University of London conduziu estudos online em grande escala para ver se as pessoas se comportariam de forma tão cooperativa com os sistemas de inteligência artificial (IA) quanto o fazem com outros humanos.

A cooperação mantém a sociedade unida. Freqüentemente, exige que nos comprometamos com os outros e aceitemos o risco de que eles nos decepcionem. O tráfego é um bom exemplo. Perdemos um pouco de tempo quando deixamos outras pessoas passarem na nossa frente e ficamos indignados quando os outros não retribuem nossa bondade. Faremos o mesmo com as máquinas?

As pessoas têm o mesmo nível de confiança em IA que os humanos: a maioria espera encontrar alguém que esteja pronto para cooperar. A diferença vem depois. As pessoas estão muito menos dispostas a retribuir com IA e, em vez disso, explorar sua benevolência em seu próprio benefício. Voltando ao exemplo do tráfego, um motorista humano daria lugar a outro humano, mas não a um carro que dirige sozinho. O estudo identifica essa relutância em se comprometer com as máquinas como um novo desafio para o futuro das interações humano-IA.

“Colocamos as pessoas no lugar de quem interage com um agente artificial pela primeira vez, como poderia acontecer na estrada”, explica Jurgis Karpus, PhD, teórico de jogos comportamentais e filósofo da LMU Munique e o primeiro autor de o estudo. “Modelamos diferentes tipos de encontros sociais e encontramos um padrão consistente. As pessoas esperavam que agentes artificiais fossem tão cooperativos quanto outros humanos. No entanto, eles não retribuíram sua benevolência tanto e exploraram a IA mais do que os humanos. ”

Com perspectivas da teoria dos jogos, ciência cognitiva e filosofia, os pesquisadores descobriram que a 'exploração de algoritmos' é um fenômeno robusto. Eles replicaram suas descobertas em nove experimentos com quase 2,000 participantes humanos. Cada experimento examina diferentes tipos de interações sociais e permite que o ser humano decida se compromete e coopera ou age egoisticamente. As expectativas dos outros jogadores também foram avaliadas. Em um jogo conhecido, o Dilema do Prisioneiro, as pessoas devem confiar que os outros personagens não as decepcionarão. Eles abraçaram o risco tanto com humanos quanto com IA, mas traíram a confiança da IA ​​com muito mais frequência, para ganhar mais dinheiro.

“A cooperação é sustentada por uma aposta mútua: confio que você será gentil comigo e você confia que eu serei gentil com você. A maior preocupação em nosso campo é que as pessoas não confiarão nas máquinas. Mas nós mostramos que sim! ” observa o Dr. Bahador Bahrami, neurocientista social da LMU e um dos pesquisadores seniores do estudo. “Eles estão bem em deixar a máquina cair, no entanto, e isso é uma grande diferença. As pessoas nem mesmo relatam muita culpa quando o fazem ”, acrescenta.

A IA tendenciosa e antiética ganhou muitas manchetes - desde o fiasco dos exames de 2020 no Reino Unido até os sistemas de justiça - mas essa nova pesquisa traz uma nova cautela. A indústria e os legisladores se esforçam para garantir que a inteligência artificial seja benevolente. Mas a benevolência pode sair pela culatra. Se as pessoas pensam que a IA foi programada para ser benevolente com elas, elas ficarão menos tentadas a cooperar. Alguns dos acidentes envolvendo carros autônomos podem já mostrar exemplos da vida real: os motoristas reconhecem um veículo autônomo na estrada e esperam que ele ceda. O veículo autônomo, entretanto, espera que os compromissos normais entre os motoristas sejam mantidos. ”

A exploração do algoritmo tem outras consequências no futuro. “Se os humanos relutam em deixar um carro autônomo educado entrar em uma estrada lateral, o carro autônomo deveria ser menos educado e mais agressivo para ser útil?

IA benevolente e confiável é uma palavra da moda que entusiasma todos. Mas consertar a IA não é tudo. Se percebermos que o robô à nossa frente será cooperativo, não importa o que aconteça, nós o usaremos para nosso interesse egoísta.

Os compromissos são o petróleo que faz a sociedade funcionar. Para cada um de nós, parece apenas um pequeno ato de interesse próprio. Para a sociedade como um todo, pode ter repercussões muito maiores. Se ninguém deixar Autônomo os carros entram no trânsito, eles criarão seus próprios congestionamentos nas laterais e não facilitarão o transporte.