Los seres humanos están listos para aprovechar la IA benévola

Actualización: 8 de junio de 2021
Los seres humanos están listos para aprovechar la IA benévola

Los seres humanos esperan que la IA sea benevolente y digna de confianza. Un nuevo estudio revela que, al mismo tiempo, los humanos no están dispuestos a cooperar y comprometerse con las máquinas. Incluso los explotan.

Imagínese conduciendo por una carretera estrecha en un futuro cercano cuando, de repente, otro automóvil emerge de una curva más adelante. Es un automóvil autónomo sin pasajeros en el interior. ¿Avanzará y hará valer su derecho de paso, o cederá el paso para dejarlo pasar? En la actualidad, la mayoría de nosotros nos comportamos amablemente en situaciones que involucran a otros humanos. ¿Mostraremos esa misma amabilidad hacia los vehículos autónomos?

Utilizando métodos de la teoría de juegos de comportamiento, un equipo internacional de investigadores de la LMU de Múnich y la Universidad de Londres ha realizado estudios en línea a gran escala para ver si las personas se comportarían de manera tan cooperativa con los sistemas de inteligencia artificial (IA) como lo hacen con sus congéneres.

La cooperación mantiene unida a una sociedad. A menudo nos obliga a comprometernos con los demás y aceptar el riesgo de que nos defrauden. El tráfico es un buen ejemplo. Perdemos un poco de tiempo cuando dejamos que otras personas pasen frente a nosotros y nos sentimos indignados cuando otros no responden a nuestra amabilidad. ¿Haremos lo mismo con las máquinas?

Las personas tienen el mismo nivel de confianza hacia la IA que los humanos: la mayoría espera conocer a alguien que esté dispuesto a cooperar. La diferencia viene después. Las personas están mucho menos dispuestas a corresponder con la IA y, en cambio, explotan su benevolencia en su propio beneficio. Volviendo al ejemplo del tráfico, un conductor humano cedería el paso a otro humano, pero no a un automóvil autónomo. El estudio identifica esta falta de voluntad para comprometerse con las máquinas como un nuevo desafío para el futuro de las interacciones humano-IA.

"Ponemos a la gente en la piel de alguien que interactúa con un agente artificial por primera vez, como podría suceder en la carretera", explica Jurgis Karpus, PhD, teórico de los juegos conductuales y filósofo de LMU Munich y primer autor de el estudio. “Modelamos diferentes tipos de encuentros sociales y encontramos un patrón consistente. La gente esperaba que los agentes artificiales fueran tan cooperativos como sus congéneres. Sin embargo, no devolvieron tanto su benevolencia y explotaron a la IA más que a los humanos ".

Con perspectivas de la teoría de juegos, la ciencia cognitiva y la filosofía, los investigadores encontraron que la "explotación de algoritmos" es un fenómeno robusto. Replicaron sus hallazgos en nueve experimentos con casi 2,000 participantes humanos. Cada experimento examina diferentes tipos de interacciones sociales y le permite al ser humano decidir si comprometerse y cooperar o actuar de manera egoísta. También se midieron las expectativas de los otros jugadores. En un juego muy conocido, The Prisoner's Dilemma, la gente debe confiar en que los otros personajes no los defraudarán. Abrazaron el riesgo tanto con los humanos como con la IA, pero traicionaron la confianza de la IA con mucha más frecuencia para ganar más dinero.

“La cooperación se sustenta en una apuesta mutua: confío en que será amable conmigo y confía en que yo seré amable con usted. La mayor preocupación en nuestro campo es que la gente no confíe en las máquinas. ¡Pero demostramos que lo hacen! " señala el Dr. Bahador Bahrami, neurocientífico social de la LMU y uno de los investigadores principales del estudio. “Sin embargo, les parece bien dejar caer la máquina y esa es una gran diferencia. La gente ni siquiera informa de mucha culpa cuando lo hace ”, añade.

La IA sesgada y poco ética ha aparecido en muchos titulares, desde el fiasco de los exámenes de 2020 en el Reino Unido hasta los sistemas judiciales, pero esta nueva investigación plantea una advertencia novedosa. La industria y los legisladores se esfuerzan por garantizar que la inteligencia artificial sea benevolente. Pero la benevolencia puede resultar contraproducente. Si la gente piensa que la IA está programada para ser benévola con ellos, estarán menos tentados a cooperar. Es posible que algunos de los accidentes relacionados con vehículos autónomos ya sean ejemplos de la vida real: los conductores reconocen un vehículo autónomo en la carretera y esperan que ceda. Mientras tanto, el vehículo autónomo espera que se mantengan los compromisos normales entre los conductores ".

La explotación del algoritmo tiene más consecuencias en el futuro. “Si los seres humanos son reacios a permitir que un auto educado sin conductor se una desde una carretera lateral, ¿debería el auto sin conductor ser menos educado y más agresivo para ser útil?

La IA benévola y confiable es una palabra de moda que entusiasma a todos. Pero arreglar la IA no es toda la historia. Si nos damos cuenta de que el robot que tenemos delante será cooperativo pase lo que pase, lo usaremos para nuestro interés egoísta.

Los compromisos son el aceite que hace que la sociedad funcione. Para cada uno de nosotros, parece solo un pequeño acto de interés propio. Para la sociedad en su conjunto, podría tener repercusiones mucho mayores. Si nadie deja autónomo los coches se unen al tráfico, crearán sus propios atascos en los laterales y no facilitarán el transporte.