Les humains sont prêts à tirer parti de l'IA bienveillante

Mise à jour : 8 juin 2021
Les humains sont prêts à tirer parti de l'IA bienveillante

Les humains s'attendent à ce que l'IA soit bienveillante et digne de confiance. Une nouvelle étude révèle qu'en même temps, les humains ne sont pas disposés à coopérer et à faire des compromis avec les machines. Ils les exploitent même.

Imaginez-vous conduire sur une route étroite dans un avenir proche lorsque soudain une autre voiture émerge d'un virage devant vous. C'est une voiture autonome sans passagers à l'intérieur. Allez-vous avancer et faire valoir votre droit de passage, ou céder le passage pour le laisser passer ? À l'heure actuelle, la plupart d'entre nous se comportent avec bienveillance dans de telles situations impliquant d'autres humains. Allons-nous faire preuve de la même bienveillance envers les véhicules autonomes ?

À l'aide de méthodes issues de la théorie des jeux comportementaux, une équipe internationale de chercheurs du LMU Munich et de l'Université de Londres a mené des études en ligne à grande échelle pour voir si les gens se comporteraient de manière aussi coopérative avec les systèmes d'intelligence artificielle (IA) qu'avec leurs semblables.

La coopération maintient une société ensemble. Cela nous oblige souvent à faire des compromis avec les autres et à accepter le risque qu'ils nous laissent tomber. Le trafic est un bon exemple. Nous perdons un peu de temps lorsque nous laissons passer d'autres personnes devant nous et sommes indignés lorsque les autres ne nous rendent pas la pareille. Ferons-nous la même chose avec les machines ?

Les gens ont le même niveau de confiance envers l'IA que les humains : la plupart s'attendent à rencontrer quelqu'un qui est prêt à coopérer. La différence vient après. Les gens sont beaucoup moins prêts à rendre la pareille à l'IA et à exploiter sa bienveillance à leur propre avantage. Pour en revenir à l'exemple de la circulation, un conducteur humain céderait la place à un autre humain mais pas à une voiture autonome. L'étude identifie cette réticence à faire des compromis avec les machines comme un nouveau défi pour l'avenir des interactions homme-IA.

"Nous mettons les gens dans la peau de quelqu'un qui interagit avec un agent artificiel pour la première fois, comme cela pourrait arriver sur la route", explique Jurgis Karpus, PhD, théoricien des jeux comportementaux et philosophe à LMU Munich et premier auteur de l'étude. « Nous avons modélisé différents types de rencontres sociales et trouvé un modèle cohérent. Les gens s'attendaient à ce que les agents artificiels soient aussi coopératifs que leurs semblables. Cependant, ils n'ont pas autant rendu leur bienveillance et ont exploité l'IA plus que les humains. »

Avec des perspectives issues de la théorie des jeux, des sciences cognitives et de la philosophie, les chercheurs ont découvert que « l'exploitation d'algorithmes » est un phénomène robuste. Ils ont répliqué leurs résultats à travers neuf expériences avec près de 2,000 XNUMX participants humains. Chaque expérience examine différents types d'interactions sociales et permet à l'humain de décider s'il doit faire des compromis et coopérer ou agir de manière égoïste. Les attentes des autres acteurs ont également été mesurées. Dans un jeu bien connu, le dilemme du prisonnier, les gens doivent avoir confiance que les autres personnages ne les laisseront pas tomber. Ils ont embrassé le risque avec les humains et l'IA, mais ont trahi la confiance de l'IA beaucoup plus souvent, pour gagner plus d'argent.

« La coopération est soutenue par un pari mutuel : j'espère que vous serez gentil avec moi, et vous croyez que je serai gentil avec vous. La plus grande inquiétude dans notre domaine est que les gens ne feront pas confiance aux machines. Mais nous montrons qu'ils le font ! note le Dr Bahador Bahrami, neuroscientifique social à la LMU et l'un des chercheurs principaux de l'étude. "Ils sont d'accord pour laisser tomber la machine, cependant, et c'est une grande différence. Les gens ne rapportent même pas beaucoup de culpabilité quand ils le font », ajoute-t-il.

L'IA biaisée et contraire à l'éthique a fait la une des journaux, du fiasco des examens de 2020 au Royaume-Uni aux systèmes judiciaires, mais cette nouvelle recherche soulève une nouvelle mise en garde. L'industrie et les législateurs s'efforcent de faire en sorte que l'intelligence artificielle soit bienveillante. Mais la bienveillance peut se retourner contre vous. Si les gens pensent que l'IA est programmée pour être bienveillante envers eux, ils seront moins tentés de coopérer. Certains accidents impliquant des voitures autonomes peuvent déjà montrer des exemples concrets : les conducteurs reconnaissent un véhicule autonome sur la route et s'attendent à ce qu'il cède. Le véhicule autonome s'attend quant à lui à ce que les compromis normaux entre les conducteurs tiennent. »

L'exploitation d'algorithmes a d'autres conséquences sur toute la ligne. « Si les humains sont réticents à laisser une voiture autonome polie rejoindre une route secondaire, la voiture autonome devrait-elle être moins polie et plus agressive pour être utile ?

Une IA bienveillante et digne de confiance est un mot à la mode qui passionne tout le monde. Mais réparer l'IA n'est pas toute l'histoire. Si nous réalisons que le robot devant nous sera coopératif quoi qu'il arrive, nous l'utiliserons pour notre intérêt égoïste.

Les compromis sont l'huile qui fait fonctionner la société. Pour chacun de nous, cela ne ressemble qu'à un petit acte d'intérêt personnel. Pour la société dans son ensemble, cela pourrait avoir des répercussions beaucoup plus importantes. Si personne ne laisse autonome les voitures se joignent à la circulation, elles créeront leurs propres embouteillages sur le côté et ne faciliteront pas le transport.