Люди готовы воспользоваться преимуществами доброжелательного ИИ

Обновление: 8 июня 2021 г.
Люди готовы воспользоваться преимуществами доброжелательного ИИ

Люди ожидают, что ИИ доброжелателен и заслуживает доверия. Новое исследование показывает, что в то же время люди не желают сотрудничать и идти на компромисс с машинами. Они даже их эксплуатируют.

Представьте, что вы едете по узкой дороге в ближайшем будущем, когда впереди из поворота внезапно появляется другая машина. Это беспилотный автомобиль без пассажиров. Будете ли вы продвигаться вперед и отстаивать свое право преимущественного проезда или уступите дорогу, чтобы его пропустить? В настоящее время большинство из нас ведет себя доброжелательно в подобных ситуациях с другими людьми. Будем ли мы проявлять такую ​​же доброту к беспилотным автомобилям?

Используя методы теории поведенческих игр, международная группа исследователей из LMU Мюнхена и Лондонского университета провела крупномасштабные онлайн-исследования, чтобы выяснить, будут ли люди вести себя так же совместно с системами искусственного интеллекта (ИИ), как и с другими людьми.

Сотрудничество объединяет общество. Нам часто приходится идти на компромисс с другими и соглашаться на риск, что они нас подведут. Пробки - хороший пример. Мы теряем немного времени, когда пропускаем других людей впереди нас, и возмущаемся, когда другие не отвечают на нашу доброту взаимностью. Будем ли мы делать то же самое с машинами?

Люди доверяют ИИ на том же уровне, что и люди: большинство ожидает встретить того, кто готов сотрудничать. Разница приходит потом. Люди гораздо менее готовы отвечать на ИИ взаимностью, а вместо этого используют его доброжелательность в своих интересах. Возвращаясь к примеру с дорожным движением, человек-водитель уступит дорогу другому человеку, но не беспилотному автомобилю. Исследование определяет это нежелание идти на компромисс с машинами как новую проблему для будущего взаимодействия человека и ИИ.

«Мы ставим людей на место тех, кто впервые взаимодействует с искусственным агентом, поскольку это могло произойти в дороге», - объясняет Юргис Карпус, доктор философии, теоретик поведенческих игр и философ из LMU в Мюнхене и первый автор книги учеба. «Мы смоделировали различные типы социальных встреч и обнаружили закономерность. Люди ожидали, что искусственные агенты будут сотрудничать с другими людьми. Однако они не отвечали на свою доброжелательность и использовали ИИ больше, чем люди ».

С точки зрения теории игр, когнитивной науки и философии, исследователи обнаружили, что «использование алгоритмов» является устойчивым явлением. Они повторили свои выводы в девяти экспериментах с участием почти 2,000 человек. Каждый эксперимент исследует различные виды социальных взаимодействий и позволяет человеку решить, идти ли на компромисс и сотрудничать или действовать эгоистично. Ожидания других игроков также были взвешенными. В известной игре «Дилемма заключенного» люди должны верить, что другие персонажи их не подведут. Они в равной степени шли на риск с людьми и ИИ, но гораздо чаще предавали доверие ИИ, чтобы заработать больше денег.

«Сотрудничество поддерживается взаимным пари: я верю, что ты будешь добр ко мне, и ты веришь, что я буду добр к тебе. В нашей области больше всего беспокоит то, что люди не будут доверять машинам. Но мы показываем, что это так! » отмечает доктор Бахадор Бахрами, социальный нейробиолог из LMU и один из старших исследователей в исследовании. «Тем не менее, они не возражают против того, чтобы машина вышла из строя, и это большая разница. Люди даже не сообщают о большой вине, когда они это делают », - добавляет он.

Предвзятый и неэтичный ИИ сделал много заголовков - от фиаско на экзаменах 2020 года в Соединенном Королевстве до систем правосудия, - но это новое исследование вызывает новое предостережение. Промышленность и законодатели стремятся обеспечить доброжелательность искусственного интеллекта. Но доброжелательность может иметь неприятные последствия. Если люди думают, что ИИ запрограммирован на благосклонность к ним, у них будет меньше соблазна сотрудничать. Некоторые из аварий с участием беспилотных автомобилей могут уже показывать примеры из реальной жизни: водители узнают автономный автомобиль на дороге и ожидают, что он уступит дорогу. Между тем, беспилотный автомобиль ожидает нормальных компромиссов между водителями ».

Эксплуатация алгоритма имеет дальнейшие последствия. «Если люди не хотят позволять вежливому беспилотному автомобилю выезжать на обочину дороги, должен ли беспилотный автомобиль быть менее вежливым и более агрессивным, чтобы быть полезным?

Доброжелательный и заслуживающий доверия ИИ - это модное слово, которое всем нравится. Но исправление ИИ - это еще не все. Если мы понимаем, что робот перед нами будет сотрудничать, несмотря ни на что, мы будем использовать его в своих корыстных интересах.

Компромиссы - это масло, которое заставляет общество работать. Для каждого из нас это выглядит лишь небольшим проявлением личных интересов. Для общества в целом это может иметь гораздо более серьезные последствия. Если никто не позволит автономный машины присоединяются к трафику, они сами создают пробки на обочине, а не облегчают транспортировку.