Почему роботы могут быть нечувствительны к культуре и как ученые пытаются это исправить

Обновление: 17 апреля 2024 г.


Роботы
Кредит: Unsplash / CC0 Public Domain

Робот разговаривает с пожилым британцем в его спальне. У робота веселая манера поведения и приятный высокий голос.


Робот — возможно, из-за возраста мужчины — начинает расспрашивать его о воспоминаниях о Второй мировой войне: «Скажите, пожалуйста, что самое трудное пришлось пережить вам и вашей семье?» Пожилой мужчина продолжает рассказывать о том, как его отец служил в Королевских ВВС, и они не видели его почти четыре года.

Но почему робот прямо спросил его о том, что, возможно, было одним из самых травмирующих событий, которые он когда-либо испытывал? Поведение робота было результатом проекта Caresses (Роботы, ориентированные на культуру, и системы датчиков окружающей среды для поддержки пожилых людей).

Этот проект вписывается в новую область «культурной робототехники», целью которой является создание роботов, способных учитывать культурное происхождение человека, с которым они разговаривают, и соответствующим образом корректировать свое поведение. Вот почему робот болтает о войне. Мужчина был британцем, поэтому предполагалось, что он заинтересуется.

В будущем мы можем ожидать, что роботы будут все больше и больше использоваться в нашей личной и социальной жизни. В настоящее время ведутся активные исследования в таких разнообразных областях, как роботы-доставщики для супермаркетов, развлекательные роботы, сервисные роботы для здравоохранения, роботы-грузчики для складов, роботы для поддержки деменции, роботы для людей с аутизмом и роботы для ухода за пожилыми людьми.

Есть даже роботы-священники, которые могут произносить благословения на пяти языках, и роботы-монахи, которые могут обучать людей буддизму.






Культурные стереотипы

Культурная робототехника является частью более широкого движения за то, чтобы сделать ИИ и робототехнику более инклюзивными в культурном отношении.

Опасения по поводу этого движения высказывались и раньше. Например, большие языковые модели (LLM), такие как используемая OpenAI ChatGPT, обучаются на огромных объемах текста. Но поскольку в Интернете по-прежнему преобладает английский язык, выпускников LLM в первую очередь обучают английским текстам, с учетом культурных предположений и предубеждений.

Аналогичным образом, стремление сделать роботов и ИИ более чувствительными к культуре является благим намерением, но мы обеспокоены тем, к чему это может привести.

Например, в одном исследовании сравнивались культурные предпочтения Китая, Германии и Кореи, чтобы сделать выводы о том, как люди в этих странах хотели бы, чтобы их роботы выглядели.

Опираясь на предыдущие исследования культурных предпочтений, они предположили, что более «мужские» общества склонны думать о «больших и быстрых» вещах как о красивых, в то время как более «женственные» общества находят красивыми «маленькие и медленные» вещи. Они ссылались на работу, в которой утверждается, что корейская культура отличается «средней мужественностью», а немецкая культура — «высокой мужественностью», и предположили, что корейцы с большей вероятностью найдут сервисных роботов (которые, как правило, маленькие или средние и медленные). симпатичный.

В другом исследовании сравнивались предпочтения личного пространства немцев и «арабов». Но эти вещи несопоставимы. «Араб» — потенциально оскорбительный термин для многих людей, и его можно использовать для описания людей самого разного культурного и национального происхождения. Это, конечно, не в одном ряду с такими категориями, как «немец», который является неоскорбительным термином для людей одной национальности.

Также становится все более очевидным, что люди по-разному реагируют на роботов в зависимости от своего культурного происхождения. Например, в разных культурах разные ожидания в отношении личного пространства, и это влияет на то, насколько далеко они предпочитают, чтобы роботы находились от них.

В разных культурах выражения лица интерпретируются по-разному. Одно исследование показало, что люди лучше понимают робота, если он общается, используя знакомое им выражение лица.






По-другому?

Если мы хотим избежать проектирования роботов на основе широких и грубых обобщений и стереотипов, нам понадобится более тонкий подход к культуре робототехники.

Культура – ​​это общеизвестно размытое и нюансированное понятие, открытое для множества интерпретаций. В одном опросе перечислено более 300 потенциальных определений культуры.

В нашем недавнем исследовании мы утверждали, что культура «концептуально фрагментирована». Короче говоря, мы считаем, что существует так много разных способов понимания культуры и так много разных видов роботов, что нам не следует ожидать существования универсального подхода.

Мы считаем, что разные приложения в робототехнике потребуют радикально разных подходов к культуре. Например, представьте себе робота-развлекателя в театре, который танцует для зрителей.

В этой работе лучший подход к культуре может заключаться в том, чтобы сосредоточиться на том, какие виды развлечений предпочитают люди в данном районе. Это может включать в себя вопрос о том, какие танцевальные стили распространены в данной местности, и моделирование конструкции робота на основе этого.

Другие приложения могут потребовать другого подхода к культуре. Например, для робота, который, как ожидается, будет взаимодействовать с одним и тем же небольшим количеством людей в течение длительного периода времени (например, обслуживающий робот в доме престарелых), для робота может быть более важным изменять свое поведение с течением времени, чтобы адаптироваться к меняющимся предпочтениям людей, которым они помогают.

В этом случае, возможно, лучше было бы думать о культуре как о чем-то, что возникает медленно и динамично в результате взаимодействия различных субъектов.

Это означает, что подход к культуре в робототехнике, скорее всего, будет сложным, многогранным и специфичным для каждой ситуации.

Если мы создаем роботов на основе относительно грубых стереотипов и широких обобщений о различных культурах, мы рискуем распространить эти стереотипы.