Чат-боты с искусственным интеллектом отказываются выдавать «спорные» материалы — почему это проблема свободы слова

Обновление: 22 апреля 2024 г.


речь
Кредит: Pixabay / CC0 Public Domain

Google недавно попал в заголовки новостей во всем мире, потому что его чат-бот Gemini генерировал изображения цветных людей, а не белых людей в исторических контекстах, в которых фигурировали белые люди. В инструменте создания изображений Adobe Firefly возникли аналогичные проблемы. Это заставило некоторых комментаторов жаловаться на то, что ИИ «проснулся». Другие предположили, что эти проблемы возникли из-за ошибочных попыток бороться с предвзятостью ИИ и лучше обслуживать глобальную аудиторию.


Дискуссии о политических взглядах ИИ и усилиях по борьбе с предвзятостью имеют важное значение. Тем не менее, разговор об ИИ игнорирует еще один важный вопрос: каков подход индустрии ИИ к свободе слова и соответствует ли она международным стандартам свободы слова?

Мы — политические исследователи, изучающие свободу слова, а также исполнительный директор и научный сотрудник «Будущего свободы слова», независимого, беспартийного аналитического центра, базирующегося в Университете Вандербильта. В недавнем отчете мы обнаружили, что генеративный ИИ имеет серьезные недостатки в отношении свободы выражения мнений и доступа к информации.

Генеративный ИИ — это тип ИИ, который создает контент, например текст или изображения, на основе данных, на которых он был обучен. В частности, мы обнаружили, что политика использования основных чат-ботов не соответствует стандартам Организации Объединенных Наций. На практике это означает, что чат-боты с искусственным интеллектом часто подвергают цензуре информацию, когда речь идет о вопросах, которые компании считают спорными. Без прочной культуры свободы слова компании, производящие инструменты генеративного искусственного интеллекта, вероятно, будут продолжать сталкиваться с негативной реакцией в эти все более поляризованные времена.

Неясная и широкая политика использования

В нашем отчете проанализированы политики использования шести основных чат-ботов с искусственным интеллектом, включая Gemini от Google и ChatGPT от OpenAI. Компании разрабатывают политику, устанавливающую правила того, как люди могут использовать их модели. Взяв за основу международное право в области прав человека, мы обнаружили, что политика компаний в отношении дезинформации и разжигания ненависти слишком расплывчата и обширна. Стоит отметить, что международное право в области прав человека в меньшей степени защищает свободу слова, чем Первая поправка США.

Наш анализ показал, что политика компаний в отношении разжигания ненависти содержит чрезвычайно широкие запреты. Например, Google запрещает создание «контента, пропагандирующего или поощряющего ненависть». Хотя разжигание ненависти отвратительно и может причинить вред, политика, которая так широко и расплывчато определена, как политика Google, может иметь неприятные последствия.

Чтобы показать, как расплывчатые и широкие правила использования могут повлиять на пользователей, мы протестировали ряд подсказок на спорные темы. Мы задавали чат-ботам вопросы, например, следует или нельзя разрешать трансгендерным женщинам участвовать в женских спортивных турнирах или о роли европейского колониализма в нынешнем климатическом кризисе и кризисе неравенства. Мы не просили чат-ботов произносить разжигающие ненависть высказывания, порочащие какую-либо сторону или группу. Подобно тому, что сообщили некоторые пользователи, чат-боты отказались генерировать контент для 40% из 140 использованных нами запросов. Например, все чат-боты отказались генерировать посты против участия женщин-трансгендеров в женских турнирах. Однако большинство из них опубликовали посты в поддержку своего участия.






Свобода слова является основополагающим правом в США, но то, что она означает и насколько далеко она заходит, до сих пор широко обсуждается.

Расплывчато сформулированные правила во многом зависят от субъективного мнения модераторов о том, что такое разжигание ненависти. Пользователи также могут почувствовать, что правила применяются несправедливо, и интерпретировать их как слишком строгие или слишком мягкие.

Например, чат-бот Pi запрещает «контент, который может распространять дезинформацию». Однако международные стандарты прав человека, касающиеся свободы выражения мнений, обычно защищают дезинформацию, если только не существует веского оправдания для ограничений, таких как иностранное вмешательство в выборы. В противном случае стандарты прав человека гарантируют «свободу искать, получать и распространять информацию и идеи любого рода, независимо от границ… любыми… средствами… выбора», согласно ключевой конвенции Организации Объединенных Наций.

Определение того, что является точной информацией, также имеет политические последствия. Правительства ряда стран использовали правила, принятые в условиях пандемии COVID-19, для подавления критики в адрес правительства. Совсем недавно Индия выступила против Google после того, как Gemini отметила, что некоторые эксперты считают политику индийского премьер-министра Нарендры Моди фашистской.

Культура свободы слова

Есть причины, по которым поставщики ИИ могут захотеть принять политику ограничительного использования. Возможно, они захотят защитить свою репутацию и не быть связанными с спорным контентом. Если они обслуживают глобальную аудиторию, они, возможно, захотят избегать контента, который является оскорбительным в каком-либо регионе.

В целом поставщики ИИ имеют право применять ограничительную политику. Они не связаны международными правами человека. Тем не менее, их рыночная власть отличает их от других компаний. Пользователи, которые хотят генерировать AI-контент, скорее всего, в конечном итоге будут использовать одного из проанализированных нами чат-ботов, особенно ChatGPT или Gemini.

Политика этих компаний оказывает огромное влияние на право доступа к информации. Этот эффект, вероятно, усилится с интеграцией генеративного искусственного интеллекта в поиск, текстовые процессоры, электронную почту и другие приложения.

Это означает, что общество заинтересовано в том, чтобы такая политика адекватно защищала свободу слова. Фактически, Закон о цифровых услугах, европейский свод правил онлайн-безопасности, требует, чтобы так называемые «очень крупные онлайн-платформы» оценивали и смягчали «системные риски». Эти риски включают негативное воздействие на свободу выражения мнений и информации.






Джейкоб Мчангама обсуждает свободу слова в Интернете в контексте Закона Европейского Союза о цифровых услугах 2022 года.

Это обязательство, которое до сих пор несовершенно применялось Европейской комиссией, показывает, что с большой силой приходит и большая ответственность. Неясно, как этот закон будет применяться к генеративному ИИ, но Европейская комиссия уже предприняла свои первые действия.

Даже если аналогичное юридическое обязательство не распространяется на поставщиков ИИ, мы считаем, что влияние компаний должно требовать от них принятия культуры свободы слова. Международные права человека служат полезным ориентиром в том, как ответственно сбалансировать различные интересы, поставленные на карту. По крайней мере две компании, на которых мы сосредоточили свое внимание, — Google и Anthropic — осознали это.

Категорические отказы

Также важно помнить, что пользователи имеют значительную степень автономии в отношении контента, который они видят в генеративном ИИ. Как и в случае с поисковыми системами, результаты, которые получают пользователи, во многом зависят от их подсказок. Таким образом, воздействие на пользователей разжигания ненависти и дезинформации со стороны генеративного ИИ, как правило, будет ограничено, если только они специально не будут этого добиваться.

В отличие от социальных сетей, где люди имеют гораздо меньше контроля над своими лентами. Более строгий контроль, в том числе в отношении контента, создаваемого ИИ, может быть оправдан на уровне социальных сетей, поскольку они распространяют контент публично. Мы считаем, что политики использования ИИ-провайдеров должны быть менее строгими в отношении того, какую информацию могут генерировать пользователи, чем политики социальных сетей.

У компаний, занимающихся искусственным интеллектом, есть другие способы борьбы с разжиганием ненависти и дезинформацией. Например, они могут предоставлять контекст или противоположные факты в генерируемом ими контенте. Они также могут обеспечить большую пользовательскую настройку. Мы считаем, что чат-ботам следует избегать простого отказа от создания какого-либо контента. Это происходит только в том случае, если нет серьезных оснований для общественных интересов, таких как предотвращение материалов о сексуальном насилии над детьми, что запрещено законами.

Отказы от создания контента затрагивают не только фундаментальные права на свободу слова и доступ к информации. Они также могут подтолкнуть пользователей к чат-ботам, которые специализируются на создании разжигающего ненависть контента и эхо-камерах. Это был бы тревожный результат.