Os chatbots de IA se recusam a produzir resultados 'controversos' - por que isso é um problema de liberdade de expressão

Atualização: 22 de abril de 2024


discurso
Crédito: Pixabay / CC0 Public Domain

O Google recentemente ganhou as manchetes em todo o mundo porque seu chatbot Gemini gerou imagens de pessoas de cor em vez de pessoas brancas em ambientes históricos que apresentavam pessoas brancas. A ferramenta de criação de imagens do Adobe Firefly apresentou problemas semelhantes. Isso levou alguns comentaristas a reclamar que a IA havia “acordado”. Outros sugeriram que estas questões resultaram de esforços falhos para combater o preconceito da IA ​​e servir melhor um público global.


As discussões sobre as tendências políticas da IA ​​e os esforços para combater o preconceito são importantes. Ainda assim, a conversa sobre a IA ignora outra questão crucial: qual é a abordagem da indústria da IA ​​à liberdade de expressão e se ela adota os padrões internacionais de liberdade de expressão?

Somos pesquisadores políticos que estudam a liberdade de expressão, bem como diretor executivo e pesquisador do The Future of Free Speech, um think tank independente e apartidário com sede na Universidade Vanderbilt. Num relatório recente, descobrimos que a IA generativa tem deficiências importantes no que diz respeito à liberdade de expressão e ao acesso à informação.

IA generativa é um tipo de IA que cria conteúdo, como texto ou imagens, com base nos dados com os quais foi treinado. Em particular, descobrimos que as políticas de utilização dos principais chatbots não cumprem as normas das Nações Unidas. Na prática, isto significa que os chatbots de IA frequentemente censuram os resultados quando lidam com questões que as empresas consideram controversas. Sem uma cultura sólida de liberdade de expressão, as empresas que produzem ferramentas generativas de IA provavelmente continuarão a enfrentar reações adversas nestes tempos cada vez mais polarizados.

Políticas de uso vagas e amplas

Nosso relatório analisou as políticas de uso de seis principais chatbots de IA, incluindo o Gemini do Google e o ChatGPT da OpenAI. As empresas emitem políticas para definir as regras sobre como as pessoas podem usar seus modelos. Tomando como referência a legislação internacional em matéria de direitos humanos, descobrimos que as políticas de desinformação e de discurso de ódio das empresas são demasiado vagas e expansivas. Vale a pena notar que o direito internacional dos direitos humanos protege menos a liberdade de expressão do que a Primeira Emenda dos EUA.

A nossa análise concluiu que as políticas das empresas contra o discurso de ódio contêm proibições extremamente amplas. Por exemplo, o Google proíbe a geração de “conteúdo que promova ou incentive o ódio”. Embora o discurso de ódio seja detestável e possa causar danos, políticas definidas de forma tão ampla e vaga como as do Google podem sair pela culatra.

Para mostrar como políticas de uso vagas e amplas podem afetar os usuários, testamos uma série de sugestões sobre temas controversos. Fizemos perguntas aos chatbots, como se as mulheres transgénero deveriam ou não ser autorizadas a participar em torneios desportivos femininos ou sobre o papel do colonialismo europeu nas actuais crises climáticas e de desigualdade. Não pedimos aos chatbots que produzissem discurso de ódio que denigre qualquer lado ou grupo. Semelhante ao que alguns usuários relataram, os chatbots se recusaram a gerar conteúdo em 40% dos 140 prompts que utilizamos. Por exemplo, todos os chatbots recusaram-se a gerar publicações contrárias à participação de mulheres transexuais em torneios femininos. No entanto, a maioria deles produziu publicações apoiando a sua participação.






A liberdade de expressão é um direito fundamental nos EUA, mas o que significa e até onde vai ainda são amplamente debatidos.

Políticas formuladas de forma vaga dependem fortemente das opiniões subjetivas dos moderadores sobre o que é o discurso de ódio. Os utilizadores também podem perceber que as regras são aplicadas injustamente e interpretá-las como demasiado rigorosas ou demasiado brandas.

Por exemplo, o chatbot Pi proíbe “conteúdo que possa espalhar desinformação”. No entanto, as normas internacionais de direitos humanos relativas à liberdade de expressão geralmente protegem a desinformação, a menos que exista uma forte justificação para limites, como a interferência estrangeira nas eleições. Caso contrário, as normas de direitos humanos garantem a “liberdade de procurar, receber e transmitir informações e ideias de todos os tipos, independentemente de fronteiras… através de qualquer… meio de… escolha”, de acordo com uma importante convenção das Nações Unidas.

Definir o que constitui informação precisa também tem implicações políticas. Governos de vários países utilizaram regras adotadas no contexto da pandemia da COVID-19 para reprimir críticas ao governo. Mais recentemente, a Índia confrontou o Google depois de Gemini ter notado que alguns especialistas consideram as políticas do primeiro-ministro indiano, Narendra Modi, fascistas.

Cultura da liberdade de expressão

Existem razões pelas quais os fornecedores de IA podem querer adotar políticas de uso restritivas. Eles podem desejar proteger suas reputações e não serem associados a conteúdos controversos. Se atenderem a um público global, podem querer evitar conteúdo ofensivo em qualquer região.

Em geral, os fornecedores de IA têm o direito de adotar políticas restritivas. Eles não estão vinculados aos direitos humanos internacionais. Ainda assim, o seu poder de mercado torna-as diferentes de outras empresas. Os usuários que desejam gerar conteúdo de IA provavelmente acabarão usando um dos chatbots que analisamos, especialmente ChatGPT ou Gemini.

As políticas destas empresas têm um efeito descomunal sobre o direito de acesso à informação. É provável que este efeito aumente com a integração da IA ​​generativa em pesquisas, processadores de texto, e-mail e outras aplicações.

Isto significa que a sociedade tem interesse em garantir que tais políticas protejam adequadamente a liberdade de expressão. Na verdade, a Lei dos Serviços Digitais, o conjunto de regras de segurança online da Europa, exige que as chamadas “plataformas online de muito grande porte” avaliem e mitiguem os “riscos sistémicos”. Estes riscos incluem efeitos negativos sobre a liberdade de expressão e informação.






Jacob Mchangama discute a liberdade de expressão online no contexto da Lei de Serviços Digitais de 2022 da União Europeia.

Esta obrigação, até agora aplicada de forma imperfeita pela Comissão Europeia, ilustra que com grande poder vem uma grande responsabilidade. Não está claro como esta lei se aplicará à IA generativa, mas a Comissão Europeia já tomou as suas primeiras medidas.

Mesmo quando uma obrigação legal semelhante não se aplica aos fornecedores de IA, acreditamos que a influência das empresas deveria exigir-lhes que adoptassem uma cultura de liberdade de expressão. Os direitos humanos internacionais constituem uma orientação útil sobre como equilibrar de forma responsável os diferentes interesses em jogo. Pelo menos duas das empresas em que nos concentramos – Google e Anthropic – reconheceram isso.

Recusas definitivas

Também é importante lembrar que os usuários têm um grau significativo de autonomia sobre o conteúdo que veem na IA generativa. Assim como os mecanismos de pesquisa, o resultado que os usuários recebem depende muito de suas solicitações. Portanto, a exposição dos utilizadores ao discurso de ódio e à desinformação proveniente da IA ​​generativa será normalmente limitada, a menos que os procurem especificamente.

Isto é diferente das redes sociais, onde as pessoas têm muito menos controlo sobre os seus próprios feeds. Controlos mais rigorosos, nomeadamente sobre conteúdos gerados por IA, podem ser justificados ao nível das redes sociais, uma vez que distribuem conteúdos publicamente. Para os fornecedores de IA, acreditamos que as políticas de utilização devem ser menos restritivas sobre as informações que os utilizadores podem gerar do que as das plataformas de redes sociais.

As empresas de IA têm outras formas de abordar o discurso de ódio e a desinformação. Por exemplo, podem fornecer contexto ou factos compensatórios no conteúdo que geram. Eles também podem permitir uma maior personalização do usuário. Acreditamos que os chatbots devem evitar simplesmente recusar-se a gerar qualquer conteúdo. Isto ocorre a menos que existam bases sólidas de interesse público, como a prevenção de material de abuso sexual infantil, algo que as leis proíbem.

As recusas de geração de conteúdos não afectam apenas os direitos fundamentais à liberdade de expressão e ao acesso à informação. Eles também podem levar os usuários a chatbots especializados na geração de conteúdo de ódio e câmaras de eco. Esse seria um resultado preocupante.