Perguntas e respostas internas: executivo de confiança e segurança fala sobre IA e moderação de conteúdo

Atualização: 24 de abril de 2024
Perguntas e respostas internas: executivo de confiança e segurança fala sobre IA e moderação de conteúdo
Crédito: Ilustração AP/Jenni Sohn

Alex Popken foi uma executiva de longa data de confiança e segurança no Twitter com foco na moderação de conteúdo antes de sair em 2023. Ela foi a primeira funcionária dedicada a moderar os negócios de publicidade do Twitter quando começou em 2013.

Agora, ela é vice-presidente de confiança e segurança da WebPurify, um provedor de serviços de moderação de conteúdo que trabalha com empresas para ajudar a garantir que o conteúdo que as pessoas postam em seus sites siga as regras.

As plataformas de mídia social não são as únicas que precisam de policiamento. Qualquer empresa voltada para o consumidor – de varejistas a aplicativos de namoro e sites de notícias – precisa de alguém para eliminar conteúdo indesejado, seja discurso de ódio, assédio ou qualquer coisa ilegal. As empresas utilizam cada vez mais a inteligência artificial nos seus esforços, mas Popken observa que os humanos continuam a ser essenciais para o processo.

Popken falou recentemente com a Associated Press. A conversa foi editada para maior clareza e extensão.

PERGUNTA: Como você viu a mudança na moderação de conteúdo naquela década em que esteve no Twitter?

RESPOSTA: Quando entrei no Twitter, a moderação de conteúdo estava em seus estágios iniciais. Acho que até confiança e segurança eram conceitos que as pessoas estavam apenas começando a entender e a lidar. A necessidade de moderação de conteúdo aumentou à medida que nós, à medida que as plataformas, os víamos ser transformados em armas de novas maneiras. Posso me lembrar de alguns marcos importantes da minha gestão no Twitter. Por exemplo, a interferência russa nas eleições presidenciais dos EUA em 2016, onde percebemos pela primeira vez, percebemos de forma significativa, que sem moderação de conteúdo podemos ter maus actores a minar a democracia. A necessidade de investir nesta área tornou-se cada vez mais importante.

P: Muitas empresas, as maiores empresas de mídia social, estão contando com IA para moderação de conteúdo. Você acha que a IA ainda está em um lugar onde é possível confiar nela?

R: A moderação eficaz de conteúdo é uma combinação de humanos e máquinas. A IA, que tem sido usada com moderação há anos, resolve a questão da escala. E assim você tem modelos de aprendizado de máquina treinados em diferentes políticas e capazes de detectar conteúdo. Mas, em última análise, digamos que você tenha um modelo de aprendizado de máquina que detecte a palavra “nazista”. Há muitas postagens que podem criticar os nazistas ou fornecer material educacional sobre os nazistas versus a supremacia branca. E, portanto, não pode resolver nuances e contexto. E é aí que entra a camada humana.

Acho que estamos começando a ver avanços realmente importantes que facilitarão o trabalho do ser humano. E acho que a IA generativa é um ótimo exemplo disso, ao contrário da tradicional. Modelos de IA, ele pode compreender o contexto e as nuances muito mais do que seu antecessor. Mesmo assim, temos agora casos de uso inteiramente novos para nossos moderadores humanos em torno da moderação de resultados generativos de IA. E assim a necessidade de moderação humana permanecerá no futuro próximo, na minha opinião.

P: Você pode falar um pouco sobre as empresas de mídia não social com as quais você trabalha e que tipo de moderação de conteúdo elas usam?

R: Quer dizer, tudo, desde customização de produtos de varejo, sabe, imagine que você está permitindo que as pessoas personalizem camisetas, certo? Obviamente, você deseja evitar casos de uso em que as pessoas abusem disso e coloquem coisas prejudiciais e odiosas na camiseta.

Na verdade, qualquer coisa que tenha conteúdo gerado pelo usuário, até namoro online - aí, você está procurando coisas como pesca de gato e golpes e garantindo que as pessoas sejam quem dizem ser e evitando que as pessoas enviem fotos inadequadas, por exemplo. Ele abrange vários setores.

P: E quanto às questões que você está moderando, isso muda?

R: A moderação de conteúdo é um cenário em constante evolução. E é influenciado pelo que está acontecendo no mundo. É influenciado por tecnologias novas e em evolução. É influenciado por maus atores que tentarão entrar nessas plataformas de maneiras novas e inovadoras. E assim, como equipe de moderação de conteúdo, você tenta estar um passo à frente e antecipar novos riscos.

Eu acho que há um pouco de pensamento catastrófico nesta função, onde você pensa sobre quais são os piores cenários que podem acontecer aqui. E certamente eles evoluem. Acho que a desinformação é um ótimo exemplo de que há tantas facetas na desinformação e é algo tão difícil de moderar. É como ferver o oceano. Quero dizer, você não pode verificar cada coisa que alguém diz, certo? E, portanto, normalmente as plataformas precisam se concentrar na desinformação para não causar os maiores danos no mundo real. E isso também está sempre evoluindo.

P: Em termos de IA generativa, há quem pense que isso vai arruinar a Internet, que será apenas, você sabe, coisas falsas de IA nela. Você sente que isso pode estar acontecendo?

R: Estou preocupado com a desinformação gerada pela IA, especialmente durante um período eleitoral extremamente importante em todo o mundo. Você sabe, estamos vendo ativamente mais deepfakes e mídias sintéticas e manipuladas prejudiciais online, o que é preocupante porque acho que a pessoa média provavelmente passa por momentos difíceis. discernir preciso versus não.

Penso que, a médio e longo prazo, se puder ser devidamente regulamentado e se existirem barreiras de proteção adequadas à sua volta, também penso que isso poderá criar uma oportunidade para os nossos profissionais de confiança e segurança. Eu faço. Imagine um mundo em que a IA seja uma ferramenta importante no conjunto de ferramentas de moderação de conteúdo, para coisas como inteligência de ameaças. Você sabe, acho que será uma ferramenta extremamente útil, mas também será mal utilizada. E já estamos vendo isso.