Domande e risposte privilegiate: il dirigente Trust and Safety parla di intelligenza artificiale e moderazione dei contenuti

Aggiornamento: 24 aprile 2024
Domande e risposte privilegiate: il dirigente Trust and Safety parla di intelligenza artificiale e moderazione dei contenuti
Credito: Illustrazione AP/Jenni Sohn

Alex Popken è stata per lungo tempo dirigente di Trust and Safety presso Twitter concentrandosi sulla moderazione dei contenuti prima di lasciare l'azienda nel 2023. È stata la prima dipendente a dedicarsi alla moderazione dell'attività pubblicitaria di Twitter quando ha iniziato nel 2013.

Ora è vicepresidente per la fiducia e la sicurezza presso WebPurify, un fornitore di servizi di moderazione dei contenuti che collabora con le aziende per garantire che i contenuti che le persone pubblicano sui loro siti rispettino le regole.

Le piattaforme di social media non sono le uniche che necessitano di sorveglianza. Qualsiasi azienda rivolta al consumatore, dai rivenditori alle app di appuntamenti ai siti di notizie, ha bisogno di qualcuno che elimini i contenuti indesiderati, siano essi incitamento all'odio, molestie o qualsiasi cosa illegale. Le aziende utilizzano sempre più l’intelligenza artificiale nei loro sforzi, ma Popken sottolinea che gli esseri umani rimangono essenziali nel processo.

Popken ha parlato recentemente con l'Associated Press. La conversazione è stata modificata per chiarezza e lunghezza.

DOMANDA: Come hai visto cambiare la moderazione dei contenuti nel decennio in cui eri su Twitter?

RISPOSTA: Quando mi sono iscritto a Twitter, la moderazione dei contenuti era nelle sue fasi nascenti. Penso che anche la fiducia e la sicurezza fossero concetti che le persone stavano appena iniziando a comprendere e con cui confrontarsi. La necessità di moderazione dei contenuti è aumentata man mano che noi, poiché le piattaforme li vedevamo utilizzati come armi in nuovi modi. Posso ricordare alcune pietre miliari chiave del mio mandato su Twitter. Ad esempio, l’interferenza russa nelle elezioni presidenziali americane del 2016, dove ci siamo resi conto per la prima volta, in modo significativo, che senza moderazione dei contenuti possiamo avere cattivi attori che minano la democrazia. La necessità di investire in questo settore è diventata sempre più importante.

D: Molte aziende, le più grandi società di social media, si affidano all'intelligenza artificiale per la moderazione dei contenuti. Pensi che l'intelligenza artificiale sia ancora arrivata a un punto in cui è possibile fare affidamento su di essa?

R: Una moderazione efficace dei contenuti è una combinazione di esseri umani e macchine. L’intelligenza artificiale, utilizzata con moderazione da anni, risolve i problemi in termini di scala. Quindi disponi di modelli di apprendimento automatico addestrati su policy diverse e in grado di rilevare i contenuti. Ma alla fine, supponiamo che tu abbia un modello di apprendimento automatico che rileva la parola "nazista". Ci sono molti post che potrebbero criticare i nazisti o fornire materiale educativo sui nazisti rispetto alla supremazia bianca. E quindi non può risolvere sfumature e contesto. Ed è proprio qui che entra in gioco lo strato umano.

Penso che stiamo iniziando a vedere progressi davvero importanti che renderanno più semplice il lavoro degli esseri umani. E penso che l'intelligenza artificiale generativa ne sia un ottimo esempio, a differenza di quella tradizionale. Modelli di intelligenza artificiale, può comprendere il contesto e le sfumature molto più del suo predecessore. Tuttavia, ora abbiamo casi d’uso completamente nuovi per i nostri moderatori umani riguardanti la moderazione degli output dell’intelligenza artificiale generativa. E quindi, a mio avviso, la necessità di moderazione umana persisterà anche nel prossimo futuro.

D: Puoi parlarci un po' delle società non legate ai social media con cui lavori e che tipo di moderazione dei contenuti utilizzano?

A: Voglio dire, tutto, dalla personalizzazione del prodotto al dettaglio, sai, immagina di consentire alle persone di personalizzare le magliette, giusto? Ovviamente, vuoi evitare casi d'uso in cui le persone ne abusano e mettono cose dannose e odiose sulla maglietta.

In realtà, tutto ciò che ha contenuti generati dagli utenti, fino agli appuntamenti online: lì, cerchi cose come catfishing e truffe e ti assicuri che le persone siano chi dicono di essere e impedisci alle persone di caricare foto inappropriate, ad esempio. Si estende a più settori.

D: Cosa cambia per quanto riguarda i problemi che stai moderando?

R: La moderazione dei contenuti è un panorama in continua evoluzione. Ed è influenzato da ciò che sta accadendo nel mondo. È influenzato da tecnologie nuove e in evoluzione. È influenzato da cattivi attori che tenteranno di accedere a queste piattaforme in modi nuovi e innovativi. E quindi, come team di moderazione dei contenuti, stai cercando di stare un passo avanti e anticipare nuovi rischi.

Penso che ci sia un po' di pensiero catastrofico in questo ruolo in cui pensi a quali sono gli scenari peggiori che possono accadere qui. E certamente si evolvono. Penso che la disinformazione sia un ottimo esempio di come ci siano così tante sfaccettature nella disinformazione ed è così difficile da moderare. È come far bollire l'oceano. Voglio dire, non puoi verificare ogni singola cosa che qualcuno dice, giusto? E quindi in genere le piattaforme devono concentrarsi sulla disinformazione per non causare il danno più reale nel mondo. E anche questo è sempre in evoluzione.

D: In termini di intelligenza artificiale generativa c'è chi pensa che rovinerà Internet, che ci sarà solo, sai, roba di intelligenza artificiale falsa su di esso. Hai la sensazione che ciò potrebbe accadere?

R: Sono preoccupato per la disinformazione generata dall’intelligenza artificiale, soprattutto durante quella che è una stagione elettorale estremamente importante a livello globale. Sapete, stiamo vedendo attivamente più deepfake e media sintetici e manipolati dannosi online, il che è preoccupante perché penso che la persona media probabilmente abbia difficoltà. discernere accurato e non.

Penso che a medio e lungo termine, se posso essere adeguatamente regolamentato e se ci sono guardrail adeguati attorno ad esso, penso anche che possa creare un'opportunità per i nostri professionisti della fiducia e della sicurezza. Io faccio. Immagina un mondo in cui l’intelligenza artificiale sia uno strumento importante nella cintura degli strumenti di moderazione dei contenuti, per cose come l’intelligence sulle minacce. Sapete, penso che sarà uno strumento estremamente utile, ma sarà anche utilizzato in modo improprio. E lo stiamo già vedendo.