Vraag en antwoord van insiders: De vertrouwens- en veiligheidsmanager vertelt over AI en contentmoderatie

Update: 24 april 2024
Vraag en antwoord van insiders: De vertrouwens- en veiligheidsmanager vertelt over AI en contentmoderatie
Krediet: AP Illustratie/Jenni Sohn

Alex Popken was lange tijd vertrouwens- en veiligheidsmanager bij Twitter en richtte zich op het modereren van inhoud voordat hij in 2023 vertrok. Ze was de eerste medewerker daar die zich toelegde op het modereren van de advertentieactiviteiten van Twitter toen ze in 2013 begon.

Nu is ze vice-president van vertrouwen en veiligheid bij WebPurify, een dienstverlener voor inhoudsmoderatie die samenwerkt met bedrijven om ervoor te zorgen dat de inhoud die mensen op hun sites plaatsen, aan de regels voldoet.

Sociale-mediaplatforms zijn niet de enigen die politie nodig hebben. Elk consumentgericht bedrijf – van detailhandelaren tot dating-apps tot nieuwssites – heeft iemand nodig die ongewenste inhoud verwijdert, of het nu gaat om haatzaaiende uitlatingen, intimidatie of iets illegaals. Bedrijven maken steeds vaker gebruik van kunstmatige intelligentie bij hun inspanningen, maar Popken merkt op dat mensen essentieel blijven voor het proces.

Popken sprak onlangs met The Associated Press. Het gesprek is aangepast voor duidelijkheid en lengte.

VRAAG: Hoe heb je de moderatie van inhoud zien veranderen in de tien jaar dat je op Twitter zat?

ANTWOORD: Toen ik me bij Twitter aansloot, stond contentmoderatie nog in de kinderschoenen. Ik denk dat zelfs vertrouwen en veiligheid dit concept was dat mensen net begonnen te begrijpen en ermee te worstelen. De behoefte aan contentmoderatie escaleerde toen wij, platforms zagen dat ze op nieuwe manieren werden bewapend. Ik kan me een aantal belangrijke mijlpalen uit mijn ambtsperiode bij Twitter herinneren. De Russische inmenging in de Amerikaanse presidentsverkiezingen van 2016, waarbij we ons voor het eerst en op een zinvolle manier realiseerden dat we zonder inhoudelijke moderatie slechte actoren kunnen hebben die de democratie ondermijnen. De noodzaak om op dit gebied te investeren werd steeds belangrijker.

Vraag: Veel bedrijven, de grotere socialemediabedrijven, vertrouwen op AI voor het modereren van inhoud. Denkt u dat AI zich al op een plek bevindt waar u erop kunt vertrouwen?

A: Effectieve contentmoderatie is een combinatie van mens en machine. AI, dat al jaren met mate wordt gebruikt, zorgt voor schaalvergroting. En dus heb je machine learning-modellen die zijn getraind op verschillende beleidsregels en inhoud kunnen detecteren. Maar laten we uiteindelijk zeggen dat u een machine learning-model heeft dat het woord 'nazi' detecteert. Er zijn veel berichten die nazi’s bekritiseren of educatief materiaal bieden over nazi’s versus blanke suprematie. En dus kan het geen oplossing bieden voor nuance en context. En dat is eigenlijk waar een menselijke laag om de hoek komt kijken.

Ik denk echt dat we echt belangrijke ontwikkelingen beginnen te zien die het werk van een mens gemakkelijker zullen maken. En ik denk dat generatieve AI daar een goed voorbeeld van is, in tegenstelling tot traditioneel. AI-modellen kunnen context en nuance veel beter begrijpen dan zijn voorganger. Maar toch hebben we nu geheel nieuwe gebruiksscenario's voor onze menselijke moderators rond het modereren van generatieve AI-uitvoer. En dus zal de behoefte aan menselijke gematigdheid naar mijn mening in de nabije toekomst blijven bestaan.

Vraag: Kunt u iets vertellen over de niet-socialemediabedrijven waarmee u werkt en welk soort inhoudsmoderatie zij gebruiken?

A: Ik bedoel, alles van het aanpassen van retailproducten, weet je, stel je voor dat je mensen toestaat T-shirts te personaliseren, toch? Het is duidelijk dat je gebruiksgevallen wilt vermijden waarin mensen daar misbruik van maken en schadelijke, hatelijke dingen op het T-shirt zetten.

Eigenlijk alles met door gebruikers gegenereerde inhoud, tot aan online daten toe. Je zoekt bijvoorbeeld naar zaken als catfishing en oplichting en zorgt ervoor dat mensen zijn wie ze zeggen dat ze zijn en voorkomt dat mensen ongepaste foto's uploaden. Het omvat meerdere sectoren.

Vraag: Hoe zit het met de problemen die u modereert? Verandert dat?

A: Contentmoderatie is een voortdurend evoluerend landschap. En het wordt beïnvloed door wat er in de wereld gebeurt. Het wordt beïnvloed door nieuwe en evoluerende technologieën. Het wordt beïnvloed door slechte acteurs die op nieuwe en innovatieve manieren proberen op deze platforms te komen. En dus probeer je als contentmoderatieteam een ​​stap voor te blijven en te anticiperen op nieuwe risico's.

Ik denk dat er in deze rol een beetje catastrofaal wordt gedacht, waarbij je nadenkt over de ergste scenario's die hier kunnen gebeuren. En zeker evolueren ze. Ik denk dat desinformatie een goed voorbeeld is van het feit dat desinformatie zoveel facetten heeft en dat het zo moeilijk is om deze te modereren. Het is alsof de oceaan kookt. Ik bedoel, je kunt niet alles wat iemand zegt op feiten controleren, toch? En dus moeten platforms zich doorgaans concentreren op desinformatie om niet de grootste schade in de echte wereld aan te richten. En ook dat evolueert voortdurend.

Vraag: In termen van generatieve AI bestaan ​​er doemscenario's die denken dat het internet kapot zal gaan, dat er alleen maar nep-AI-dingen op zullen staan. Heb je het gevoel dat dat zou kunnen gebeuren?

A: Ik maak me zorgen over door AI gegenereerde desinformatie, vooral tijdens wat wereldwijd een uiterst belangrijk verkiezingsseizoen is. Weet je, we zien actief meer deepfakes en schadelijke synthetische en gemanipuleerde media online, wat zorgwekkend is omdat ik denk dat de gemiddelde persoon het waarschijnlijk moeilijk heeft. onderscheidend accuraat versus niet.

Ik denk dat op de middellange tot lange termijn, als ik goed kan worden gereguleerd en als er passende vangrails omheen zijn, dit ook een kans kan creëren voor onze vertrouwens- en veiligheidsbeoefenaars. Ik doe. Stel je een wereld voor waarin AI een belangrijk hulpmiddel is in de gereedschapsriem van contentmoderatie, voor zaken als informatie over dreigingen. Weet je, ik denk dat het een uiterst nuttig hulpmiddel zal zijn, maar het zal ook misbruikt worden. En dat zien we nu al.