Insider-Fragen und Antworten: Der Vertrauens- und Sicherheitsmanager spricht über KI und Inhaltsmoderation

Update: 24. April 2024
Insider-Fragen und Antworten: Der Vertrauens- und Sicherheitsmanager spricht über KI und Inhaltsmoderation
Bildnachweis: AP Illustration/Jenni Sohn

Alex Popken war lange Zeit als Vertrauens- und Sicherheitsmanagerin bei Twitter tätig und konzentrierte sich auf die Moderation von Inhalten, bevor sie das Unternehmen im Jahr 2023 verließ. Als sie 2013 anfing, war sie dort die erste Mitarbeiterin, die sich der Moderation des Werbegeschäfts von Twitter widmete.

Jetzt ist sie Vizepräsidentin für Vertrauen und Sicherheit bei WebPurify, einem Anbieter von Inhaltsmoderationsdiensten, der mit Unternehmen zusammenarbeitet, um sicherzustellen, dass die Inhalte, die Menschen auf ihren Websites veröffentlichen, den Regeln entsprechen.

Social-Media-Plattformen sind nicht die einzigen, die überwacht werden müssen. Jedes verbraucherorientierte Unternehmen – vom Einzelhändler über Dating-Apps bis hin zu Nachrichtenseiten – braucht jemanden, der unerwünschte Inhalte aussortiert, sei es Hassrede, Belästigung oder etwas Illegales. Unternehmen nutzen in ihren Bemühungen zunehmend künstliche Intelligenz, Popken weist jedoch darauf hin, dass der Mensch für den Prozess nach wie vor von entscheidender Bedeutung ist.

Popken sprach kürzlich mit The Associated Press. Das Gespräch wurde aus Gründen der Klarheit und Länge bearbeitet.

FRAGE: Wie haben Sie in dem Jahrzehnt, in dem Sie bei Twitter waren, Veränderungen bei der Moderation von Inhalten erlebt?

ANTWORT: Als ich Twitter beitrat, steckte die Moderation von Inhalten noch in den Kinderschuhen. Ich denke, selbst Vertrauen und Sicherheit waren Konzepte, die die Leute gerade erst zu verstehen und sich mit ihnen auseinanderzusetzen begannen. Der Bedarf an Inhaltsmoderation wuchs im Laufe der Zeit, da die Plattformen sahen, wie sie auf neue Art und Weise als Waffe eingesetzt wurden. Ich kann mich an einige wichtige Meilensteine ​​meiner Amtszeit bei Twitter erinnern. Beispielsweise wurde uns durch die Einmischung Russlands in die US-Präsidentschaftswahl 2016 zum ersten Mal bewusst, dass es ohne Moderation von Inhalten schlechte Akteure geben kann, die die Demokratie untergraben. Die Notwendigkeit, in diesem Bereich zu investieren, wurde immer wichtiger.

F: Viele Unternehmen, insbesondere die größeren Social-Media-Unternehmen, setzen bei der Moderation von Inhalten auf KI. Glauben Sie, dass KI bereits an einem Punkt angelangt ist, an dem man sich darauf verlassen kann?

A: Eine effektive Inhaltsmoderation ist eine Kombination aus Menschen und Maschinen. KI, die seit Jahren in Maßen eingesetzt wird, löst Skalierbarkeit auf. Sie verfügen also über Modelle für maschinelles Lernen, die auf verschiedene Richtlinien trainiert sind und Inhalte erkennen können. Nehmen wir aber letztendlich an, Sie verfügen über ein maschinelles Lernmodell, das das Wort „Nazi“ erkennt. Es gibt viele Beiträge, die Nazis kritisieren oder Lehrmaterial über Nazis im Vergleich zur weißen Vorherrschaft bereitstellen. Daher kann es nicht nach Nuancen und Kontexten aufgelöst werden. Und hier kommt wirklich eine menschliche Ebene ins Spiel.

Ich glaube schon, dass wir beginnen, wirklich wichtige Fortschritte zu sehen, die die Arbeit des Menschen erleichtern werden. Und ich denke, dass generative KI im Gegensatz zur traditionellen KI ein großartiges Beispiel dafür ist. Mithilfe von KI-Modellen kann es Kontexte und Nuancen viel besser verstehen als sein Vorgänger. Dennoch haben wir jetzt völlig neue Anwendungsfälle für unsere menschlichen Moderatoren rund um die Moderation generativer KI-Ausgaben. Daher wird meiner Meinung nach auch in absehbarer Zukunft die Notwendigkeit menschlicher Mäßigung bestehen bleiben.

F: Können Sie ein wenig über die Nicht-Social-Media-Unternehmen sprechen, mit denen Sie zusammenarbeiten, und welche Art von Inhaltsmoderation sie einsetzen?

A: Ich meine, alles, von der Individualisierung von Einzelhandelsprodukten, stellen Sie sich vor, Sie erlauben den Leuten, T-Shirts individuell zu gestalten, oder? Offensichtlich möchten Sie Anwendungsfälle vermeiden, in denen Menschen dies missbrauchen und schädliche, hasserfüllte Dinge auf das T-Shirt kleben.

Eigentlich alles, was nutzergenerierte Inhalte hat, bis hin zum Online-Dating – dort sucht man nach Dingen wie Catfishing und Betrug und stellt sicher, dass die Leute die sind, für die sie sich ausgeben, und verhindert zum Beispiel, dass Leute unangemessene Fotos hochladen. Es erstreckt sich über mehrere Branchen.

F: Was ist mit den Themen, die Sie moderieren? Ändert sich das?

A: Die Moderation von Inhalten ist eine sich ständig weiterentwickelnde Landschaft. Und es wird von dem beeinflusst, was in der Welt passiert. Es wird von neuen und sich entwickelnden Technologien beeinflusst. Es wird von schlechten Akteuren beeinflusst, die versuchen, auf neue und innovative Weise auf diese Plattformen zu gelangen. Als Content-Moderationsteam versuchen Sie also, immer einen Schritt voraus zu sein und neue Risiken zu antizipieren.

Ich denke, dass man in dieser Rolle ein bisschen katastrophal denkt, wenn man darüber nachdenkt, welche Worst-Case-Szenarien hier passieren können. Und sicherlich entwickeln sie sich weiter. Ich denke, Fehlinformationen sind ein großartiges Beispiel dafür, dass Fehlinformationen so viele Facetten haben und so schwer zu moderieren sind. Es ist, als würde man den Ozean zum Kochen bringen. Ich meine, man kann nicht alles, was jemand sagt, auf Fakten überprüfen, oder? Daher müssen sich Plattformen in der Regel auf Fehlinformationen konzentrieren, um nicht den größtmöglichen Schaden anzurichten. Und auch das entwickelt sich ständig weiter.

F: Was die generative KI angeht, gibt es einige Weltuntergangsmeinungen, die glauben, dass sie das Internet ruinieren wird, dass es nur, Sie wissen schon, gefälschtes KI-Zeug darauf geben wird. Haben Sie das Gefühl, dass das passieren könnte?

A: Ich habe Bedenken hinsichtlich KI-generierter Fehlinformationen, insbesondere während einer weltweit äußerst wichtigen Wahlsaison. Wissen Sie, wir sehen aktiv mehr Deepfakes und schädliche synthetische und manipulierte Medien online, was besorgniserregend ist, weil ich denke, dass der Durchschnittsmensch es wahrscheinlich schwer hat. Unterscheidung zwischen richtig und nicht richtig.

Ich denke, mittel- bis langfristig kann dies meiner Meinung nach auch eine Chance für unsere Vertrauens- und Sicherheitspraktikern schaffen, wenn ich angemessen reguliert werden kann und entsprechende Leitplanken vorhanden sind. Ich tue. Stellen Sie sich eine Welt vor, in der KI ein wichtiges Werkzeug im Werkzeuggürtel der Inhaltsmoderation ist, beispielsweise für Bedrohungsinformationen. Wissen Sie, ich denke, dass es ein äußerst hilfreiches Werkzeug sein wird, aber es wird auch missbraucht. Und wir sehen das bereits.