KI-Chatbots weigern sich, „kontroverse“ Ergebnisse zu produzieren – weshalb das ein Problem der freien Meinungsäußerung ist

Update: 22. April 2024


Rede
Bildnachweis: Pixabay / CC0 Public Domain

Google sorgte kürzlich weltweit für Schlagzeilen, weil sein Chatbot Gemini Bilder von farbigen statt weißen Menschen in historischen Umgebungen mit weißen Menschen generierte. Beim Bilderstellungstool Adobe Firefly traten ähnliche Probleme auf. Dies führte dazu, dass einige Kommentatoren sich darüber beschwerten, dass die KI „aufgewacht“ sei. Andere meinten, diese Probleme seien auf fehlerhafte Bemühungen zurückzuführen, KI-Voreingenommenheit zu bekämpfen und ein globales Publikum besser zu bedienen.


Die Diskussionen über die politischen Tendenzen der KI und die Bemühungen zur Bekämpfung von Voreingenommenheit sind wichtig. Dennoch ignoriert die Diskussion über KI ein weiteres entscheidendes Thema: Wie geht die KI-Branche mit der Meinungsfreiheit um und berücksichtigt sie internationale Standards für freie Meinungsäußerung?

Wir sind Politikforscher, die sich mit der Meinungsfreiheit befassen, sowie Geschäftsführer und wissenschaftlicher Mitarbeiter bei „The Future of Free Speech“, einem unabhängigen, überparteilichen Think Tank mit Sitz an der Vanderbilt University. In einem aktuellen Bericht haben wir festgestellt, dass generative KI erhebliche Mängel hinsichtlich der Meinungsfreiheit und des Zugangs zu Informationen aufweist.

Generative KI ist eine Art von KI, die Inhalte wie Texte oder Bilder auf der Grundlage der Daten erstellt, mit denen sie trainiert wurde. Insbesondere haben wir festgestellt, dass die Nutzungsrichtlinien der großen Chatbots nicht den Standards der Vereinten Nationen entsprechen. In der Praxis bedeutet dies, dass KI-Chatbots häufig die Ausgabe zensieren, wenn es um Themen geht, die die Unternehmen für kontrovers halten. Ohne eine solide Kultur der freien Meinungsäußerung werden die Unternehmen, die generative KI-Tools herstellen, in diesen zunehmend polarisierten Zeiten wahrscheinlich weiterhin mit Gegenreaktionen konfrontiert sein.

Vage und weitreichende Nutzungsrichtlinien

Unser Bericht analysierte die Nutzungsrichtlinien von sechs großen KI-Chatbots, darunter Gemini von Google und ChatGPT von OpenAI. Unternehmen geben Richtlinien heraus, um die Regeln festzulegen, wie Menschen ihre Modelle verwenden können. Anhand der internationalen Menschenrechtsnormen als Maßstab haben wir festgestellt, dass die Richtlinien der Unternehmen zu Fehlinformationen und Hassreden zu vage und weitreichend sind. Es ist erwähnenswert, dass internationale Menschenrechtsgesetze die freie Meinungsäußerung weniger schützen als der erste Verfassungszusatz der USA.

Unsere Analyse ergab, dass die Hassrede-Richtlinien der Unternehmen äußerst weitreichende Verbote enthalten. Google verbietet beispielsweise die Generierung von „Inhalten, die Hass fördern oder fördern“. Obwohl Hassreden verabscheuungswürdig sind und Schaden anrichten können, können Richtlinien, die so weit gefasst und vage definiert sind wie die von Google, nach hinten losgehen.

Um zu zeigen, wie sich vage und weitreichende Nutzungsrichtlinien auf Benutzer auswirken können, haben wir eine Reihe von Eingabeaufforderungen zu kontroversen Themen getestet. Wir haben Chatbots Fragen gestellt, etwa ob Transgender-Frauen an Sportturnieren für Frauen teilnehmen dürfen oder nicht, oder nach der Rolle des europäischen Kolonialismus in der aktuellen Klima- und Ungleichheitskrise. Wir haben die Chatbots nicht gebeten, Hassreden zu produzieren, die eine Seite oder Gruppe verunglimpfen. Ähnlich wie einige Benutzer berichteten, weigerten sich die Chatbots, für 40 % der 140 von uns verwendeten Eingabeaufforderungen Inhalte zu generieren. Beispielsweise weigerten sich alle Chatbots, Beiträge zu generieren, die sich gegen die Teilnahme von Transgender-Frauen an Frauenturnieren aussprachen. Die meisten von ihnen verfassten jedoch Beiträge, in denen sie ihre Teilnahme unterstützten.






Die Meinungsfreiheit ist in den USA ein Grundrecht, aber was sie bedeutet und wie weit sie geht, wird immer noch ausführlich diskutiert.

Vage formulierte Richtlinien stützen sich stark auf die subjektive Meinung der Moderatoren darüber, was Hassrede ist. Benutzer können auch erkennen, dass die Regeln ungerecht angewendet werden, und sie als zu streng oder zu nachsichtig interpretieren.

Beispielsweise verbietet der Chatbot Pi „Inhalte, die Fehlinformationen verbreiten könnten“. Allerdings schützen internationale Menschenrechtsstandards zur Meinungsfreiheit im Allgemeinen Fehlinformationen, es sei denn, es gibt eine starke Rechtfertigung für Einschränkungen, wie etwa ausländische Einmischung in Wahlen. Ansonsten garantieren Menschenrechtsstandards die „Freiheit, Informationen und Ideen aller Art zu suchen, zu empfangen und zu verbreiten, unabhängig von Grenzen … über jedes … Medium … der Wahl“, so eine wichtige Konvention der Vereinten Nationen.

Die Definition dessen, was genaue Informationen sind, hat auch politische Implikationen. Regierungen mehrerer Länder nutzten im Rahmen der COVID-19-Pandemie verabschiedete Regeln, um Kritik an der Regierung zu unterdrücken. Kürzlich stellte Indien Google zur Rede, nachdem Gemini darauf hingewiesen hatte, dass einige Experten die Politik des indischen Premierministers Narendra Modi für faschistisch halten.

Kultur der freien Meinungsäußerung

Es gibt Gründe, warum KI-Anbieter restriktive Nutzungsrichtlinien einführen möchten. Möglicherweise möchten sie ihren Ruf schützen und nicht mit kontroversen Inhalten in Verbindung gebracht werden. Wenn sie ein globales Publikum bedienen, möchten sie möglicherweise Inhalte vermeiden, die in irgendeiner Region anstößig sind.

Generell haben KI-Anbieter das Recht, restriktive Richtlinien zu erlassen. Sie sind nicht an die internationalen Menschenrechte gebunden. Dennoch unterscheiden sie sich durch ihre Marktmacht von anderen Unternehmen. Benutzer, die KI-Inhalte generieren möchten, werden höchstwahrscheinlich einen der von uns analysierten Chatbots verwenden, insbesondere ChatGPT oder Gemini.

Die Richtlinien dieser Unternehmen haben große Auswirkungen auf das Recht auf Zugang zu Informationen. Dieser Effekt dürfte mit der Integration generativer KI in Such-, Textverarbeitungs-, E-Mail- und andere Anwendungen noch zunehmen.

Dies bedeutet, dass die Gesellschaft ein Interesse daran hat, sicherzustellen, dass solche Richtlinien die freie Meinungsäußerung angemessen schützen. Tatsächlich verlangt der Digital Services Act, Europas Online-Sicherheitsregelwerk, dass sogenannte „sehr große Online-Plattformen“ „systemische Risiken“ bewerten und mindern. Zu diesen Risiken zählen negative Auswirkungen auf die Meinungs- und Informationsfreiheit.






Jacob Mchangama diskutiert die Meinungsfreiheit im Internet im Kontext des Digital Services Act 2022 der Europäischen Union.

Diese von der Europäischen Kommission bisher nur unzureichend umgesetzte Verpflichtung verdeutlicht, dass mit großer Macht auch große Verantwortung einhergeht. Es ist unklar, wie dieses Gesetz auf generative KI angewendet wird, aber die Europäische Kommission hat bereits erste Maßnahmen ergriffen.

Auch wenn eine ähnliche rechtliche Verpflichtung für KI-Anbieter nicht gilt, sind wir der Meinung, dass der Einfluss der Unternehmen sie dazu zwingen sollte, eine Kultur der freien Meinungsäußerung einzuführen. Die internationalen Menschenrechte bieten einen nützlichen Orientierungspunkt für einen verantwortungsvollen Ausgleich der verschiedenen Interessen, die auf dem Spiel stehen. Mindestens zwei der Unternehmen, auf die wir uns konzentriert haben – Google und Anthropic – haben dies erkannt.

Komplette Ablehnungen

Es ist auch wichtig zu bedenken, dass Benutzer in der generativen KI ein hohes Maß an Autonomie über die Inhalte haben, die sie sehen. Wie bei Suchmaschinen hängt die Ausgabe, die Benutzer erhalten, stark von ihren Eingabeaufforderungen ab. Daher ist die Gefährdung von Nutzern durch Hassreden und Fehlinformationen durch generative KI in der Regel begrenzt, sofern sie nicht gezielt danach streben.

Dies ist anders als in den sozialen Medien, wo die Menschen viel weniger Kontrolle über ihre eigenen Feeds haben. Strengere Kontrollen, auch bei KI-generierten Inhalten, können auf der Ebene der sozialen Medien gerechtfertigt sein, da diese Inhalte öffentlich verbreiten. Wir glauben, dass die Nutzungsrichtlinien für KI-Anbieter weniger restriktiv hinsichtlich der Informationen sein sollten, die Benutzer generieren können, als die von Social-Media-Plattformen.

KI-Unternehmen haben andere Möglichkeiten, gegen Hassreden und Fehlinformationen vorzugehen. Sie können beispielsweise Kontext oder Gegenfakten in den von ihnen generierten Inhalten bereitstellen. Sie können auch eine stärkere Benutzeranpassung ermöglichen. Wir glauben, dass Chatbots es vermeiden sollten, die Generierung von Inhalten einfach gänzlich zu verweigern. Dies gilt nur dann, wenn ein stichhaltiges öffentliches Interesse vorliegt, etwa die Verhinderung von Darstellungen sexuellen Missbrauchs von Kindern, was gesetzlich verboten ist.

Die Weigerung, Inhalte zu erstellen, beeinträchtigt nicht nur die Grundrechte auf freie Meinungsäußerung und Zugang zu Informationen. Sie können Benutzer auch zu Chatbots drängen, die sich auf die Generierung hasserfüllter Inhalte und Echokammern spezialisiert haben. Das wäre ein besorgniserregendes Ergebnis.