Forscher enthüllen Roadmap für KI-Innovationen beim Gehirn- und Sprachenlernen

Aktualisierung: 21. März 2024
ai
Kredit: Öffentliche Domäne CC0

Eines der Markenzeichen der Menschheit ist die Sprache, aber jetzt verfassen leistungsstarke neue Werkzeuge der künstlichen Intelligenz auch Gedichte, schreiben Lieder und führen ausführliche Gespräche mit menschlichen Benutzern. Tools wie ChatGPT und Gemini sind auf Knopfdruck weit verbreitet – aber wie intelligent sind diese KIs?


Eine neue multidisziplinäre Forschungsinitiative unter der gemeinsamen Leitung von Anna (Anya) Ivanova, Assistenzprofessorin an der School of Psychology der Georgia Tech, zusammen mit Kyle Mahowald, einem Assistenzprofessor am Department of Linguistics der University of Texas in Austin, arbeitet an der Aufdeckung nur das.

Ihre Ergebnisse könnten zu innovativen KIs führen, die dem menschlichen Gehirn ähnlicher sind als je zuvor – und auch Neurowissenschaftlern und Psychologen helfen, die Geheimnisse unseres eigenen Geistes zu lüften.

Die Studie „Dissociating Language and Thought in Large Language Models“ ist veröffentlicht in Trends in den kognitiven Wissenschaften. Ein früherer Vorabdruck des Papiers wurde im Januar 2023 veröffentlicht. Das Forschungsteam hat die Forschung für diese endgültige Zeitschriftenveröffentlichung weiter verfeinert.

„ChatGPT wurde verfügbar, während wir den Vordruck fertigstellten“, erklärt Ivanova. „Im vergangenen Jahr hatten wir Gelegenheit, unsere Argumente im Lichte dieser neueren Generation von Modellen zu aktualisieren, darunter jetzt auch ChatGPT.“

Form versus Funktion

Die Studie konzentriert sich auf große Sprachmodelle (LLMs), zu denen KIs wie ChatGPT gehören. LLMs sind Textvorhersagemodelle und erzeugen Schrift, indem sie vorhersagen, welches Wort in einem Satz als nächstes kommt – so wie ein Mobiltelefon- oder E-Mail-Dienst wie Gmail vorschlagen könnte, welches Wort Sie als nächstes schreiben möchten. Obwohl diese Art des Sprachenlernens äußerst effektiv darin ist, zusammenhängende Sätze zu bilden, bedeutet dies nicht unbedingt Intelligenz.

Ivanovas Team argumentiert, dass formale Kompetenz – das Erstellen eines gut strukturierten, grammatikalisch korrekten Satzes – von funktionaler Kompetenz – die richtige Frage beantworten, die richtigen Informationen kommunizieren oder angemessen kommunizieren – unterschieden werden sollte. Das Team stellte außerdem fest, dass LLMs, die auf Textvorhersage geschult sind, oft sehr gut in formalen Fertigkeiten sind, aber immer noch Probleme mit funktionalen Fertigkeiten haben.

„Wir Menschen neigen dazu, Sprache und Denken zu vermischen“, sagt Ivanova. „Ich denke, das ist eine wichtige Sache, die man im Hinterkopf behalten muss, wenn wir versuchen herauszufinden, wozu diese Modelle in der Lage sind, denn die Nutzung dieser Fähigkeit, gut in der Sprache zu sein, gut in formaler Kompetenz zu sein, führt viele Menschen zu der Annahme, dass KIs.“ sind auch gut im Denken – auch wenn das nicht der Fall ist.

„Es ist eine Heuristik, die wir im Laufe der Jahrtausende der Evolution entwickelt haben, als wir mit anderen Menschen interagierten, aber jetzt ist diese Heuristik in mancher Hinsicht kaputt“, erklärt Ivanova.

Die Unterscheidung zwischen formaler und funktionaler Kompetenz sei auch für die gründliche Prüfung der Fähigkeiten einer KI von entscheidender Bedeutung, fügt Ivanova hinzu. Bei Bewertungen wird häufig nicht zwischen formaler und funktionaler Kompetenz unterschieden, was es schwierig macht, zu beurteilen, welche Faktoren über den Erfolg oder Misserfolg eines Modells entscheiden. Die Notwendigkeit, unterschiedliche Tests zu entwickeln, ist eine der allgemein akzeptierten Erkenntnisse des Teams und eine, mit deren Umsetzung einige Forscher auf diesem Gebiet bereits begonnen haben.

Erstellen eines modularen Systems

Während die menschliche Tendenz, funktionale und formale Kompetenz zu vermischen, in der Vergangenheit möglicherweise das Verständnis von LLMs behindert hat, könnte unser menschliches Gehirn auch der Schlüssel zur Erschließung leistungsfähigerer KIs sein.

Nutzung der Werkzeuge der kognitiven Neurowissenschaften als Postdoktorand am Massachusetts Institute of Technologie (MIT) untersuchten Ivanova und ihr Team die Gehirnaktivität neurotypischer Personen mittels fMRT und verwendeten Verhaltensbewertungen von Personen mit Hirnschäden, um die kausale Rolle von Gehirnregionen in Sprache und Kognition zu testen – sowohl durch neue Forschungsergebnisse als auch durch Rückgriff auf frühere Studien. Die Ergebnisse des Teams zeigten, dass menschliche Gehirne unterschiedliche Regionen für funktionale und formale Kompetenz nutzen, was diese Unterscheidung bei KIs weiter unterstützt.

„Unsere Forschung zeigt, dass es im Gehirn eine Sprachverarbeitung gibt Modulen und separate Module zum Denken“, sagt Ivanova. Diese Modularität könnte auch als Blaupause für die Entwicklung zukünftiger KIs dienen.

„Aufbauend auf Erkenntnissen aus dem menschlichen Gehirn – wo sich das Sprachverarbeitungssystem deutlich von den Systemen unterscheidet, die unsere Denkfähigkeit unterstützen – argumentieren wir, dass die Unterscheidung zwischen Sprache und Denken konzeptionell wichtig ist, insbesondere für das Nachdenken, Bewerten und Verbessern großer Sprachmodelle angesichts der jüngsten Bemühungen, diese Modelle mit menschenähnlicher Intelligenz zu versehen“, sagt Ivanovas ehemalige Beraterin und Co-Autorin der Studie, Evelina Fedorenko, Professorin für Gehirn- und Kognitionswissenschaften am MIT und Mitglied des McGovern Institute for Brain Research.

Die Entwicklung von KIs nach dem Vorbild des menschlichen Gehirns könnte dazu beitragen, leistungsfähigere Systeme zu schaffen – und sie gleichzeitig natürlicher mit menschlichen Benutzern zu verzahnen. „Im Allgemeinen wirken sich Unterschiede in der internen Struktur eines Mechanismus auf das Verhalten aus“, sagt Ivanova. „Der Aufbau eines Systems mit einer breiten makroskopischen Organisation, die der des menschlichen Gehirns ähnelt, könnte dazu beitragen, dass es später besser auf den Menschen abgestimmt ist.“

In der sich schnell entwickelnden Welt der KI sind diese Systeme reif für Experimente. Nachdem der Vorabdruck des Teams veröffentlicht wurde, gab OpenAI seine Absicht bekannt, Plug-Ins zu seinen GPT-Modellen hinzuzufügen.

„Dieses Plug-in-System ist tatsächlich dem, was wir vorschlagen, sehr ähnlich“, fügt Ivanova hinzu. „Es handelt sich um einen modularen Ansatz, bei dem das Sprachmodell eine Schnittstelle zu einem anderen spezialisierten Modul innerhalb eines Systems sein kann.“

Während das OpenAI-Plug-in-System eher Funktionen wie das Buchen von Flügen und das Bestellen von Essen als kognitiv inspirierte Funktionen umfassen wird, zeigt es, dass „der Ansatz viel Potenzial hat“, sagt Ivanova.

Die Zukunft der KI – und was sie uns über uns selbst sagen kann

Während unser eigenes Gehirn möglicherweise der Schlüssel zur Erschließung besserer und leistungsfähigerer KIs ist, könnten diese KIs uns auch dabei helfen, uns selbst besser zu verstehen. „Wenn Forscher versuchen, das Gehirn und die Kognition zu untersuchen, ist es oft nützlich, ein kleineres System zu haben, in das man hineingehen und herumstöbern und sehen kann, was vor sich geht, bevor man sich der immensen Komplexität nähert“, erklärt Ivanova.

Da die menschliche Sprache jedoch einzigartig ist, ist es schwieriger, Modell- oder Tiersysteme in Beziehung zu setzen. Hier kommen LLMs ins Spiel.

„Es gibt viele überraschende Ähnlichkeiten zwischen der Herangehensweise an die Erforschung des Gehirns und der Erforschung eines künstlichen neuronalen Netzwerks“, etwa eines großen Sprachmodells, fügt sie hinzu. „Beide handelt es sich um Informationsverarbeitungssysteme, die über biologische oder künstliche Neuronen verfügen, um Berechnungen durchzuführen.“

In vielerlei Hinsicht ist das menschliche Gehirn immer noch eine Black Box, aber offen verfügbare KIs bieten eine einzigartige Gelegenheit, das Innenleben des synthetischen Systems zu sehen, Variablen zu modifizieren und diese entsprechenden Systeme wie nie zuvor zu erkunden.

„Es ist ein wirklich wunderbares Modell, über das wir viel Kontrolle haben“, sagt Ivanova. „Neuronale Netze – sie sind erstaunlich.“

Zum Forschungsteam gehören neben Anna (Anya) Ivanova, Kyle Mahowald und Evelina Fedorenko auch Idan Blank (University of California, Los Angeles) sowie Nancy Kanwisher und Joshua Tenenbaum (Massachusetts Institute of Technology).