Die künstliche allgemeine Intelligenz (AGI) und die Hypothese der realen existentiellen Bedrohung

Update: 7. August 2021
Die künstliche allgemeine Intelligenz (AGI) und die Hypothese der realen existentiellen Bedrohung

Das anthropomorphe Gefühl legt nahe, dass es Homo sapiens seit etwa sechs Millionen Jahren gibt. Stellen Sie sich das jedoch so vor: Wenn die Erde vor einem Jahr erschaffen wurde, wäre die menschliche Spezies 10 Minuten alt. Das Industriezeitalter begann vor 2 Sekunden. Wir, die am weitesten entwickelten und intelligentesten Spezies, sind tatsächlich erst kürzlich angekommene Gäste auf diesem Planeten.

Von Feuer und Schwefel war die menschliche Intelligenz der primäre Katalysator, um alles zu erreichen, was wir erreicht haben und was uns wichtig ist. Es ist klar ersichtlich, dass der Evolutionszyklus des Menschen und der ihn umgebenden Welt entscheidend von einigen relativ kleinen Veränderungen abhängt, die den menschlichen Geist geprägt haben. Und was natürlich nachhallt, ist, dass alle weiteren Veränderungen, die das Substrat des Denkens signifikant verändern könnten, potenziell enorme Konsequenzen haben könnten.

Nun, wir haben bereits einen weiteren Urknall erlebt, der dieses Substrat tiefgreifend verändert hat, und derzeit befinden wir uns mitten in einer Revolution. Es hat einen großen Paradigmenwechsel von regelbasierter KI zum maschinellen Lernen und von Mensch-Maschine-Schnittstelle zu Maschine-zu-Maschine-Schnittstelle gegeben. Maschinen können tatsächlich von Mustern und Algorithmen lernen und sich ständig verbessern, genau wie ein menschliches Kind. Reinforcement Learning ist der Prozess, bei dem sich die Maschine durch Versuch und Irrtum selbst trainiert.

Wir begegnen KI jeden Tag und das Technologie macht rasante Fortschritte. Dies kann die neue Evolution sein, die das Leben auf unserem Planeten grundlegend verändern kann. Künstliche Intelligenz hat das Potenzial, jeden Aspekt des täglichen Lebens zu revolutionieren; Arbeit, Mobilität, Medizin, Wirtschaft und Kommunikation.

Schachmatt auf Menschlichkeit?

Denken Sie darüber nach, Sie sehen sich ein Video auf Facebook oder eine Rolle auf Instagram an und dann allmählich, was passiert, erhalten Sie den Vorschlag eines neuen Videos derselben Kategorie, die Sie zuvor gesehen haben. Und dann passiert etwas Erschreckendes, eine Kette von automatisierten Vorschlägen beginnt in Ihren Feeds und jetzt sind Sie in diesem Teufelskreis gefangen, Stunden Ihrer Zeit zu töten, indem Sie sich diesem Kreislauf hingeben.

Sie beobachten und scrollen ununterbrochen, ohne zu merken, dass es irgendwo künstliche Intelligenz und einen Algorithmus gibt, der Ihr Scrollmuster, Ihre Wiedergabezeit liest und analysiert, Ihren Verstand übt und Ihnen genau das bietet, was Sie dazu zwingt, immer mehr Zeit zu verbringen in dieser speziellen App. In gewisser Weise sagt die Intelligenz dem Benutzer, was er sehen soll. Und das passiert die ganze Zeit. Vorschläge erhalten Sie beim Online-Shopping oder auf YouTube. Und wenn es nicht reguliert wird, kann dies bei der menschlichen Intelligenz schachmatt sein.

GPT-3 (Generative Pre-Trained Transformer 3) sorgt im Silicon Valley für Beben

Stellen Sie sich eine KI vor, die alles schreiben kann. Sie füttern es mit Gedichten eines bestimmten Dichters und es wird ein neues mit demselben Rhythmus und Genre schreiben. Oder es kann einen Nachrichtenartikel schreiben (der Vormund hat das bereits getan). Es kann einen Artikel lesen, Fragen aus den Informationen im Artikel beantworten und sogar den Artikel für Sie zusammenfassen und ganz zu schweigen davon, dass es Bilder aus dem Text generieren kann.

GPT-3 ist ein Deep-Learning-Algorithmus, der menschenähnlichen Text erzeugt. Es ist das Sprachvorhersagemodell der dritten Generation, das vom Start-up „OpenAI“ aus San Francisco entwickelt wurde, das von Elon Musk mitbegründet wurde. Dieses Programm ist besser als jedes frühere Programm beim Erstellen von Text, der von einem Menschen hätte geschrieben werden können. Es ist ein Quantensprung, weil es sich für viele Unternehmen als nützlich erweisen kann und großes Potenzial bei der Automatisierung von Aufgaben hat.

Es kann Java-Codes schreiben, indem es einfach Textbeschreibungen einfügt. Oder wie wäre es mit einer Moke-up-Website, indem Sie einfach eine URL mit einer Beschreibung kopieren und einfügen.

Angefangen hat alles mit einem Spiel.

„Go“ ist wohl eines der komplexesten Spiele überhaupt, sein Ziel ist einfach; umgibt mehr Territorium als Ihr Gegner. Dieses Spiel wird seit 2,500 Jahren von Menschen gespielt und gilt als das älteste heute noch gespielte Brettspiel. Die Komplexität des Spiels geht weit über die Tatsache hinaus, dass es im Go-Spiel mehr mögliche Züge gibt als Atome im Universum.

Aber nicht nur Menschen spielen dieses Spiel jetzt. Im Jahr 2016 besiegte AlphaGo von Google Deep Mind den 18-fachen Weltmeister Lee Sedol in vier von fünf Spielen. Normalerweise wäre es nicht so beeindruckend, dass ein Computer einen Menschen bei einem Spiel wie Schach oder Dame schlägt, aber Go ist anders. In Ländern, in denen dieses Spiel sehr beliebt ist, wie China, Japan und Südkorea, ist es für sie nicht nur ein Spiel. Es ist so, wie man Strategie lernt. Es hat eine fast spirituelle Komponente.

Dieses Spiel ist weit außerhalb der Reichweite von Vorhersagen und es kann nicht mit roher Gewalt gelöst werden. Es gibt über 10 bis 170 mögliche Züge im Spiel. Um das ins rechte Licht zu rücken, gibt es im beobachtbaren Universum nur 10 bis 80 Atome. AlphaGo wurde mit Daten aus echten menschlichen Go-Spielen trainiert. Es durchlief Millionen von Spielen und lernte die verwendeten Techniken und erfand sogar neue, die noch nie jemand gesehen hatte.

Ein Jahr nach AlphaGos Sieg über Lee Sedol schlug jedoch eine brandneue KI namens AlphaGo zero das ursprüngliche AlphaGo mit 100 zu 0 Spielen. 100 Spiele in Folge. Und das Beeindruckendste daran: Es hat gelernt, wie man ohne menschliche Interaktion spielt. Es war ein riesiger Sieg für Deep Mind und AI. Es war das Paradebeispiel dafür, dass eine Art von Intelligenz andere Arten von Intelligenz besiegte.

Künstliche Intelligenz hatte bewiesen, dass sie eine riesige Menge an Daten sammeln kann, die über alles hinausgeht, was ein Mensch verarbeiten kann, und sich damit selbst beibringen, wie man ein Ergebnis vorhersagt. Die kommerziellen Auswirkungen sind enorm.

Die Argumente für die bevorstehende Ankunft der KI auf menschlicher Ebene beziehen sich typischerweise auf die bisherigen Fortschritte beim maschinellen Lernen und gehen davon aus, dass dies unweigerlich zu Superintelligenz führen wird. Mit anderen Worten, machen Sie die aktuellen Modelle größer, geben Sie ihnen mehr Daten und voilà: AGI.

Wird fortgeschrittene KI zu Terminatoren werden und die menschliche Zivilisation übernehmen?

Bei den Ford Distinguished Lectures im Jahr 1960 verkündete der Ökonom Herbert Simon, dass Maschinen in 20 Jahren alle vom Menschen zu bewältigenden Aufgaben erfüllen würden. 1961 prognostizierte Claude Shannon – der Begründer der Informationstheorie –, dass Roboter im Science-Fiction-Stil innerhalb von 15 Jahren auf den Markt kommen würden.

Der Mathematiker IJ Good entwarf eine außer Kontrolle geratene „Intelligenzexplosion“, einen Prozess, bei dem Maschinen, die intelligenter als der Mensch sind, iterativ ihre eigene Intelligenz verbessern. 1965 schrieb Good voraus, dass die Explosion vor dem Ende des 1993. Jahrhunderts eintreten würde. 30 prägte Verner Vinge den Beginn dieser Explosion „die Singularität“ und erklärte, dass sie innerhalb von XNUMX Jahren eintreffen würde.

Ray Kurzweil erklärte später ein Gesetz der Geschichte, The Law of Accelerating Returns, das die Ankunft der Singularität bis 2045 vorhersagt. In jüngerer Zeit hat Elon Musk behauptet, dass Superintelligenz weniger als fünf Jahre entfernt ist, und Wissenschaftler von Stephen Hawking bis Nick Bostrom haben Bedenken geäußert über die Gefahren von Schurken-KI.

Der Hype beschränkt sich nicht auf eine Handvoll Persönlichkeiten des öffentlichen Lebens. Alle paar Jahre gibt es Umfragen unter Forschern, die auf dem Gebiet der KI arbeiten, und fragen nach ihren Vorhersagen, wann wir künstliche allgemeine Intelligenz (AGI) erreichen werden – Maschinen, die so universell und mindestens so intelligent wie der Mensch sind. Medianschätzungen aus diesen Umfragen geben eine Chance von 10 % auf AGI irgendwann in den 2020er Jahren und eine eins-zu-zwei-Chance auf AGI zwischen 2035 und 2050. Führende Forscher auf diesem Gebiet haben ebenfalls verblüffende Vorhersagen gemacht. Der CEO von OpenAI schreibt, dass Computer in den kommenden Jahrzehnten "fast alles tun werden, einschließlich neuer wissenschaftlicher Entdeckungen, die unser Konzept von 'alles' erweitern werden", und der Mitbegründer von Google Deepmind, dass "KI auf menschlicher Ebene sein wird" Mitte der 2020er Jahre verabschiedet."

Diese Vorhersagen haben Konsequenzen. Einige haben die Ankunft von AGI als existenzielle Bedrohung bezeichnet und sich gefragt, ob wir den technologischen Fortschritt stoppen sollten, um eine Katastrophe abzuwenden. Andere investieren Millionen in philanthropische Mittel, um die Abwendung zu verhindern AI Katastrophen.

Mayank Vasisht | Untereditor | ELE Zeiten