L'intelligence générale artificielle (IAG) et l'hypothèse de la menace existentielle réelle

Mise à jour : 7 août 2021
L'intelligence générale artificielle (IAG) et l'hypothèse de la menace existentielle réelle

Le sentiment anthropomorphique suggère que l'Homo sapiens existe depuis environ six millions d'années. Cependant, pensez-y comme ceci, si la terre avait été créée il y a un an, l'espèce humaine aurait alors 10 minutes. L'ère industrielle a commencé il y a 2 secondes. Nous, les espèces les plus évoluées et les plus intelligentes, sommes en fait des invités récemment arrivés sur cette planète.

Du feu au soufre, l'intelligence humaine a été le principal catalyseur dans la réalisation de tout ce que nous avons accompli et de tout ce qui nous tient à cœur. Il est clairement évident que le cycle d'évolution des êtres humains et du monde qui les entoure dépend de manière cruciale de certains changements relativement mineurs qui ont fait l'esprit humain. Et cela se répercute, bien sûr, sur le fait que tout autre changement qui pourrait modifier de manière significative le substrat de la pensée pourrait avoir des conséquences potentiellement énormes.

Eh bien, nous avons déjà assisté à un autre big-bang qui a provoqué un changement profond dans ce substrat et actuellement, nous sommes en pleine révolution. Il y a eu un changement de paradigme majeur de l'IA basée sur des règles à l'apprentissage automatique et de l'interface homme-machine à l'interface machine à machine. Les machines peuvent en fait apprendre des modèles et des algorithmes et s'améliorer perpétuellement, tout comme un nourrisson humain. L'apprentissage par renforcement est le processus par lequel la machine s'entraîne par essais et erreurs.

Nous rencontrons l'IA tous les jours et le sans souci fait des progrès rapides. Cela pourrait être la nouvelle évolution qui pourrait fondamentalement muter les vies sur notre planète. L’intelligence artificielle a le potentiel de révolutionner tous les aspects de la vie quotidienne ; le travail, la mobilité, la médecine, l'économie et la communication.

Échec et mat sur l'humanité ?

Pensez-y, vous regardez une vidéo sur Facebook ou une bobine sur Instagram, puis petit à petit, vous commencez à avoir la suggestion d'une nouvelle vidéo de la même catégorie que vous avez regardée plus tôt. Et puis quelque chose d'effrayant se produit, une chaîne de suggestions automatisées commence à arriver dans vos flux et maintenant vous êtes piégé dans ce cercle vicieux de tuer des heures de votre temps en vous laissant aller à ce cycle.

Vous regardez et faites défiler en permanence sans même vous rendre compte qu'il existe quelque part une intelligence artificielle et un algorithme qui lit et analyse votre modèle de défilement, votre temps de visionnage, entraîne votre esprit et vous prépare exactement ce qui vous obligera à passer de plus en plus de temps sur cette application particulière. D'une certaine manière, l'intelligence dit à l'utilisateur ce qu'il doit regarder. Et cela arrive tout le temps. Vous obtenez des suggestions lorsque vous faites des achats en ligne ou sur YouTube. Et s'il n'est pas réglementé, cela peut être un échec et mat sur l'intelligence humaine.

GPT-3 (Generative Pre-Trained Transformer 3) fait trembler la Silicon Valley

Imaginez une IA capable d'écrire n'importe quoi. Vous le nourrissez des poèmes d'un poète en particulier et il en écrira un nouveau avec le même rythme et le même genre. Ou il peut écrire un article de presse (le tuteur l'a déjà fait). Il peut lire un article, répondre à des questions à partir des informations contenues dans l'article et même résumer l'article pour vous, sans oublier qu'il peut générer des images à partir du texte.

GPT-3 est un algorithme d'apprentissage en profondeur qui produit un texte de type humain. Il s'agit du modèle de prédiction de langue de troisième génération créé par la start-up de San Francisco « OpenAI », qui a été co-fondée par Elon Musk. Ce programme est meilleur que n'importe quel programme antérieur pour produire du texte qui aurait pu être écrit par un humain. C'est un saut quantique car il peut s'avérer utile pour de nombreuses entreprises et a un grand potentiel dans l'automatisation des tâches.

Il peut écrire des codes Java, en y insérant simplement des descriptions textuelles. Ou, que diriez-vous de créer un site Web fictif en copiant et en collant simplement une URL avec une description.

Tout a commencé par un jeu.

« Go » est sans doute l'un des jeux les plus complexes qui existent, son objectif est simple ; entourent plus de territoire que votre adversaire. Ce jeu est joué par des humains depuis 2,500 XNUMX ans et est considéré comme le plus ancien jeu de société encore joué aujourd'hui. Le niveau de complexité du jeu va bien au-delà du fait même qu'il y a plus de mouvements possibles dans le jeu de Go qu'il n'y a d'atomes dans l'univers.

Cependant, il n'y a pas que les humains qui jouent à ce jeu maintenant. En 2016, AlphaGo de Google Deep Mind a battu Lee Sedol, 18 fois champion du monde, dans quatre matchs sur cinq. Normalement, un ordinateur battant un humain à un jeu comme les échecs ou les dames ne serait pas si impressionnant, mais le Go est différent. Dans les pays où ce jeu est très populaire, comme la Chine, le Japon et la Corée du Sud, pour eux, ce n'est pas qu'un jeu. C'est comme la façon dont vous apprenez la stratégie. Il a une composante presque spirituelle.

Ce jeu est bien au-delà de la portée des prédictions et il ne peut pas être résolu par la force brute. Il y a plus de 10 aux 170 mouvements possibles dans le jeu. Pour mettre cela en perspective, il n'y a que 10 à 80 atomes dans l'univers observable. AlphaGo a été formé en utilisant les données de vrais jeux de Go humains. Il a parcouru des millions de jeux et appris les techniques utilisées et en a même inventé de nouvelles que personne n'avait jamais vues.

Cependant, un an après la victoire d'AlphaGo sur Lee Sedol, une toute nouvelle IA appelée AlphaGo zéro a battu l'AlphaGo original avec 100 à 0 jeux. 100 matchs d'affilée. Et la partie la plus impressionnante à ce sujet, c'est qu'il a appris à jouer sans interaction humaine. Ce fut une énorme victoire pour l'esprit profond et l'IA. C'était le meilleur exemple d'un type d'intelligence battant d'autres types d'intelligence.

L'intelligence artificielle avait prouvé qu'elle pouvait rassembler une grande quantité de données, au-delà de tout ce qu'un humain pouvait gérer, et l'utiliser pour apprendre à prédire un résultat. Les implications commerciales sont énormes.

Les arguments en faveur de l'arrivée imminente de l'IA au niveau humain font généralement appel aux progrès que nous avons observés à ce jour dans l'apprentissage automatique et supposent que cela conduira inévitablement à la superintelligence. En d'autres termes, agrandissez les modèles actuels, donnez-leur plus de données, et voilà : AGI.

L'IA avancée se transformera-t-elle en Terminators et prendra-t-elle le contrôle de la civilisation humaine ?

Lors des Ford Distinguished Lectures en 1960, l'économiste Herbert Simon a proclamé que d'ici 20 ans, les machines seraient à la hauteur de toutes les tâches réalisables par les humains. En 1961, Claude Shannon - le fondateur de la théorie de l'information - a prédit que des robots de style science-fiction émergeraient d'ici 15 ans.

Le mathématicien IJ Good a conçu une « explosion de l'intelligence » galopante, un processus par lequel des machines plus intelligentes que l'humain améliorent de manière itérative leur propre intelligence. Écrivant en 1965, Good a prédit que l'explosion arriverait avant la fin du vingtième siècle. En 1993, Verner Vinge a inventé le début de cette explosion « la singularité » et a déclaré qu'elle arriverait d'ici 30 ans.

Ray Kurzweil a ensuite déclaré une loi de l'histoire, la loi des retours accélérés, qui prédit l'arrivée de la singularité d'ici 2045. Plus récemment, Elon Musk a affirmé que la superintelligence était dans moins de cinq ans, et des universitaires de Stephen Hawking à Nick Bostrom ont manifesté leur inquiétude. concernant les dangers de l'IA malhonnête.

Le battage médiatique ne se limite pas à une poignée de personnalités publiques. Toutes les quelques années, des enquêtes sont menées auprès de chercheurs travaillant dans le domaine de l'IA pour demander leurs prédictions sur le moment où nous atteindrons l'intelligence artificielle générale (AGI) – des machines aussi polyvalentes et au moins aussi intelligentes que les humains. Les estimations médianes de ces enquêtes donnent une chance de 10 % d'AGI dans les années 2020 et une chance sur deux d'AGI entre 2035 et 2050. Des chercheurs de premier plan dans le domaine ont également fait des prédictions surprenantes. Le PDG d'OpenAI écrit que dans les décennies à venir, les ordinateurs « feront presque tout, y compris faire de nouvelles découvertes scientifiques qui élargiront notre concept de « tout » », et le co-fondateur de Google Deepmind que « l'IA au niveau humain sera passé au milieu des années 2020. »

Ces prédictions ont des conséquences. Certains ont qualifié l'arrivée d'AGI de menace existentielle, se demandant si nous devrions arrêter le progrès technologique pour éviter une catastrophe. D'autres versent des millions de dollars en financement philanthropique pour éviter AI les catastrophes.

Mayank Vashisht | Sous-éditeur | Horaires ELE