La inteligencia artificial general (AGI) y la hipótesis de la amenaza existencial real

Actualización: 7 de agosto de 2021
La inteligencia artificial general (AGI) y la hipótesis de la amenaza existencial real

El sentimiento antropomórfico sugiere que el Homo sapiens existe desde hace unos seis millones de años. Sin embargo, piénselo así, si la tierra fue creada hace un año, la especie humana, entonces, tendría 10 minutos. La era industrial comenzó hace 2 segundos. Nosotros, las especies más evolucionadas e inteligentes, somos en realidad huéspedes recién llegados a este planeta.

Desde el fuego y el azufre, la inteligencia humana ha sido el catalizador principal para lograr todo lo que hemos logrado y todo lo que nos importa. Es claramente evidente que el ciclo de evolución de los seres humanos y el mundo que los rodea depende de manera crucial de algunos cambios relativamente menores que hizo la mente humana. Y eso reverbera, por supuesto, es que cualquier cambio adicional que pudiera cambiar significativamente el sustrato del pensamiento podría tener consecuencias potencialmente enormes.

Bueno, ya hemos visto otro big bang que ha provocado un cambio profundo en ese sustrato y actualmente estamos en medio de una revolución. Ha habido un cambio de paradigma importante de la IA basada en reglas al aprendizaje automático y de la interfaz hombre-máquina a la interfaz máquina a máquina. Las máquinas pueden aprender de patrones y algoritmos y mejorar constantemente como un bebé humano. El aprendizaje por refuerzo es el proceso mediante el cual la máquina se entrena a sí misma mediante prueba y error.

Nos encontramos con IA todos los días y la la tecnología está avanzando rápidamente. Esta puede ser la nueva evolución que puede transformar fundamentalmente vidas en nuestro planeta. La inteligencia artificial tiene el potencial de revolucionar todos los aspectos de la vida diaria; trabajo, movilidad, medicina, economía y comunicación.

¿Jaque mate a la humanidad?

Piénselo, mira un video en Facebook o un carrete en Instagram y luego, gradualmente, lo que sucede, comienza a recibir la sugerencia de algún video nuevo de la misma categoría que vio anteriormente. Y luego sucede algo aterrador, una cadena de sugerencias automatizadas comienza a llegar en sus feeds y ahora está atrapado en ese círculo vicioso de matar horas de su tiempo al dejarse llevar por ese ciclo.

Estás mirando y desplazándote continuamente sin siquiera darte cuenta de que en algún lugar hay inteligencia artificial y un algoritmo que lee y analiza tu patrón de desplazamiento, tu tiempo de visualización, practica tu mente y te atiende exactamente eso que te obligará a pasar más y más tiempo. en esa aplicación en particular. En cierto modo, la inteligencia le dice al usuario qué mirar. Y esto pasa todo el tiempo. Recibe sugerencias cuando realiza compras en línea o en YouTube. Y si no se regula, esto puede ser un jaque mate a la inteligencia humana.

GPT-3 (Transformador preentrenado generativo 3) está provocando temblores en Silicon Valley

Imagínense una IA que pueda escribir cualquier cosa. Lo alimentas con poemas de un poeta en particular y él escribirá uno nuevo con el mismo ritmo y género. O puede escribir un artículo de noticias (el tutor ya lo ha hecho). Puede leer un artículo, responder preguntas de la información del artículo e incluso resumir el artículo para usted y sin mencionar que puede generar imágenes a partir del texto.

GPT-3 es un algoritmo de aprendizaje profundo que produce texto similar al humano. Es el modelo de predicción de lenguaje de tercera generación creado por la start-up de San Francisco “OpenAI”, que fue cofundada por Elon Musk. Este programa es mejor que cualquier programa anterior para producir texto que podría haber sido escrito por un humano. Es un salto cualitativo porque puede resultar útil para muchas empresas y tiene un gran potencial en la automatización de tareas.

Puede escribir códigos Java, simplemente colocando descripciones de texto en él. O, ¿qué tal crear un sitio web de simulación simplemente copiando y pegando una URL con una descripción?

Todo empezó con un juego.

"Go" es posiblemente uno de los juegos más complejos que existen, su objetivo es simple; rodear más territorio que tu oponente. Este juego ha sido jugado por humanos durante los últimos 2,500 años y se cree que es el juego de mesa más antiguo que todavía se juega en la actualidad. El nivel de complejidad del juego va mucho más allá del hecho de que hay más movimientos posibles en el juego de Go que átomos en el universo.

Sin embargo, no solo los humanos están jugando a este juego ahora. En 2016, AlphaGo de Google Deep Mind venció al 18 veces campeón mundial Lee Sedol en cuatro de cinco juegos. Normalmente, una computadora golpeando a un humano en un juego como el ajedrez o las damas no sería tan impresionante, pero Go es diferente. En países donde este juego es muy popular, como China, Japón y Corea del Sur, para ellos, no es solo un juego. Es como aprender estrategia. Tiene un componente casi espiritual.

Este juego está mucho más allá del alcance de las predicciones y no se puede resolver con fuerza bruta. Hay más de 10 de los 170 movimientos posibles en el juego. Para poner eso en perspectiva, solo hay de 10 a 80 átomos en el universo observable. AlphaGo fue entrenado usando datos de juegos de Go humanos reales. Repasó millones de juegos y aprendió las técnicas utilizadas e incluso inventó otras nuevas que nadie había visto nunca.

Sin embargo, un año después de la victoria de AlphaGo sobre Lee Sedol, una nueva IA llamada AlphaGo zero venció al AlphaGo original con 100 a 0 juegos. 100 juegos seguidos. Y la parte más impresionante de eso fue que aprendió a jugar sin interacción humana. Fue una gran victoria para la mente profunda y la IA. Fue el mejor ejemplo de un tipo de inteligencia que supera a otros tipos de inteligencia.

La inteligencia artificial había demostrado que podía reunir una gran cantidad de datos, más allá de cualquier cosa que cualquier humano pudiera manejar, y usarlos para aprender a predecir un resultado. Las implicaciones comerciales son enormes.

Los argumentos para la inminente llegada de la IA a nivel humano suelen apelar al progreso que hemos visto hasta la fecha en el aprendizaje automático y asumen que inevitablemente conducirá a la superinteligencia. Es decir, agrandar los modelos actuales, darles más datos y voilà: AGI.

¿Se convertirá la IA avanzada en exterminadores y se hará cargo de la civilización humana?

En las Conferencias Distinguidas de Ford en 1960, el economista Herbert Simon proclamó que dentro de 20 años las máquinas estarían a la par para realizar cualquier tarea que los humanos pudieran realizar. En 1961, Claude Shannon, el fundador de la teoría de la información, pronosticó que dentro de 15 años surgirían robots al estilo de la ciencia ficción.

El matemático IJ Good concibió una "explosión de inteligencia" descontrolada, un proceso mediante el cual las máquinas más inteligentes que los humanos mejoran iterativamente su propia inteligencia. Escribiendo en 1965, Good predijo que la explosión llegaría antes de finales del siglo XX. En 1993, Verner Vinge acuñó el inicio de esta explosión “la singularidad” y afirmó que llegaría dentro de 30 años.

Más tarde, Ray Kurzweil declaró una ley de la historia, La ley de los retornos acelerados, que predice la llegada de la singularidad para 2045. Más recientemente, Elon Musk ha afirmado que la superinteligencia está a menos de cinco años de distancia, y académicos desde Stephen Hawking hasta Nick Bostrom han mostrado preocupaciones. con respecto a los peligros de la IA deshonesta.

El bombo no se limita a un puñado de figuras públicas. Cada pocos años, se realizan encuestas a investigadores que trabajan en el campo de la inteligencia artificial pidiendo sus predicciones sobre cuándo lograremos la inteligencia artificial general (AGI): máquinas de propósito general y al menos tan inteligentes como los humanos. Las estimaciones medias de estas encuestas dan un 10% de probabilidad de AGI en algún momento de la década de 2020, y una probabilidad de uno en dos de AGI entre 2035 y 2050. Los principales investigadores en el campo también han hecho predicciones sorprendentes. El CEO de OpenAI escribe que en las próximas décadas, las computadoras "harán casi todo, incluido hacer nuevos descubrimientos científicos que expandirán nuestro concepto de 'todo'", y el cofundador de Google Deepmind que "la inteligencia artificial a nivel humano será aprobada a mediados de la década de 2020 ".

Estas predicciones tienen consecuencias. Algunos han calificado la llegada de AGI como una amenaza existencial, y se preguntan si deberíamos detener el progreso tecnológico para evitar una catástrofe. Otros están invirtiendo millones en fondos filantrópicos para evitar AI desastres

Mayank Vashisht | Subeditor | ELE Times