A Inteligência Artificial Geral (AGI) e a Hipótese de Ameaça Existencial Real

Atualização: 7 de agosto de 2021
A Inteligência Artificial Geral (AGI) e a Hipótese de Ameaça Existencial Real

O sentimento antropomórfico sugere que o Homo sapiens existe há cerca de seis milhões de anos. Porém, pense assim, se a Terra fosse criada há um ano, a espécie humana, então, teria 10 minutos de idade. A era industrial começou há 2 segundos. Nós, as espécies mais evoluídas e inteligentes, somos, na verdade, hóspedes recém-chegados a este planeta.

De fogo e enxofre, a inteligência humana tem sido o principal catalisador para alcançar tudo o que conquistamos e tudo com o que nos importamos. É claramente evidente que o ciclo de evolução dos seres humanos e do mundo ao seu redor depende crucialmente de algumas mudanças relativamente pequenas que fizeram a mente humana. E o que repercute, é claro, é que quaisquer outras mudanças que possam mudar significativamente o substrato do pensamento podem ter consequências potencialmente enormes.

Bem, já vimos outro big bang que causou uma mudança profunda naquele substrato e, atualmente, estamos no meio de uma revolução. Houve uma grande mudança de paradigma da IA ​​baseada em regras para o aprendizado de máquina e da interface homem-máquina para a interface de máquina para máquina. As máquinas podem realmente aprender com padrões e algoritmos e ficar perpetuamente melhores, como um bebê humano. Aprendizagem por reforço é o processo pelo qual a máquina se treina por tentativa e erro.

Encontramos IA todos os dias e o tecnologia está fazendo progressos rápidos. Esta pode ser a nova evolução que pode transformar fundamentalmente vidas no nosso planeta. A inteligência artificial tem potencial para revolucionar todos os aspectos da vida diária; trabalho, mobilidade, medicina, economia e comunicação.

Xeque-mate na humanidade?

Pense nisso, você assiste um vídeo no Facebook ou um carretel no Instagram e então aos poucos o que acontece você começa a receber a sugestão de algum novo vídeo da mesma categoria que você assistiu antes. E então algo assustador acontece, uma cadeia de sugestões automatizadas começa a chegar em seus feeds e agora você está preso naquele ciclo vicioso de matar horas de seu tempo ao se entregar a esse ciclo.

Você está continuamente assistindo e rolando sem mesmo perceber que em algum lugar há inteligência artificial e um algoritmo que está lendo e analisando seu padrão de rolagem, seu tempo de exibição, praticando sua mente e atendendo exatamente aquilo que o obrigará a gastar mais e mais tempo nesse aplicativo específico. De certa forma, a inteligência está dizendo ao usuário o que assistir. E isso acontece o tempo todo. Você recebe sugestões quando faz compras online ou no YouTube. E se não for regulamentado, isso pode ser um xeque-mate na inteligência humana.

GPT-3 (Generative Pre-Treined Transformer 3) está causando tremores em todo o Vale do Silício

Imagine uma IA que pode escrever qualquer coisa. Você o alimenta com poemas de um determinado poeta e ele escreverá um novo com o mesmo ritmo e gênero. Ou pode escrever um artigo de notícias (o guardião já fez isso). Pode ler um artigo, responder a perguntas a partir das informações do artigo e até resumir o artigo para você, sem falar que pode gerar imagens a partir do texto.

GPT-3 é um algoritmo de aprendizado profundo que produz texto semelhante ao humano. É o modelo de previsão de linguagem de terceira geração criado pela start-up “OpenAI” de São Francisco, que foi cofundada por Elon Musk. Este programa é melhor do que qualquer programa anterior na produção de texto que poderia ter sido escrito por um humano. É um salto quântico porque pode ser útil para muitas empresas e tem grande potencial para automatizar tarefas.

Ele pode escrever códigos java, simplesmente colocando descrições de texto nele. Ou, que tal fazer um site moke-up apenas copiando e colando um URL com uma descrição.

Tudo começou com um jogo.

“Go” é sem dúvida um dos jogos mais complexos que existem, seu objetivo é simples; cercar mais território do que seu oponente. Este jogo tem sido jogado por humanos nos últimos 2,500 anos e é considerado o jogo de tabuleiro mais antigo ainda em jogo. O nível de complexidade do jogo vai muito além do próprio fato de que existem mais movimentos possíveis no jogo de Go do que átomos no universo.

No entanto, não são apenas os humanos que estão jogando este jogo agora. Em 2016, o AlphaGo do Google Deep Mind venceu o 18 vezes campeão mundial Lee Sedol em quatro de cinco jogos. Normalmente, um computador vencendo um humano em um jogo como xadrez ou damas não seria tão impressionante, mas Go é diferente. Em países onde este jogo é muito popular, como China, Japão e Coreia do Sul, para eles, não é apenas um jogo. É como aprender estratégia. Tem um componente quase espiritual.

Este jogo está muito além do alcance das previsões e não pode ser resolvido com força bruta. Existem mais de 10 a 170 movimentos possíveis no jogo. Para colocar isso em perspectiva, existem apenas 10 a 80 átomos no universo observável. AlphaGo foi treinado usando dados de jogos Go humanos reais. Passou por milhões de jogos e aprendeu as técnicas usadas e até inventou novas que ninguém nunca tinha visto.

No entanto, um ano após a vitória de AlphaGo sobre Lee Sedol, um novo AI chamado AlphaGo zero venceu o AlphaGo original com 100 a 0 jogos. 100 jogos seguidos. E o mais impressionante é que aprendeu a jogar com nenhuma interação humana. Foi uma grande vitória para a mente profunda e IA. Foi o principal exemplo de um tipo de inteligência superando outros tipos de inteligência.

A inteligência artificial provou que pode organizar uma vasta quantidade de dados, além de qualquer coisa que qualquer ser humano possa manipular, e usá-los para ensinar a si mesmo como prever um resultado. As implicações comerciais são enormes.

Os argumentos para a chegada iminente da IA ​​de nível humano geralmente apelam para o progresso que vimos até agora no aprendizado de máquina e presumem que isso levará inevitavelmente à superinteligência. Em outras palavras, torne os modelos atuais maiores, dê-lhes mais dados e voilà: AGI.

A IA avançada se transformará em exterminadores e dominará a civilização humana?

Nas Conferências Distintas da Ford em 1960, o economista Herbert Simon proclamou que dentro de 20 anos as máquinas estariam equiparadas na execução de qualquer tarefa alcançável por humanos. Em 1961, Claude Shannon - o fundador da teoria da informação - previu que robôs de estilo de ficção científica surgiriam em 15 anos.

O matemático IJ Good concebeu uma “explosão de inteligência” descontrolada, um processo pelo qual máquinas mais inteligentes que os humanos melhoram iterativamente sua própria inteligência. Escrevendo em 1965, Good previu que a explosão chegaria antes do final do século XX. Em 1993, Verner Vinge cunhou o início dessa explosão “a singularidade” e afirmou que ela chegaria em 30 anos.

Ray Kurzweil posteriormente declarou uma lei da história, The Law of Accelerating Returns, que prevê a chegada da singularidade em 2045. Mais recentemente, Elon Musk afirmou que a superinteligência está a menos de cinco anos de distância, e acadêmicos de Stephen Hawking a Nick Bostrom mostraram preocupação sobre os perigos da IA ​​desonesta.

O hype não se limita a um punhado de figuras públicas. A cada poucos anos, há pesquisas de pesquisadores que trabalham no campo da IA ​​pedindo suas previsões de quando alcançaremos a inteligência geral artificial (AGI) - máquinas de uso geral e pelo menos tão inteligentes quanto os humanos. As estimativas medianas dessas pesquisas dão uma chance de 10% de AGI em algum momento da década de 2020, e uma chance em duas de AGI entre 2035 e 2050. Os principais pesquisadores da área também fizeram previsões surpreendentes. O CEO da OpenAI escreve que nas próximas décadas, os computadores “farão quase tudo, incluindo fazer novas descobertas científicas que irão expandir nosso conceito de 'tudo'”, e o cofundador do Google Deepmind que “AI de nível humano será aprovada em meados da década de 2020 ”.

Essas previsões têm consequências. Alguns chamaram a chegada da AGI de uma ameaça existencial, perguntando-se se deveríamos interromper o progresso tecnológico para evitar uma catástrofe. Outros estão despejando milhões em fundos filantrópicos para evitar AI desastres.

Mayank Vashisht | Subeditor | ELE Times