L'intelligenza artificiale generale (AGI) e l'ipotesi della minaccia esistenziale reale

Aggiornamento: 7 agosto 2021
L'intelligenza artificiale generale (AGI) e l'ipotesi della minaccia esistenziale reale

Il sentimento antropomorfo suggerisce che l'Homo sapiens esiste da circa sei milioni di anni. Tuttavia, pensaci in questo modo, se la terra fosse stata creata un anno fa, la specie umana, allora, avrebbe 10 minuti. L'era industriale è iniziata 2 secondi fa. Noi, le specie più evolute e intelligenti, siamo in realtà ospiti arrivati ​​da poco su questo pianeta.

Dal fuoco e dallo zolfo, l'intelligenza umana è stata il catalizzatore principale nel raggiungere tutto ciò che abbiamo ottenuto e tutto ciò a cui teniamo. È chiaramente evidente che il ciclo evolutivo degli esseri umani e del mondo che li circonda dipende in modo cruciale da alcuni cambiamenti relativamente minori che hanno apportato la mente umana. E questo si riverbera, ovviamente, è che qualsiasi ulteriore cambiamento che potrebbe cambiare in modo significativo il substrato del pensiero potrebbe avere conseguenze potenzialmente enormi.

Bene, abbiamo già visto un altro big-bang che ha causato un profondo cambiamento in quel substrato e attualmente siamo nel bel mezzo di una rivoluzione. C'è stato un importante cambiamento di paradigma dall'intelligenza artificiale basata su regole all'apprendimento automatico e dall'interfaccia uomo-macchina all'interfaccia macchina-macchina. Le macchine possono effettivamente imparare da schemi e algoritmi e migliorare continuamente proprio come un bambino umano. L'apprendimento per rinforzo è il processo mediante il quale la macchina si allena per tentativi ed errori.

Incontriamo l'intelligenza artificiale ogni giorno e il la tecnologia sta facendo passi da gigante. Questa può essere la nuova evoluzione che può mutare radicalmente la vita sul nostro pianeta. L’intelligenza artificiale ha il potenziale per rivoluzionare ogni aspetto della vita quotidiana; lavoro, mobilità, medicina, economia e comunicazione.

Scacco matto all'umanità?

Pensaci, guardi un video su Facebook o un reel su Instagram e poi gradualmente cosa succede inizi a ricevere il suggerimento di qualche nuovo video della stessa categoria che hai visto in precedenza. E poi succede qualcosa di spaventoso, una catena di suggerimenti automatici inizia ad arrivare nei tuoi feed e ora sei intrappolato in quel circolo vizioso di ammazzare ore del tuo tempo facendoti assecondare da quel ciclo.

Stai continuamente guardando e scorrendo senza nemmeno renderti conto che da qualche parte c'è l'intelligenza artificiale e un algoritmo che sta leggendo e analizzando il tuo schema di scorrimento, il tuo tempo di visualizzazione, esercitando la tua mente e preparandoti esattamente quella cosa che ti costringerà a spendere sempre più tempo su quella particolare app. In un certo senso, l'intelligenza sta dicendo all'utente cosa guardare. E questo succede sempre. Ricevi suggerimenti quando fai acquisti online o su YouTube. E se non regolamentato, questo può essere scacco matto per l'intelligenza umana.

GPT-3 (Generative Pre-Trained Transformer 3) sta suscitando tremori in tutta la Silicon Valley

Immagina un'intelligenza artificiale in grado di scrivere qualsiasi cosa. Gli dai da mangiare poesie di un particolare poeta e ne scriverà uno nuovo con lo stesso ritmo e genere. Oppure può scrivere un articolo di notizie (il tutore lo ha già fatto). Può leggere un articolo, rispondere alle domande dalle informazioni nell'articolo e persino riassumere l'articolo per te e per non parlare del fatto che può generare immagini dal testo.

GPT-3 è un algoritmo di deep learning che produce testo simile a quello umano. È il modello di previsione linguistica di terza generazione creato dalla start-up di San Francisco "OpenAI", co-fondata da Elon Musk. Questo programma è migliore di qualsiasi programma precedente nella produzione di testo che avrebbe potuto essere scritto da un essere umano. È un salto di qualità perché può rivelarsi utile a molte aziende e ha un grande potenziale nell'automazione delle attività.

Può scrivere codici java, semplicemente inserendo descrizioni di testo in esso. Oppure, che ne dici di creare un sito Web di simulazione semplicemente copiando e incollando un URL con una descrizione.

Tutto è iniziato con un gioco.

"Go" è probabilmente uno dei giochi più complessi esistenti, il suo obiettivo è semplice; circondare più territorio del tuo avversario. Questo gioco è stato giocato dagli umani negli ultimi 2,500 anni e si pensa che sia il più antico gioco da tavolo ancora giocato oggi. Il livello di complessità del gioco va ben oltre il fatto stesso che ci sono più mosse possibili nel gioco di Go che atomi nell'universo.

Tuttavia, non sono solo gli umani a giocare a questo gioco ora. Nel 2016, AlphaGo di Google Deep Mind ha battuto il 18 volte campione del mondo Lee Sedol in quattro partite su cinque. Normalmente, un computer che batte un essere umano in un gioco come gli scacchi o la dama non sarebbe così impressionante, ma Go è diverso. Nei paesi in cui questo gioco è molto popolare, come Cina, Giappone e Corea del Sud, per loro non è solo un gioco. È come imparare la strategia. Ha una componente quasi spirituale.

Questo gioco è ben oltre la portata delle previsioni e non può essere risolto con la forza bruta. Ci sono da 10 a 170 possibili mosse nel gioco. Per metterlo in prospettiva, ci sono solo da 10 a 80 atomi nell'universo osservabile. AlphaGo è stato addestrato utilizzando i dati di veri giochi di Go umani. Ha attraversato milioni di giochi e ha imparato le tecniche utilizzate e ne ha anche inventate di nuove che nessuno aveva mai visto.

Tuttavia, un anno dopo la vittoria di AlphaGo su Lee Sedol, una nuovissima IA chiamata AlphaGo zero ha battuto l'AlphaGo originale con 100 a 0 partite. 100 partite di fila. E la parte più impressionante è che ha imparato a giocare senza interazione umana. È stata un'enorme vittoria per la mente profonda e l'intelligenza artificiale. Era il primo esempio di un tipo di intelligenza che batteva altri tipi di intelligenza.

L'intelligenza artificiale ha dimostrato di poter raccogliere una grande quantità di dati, al di là di qualsiasi cosa possa gestire qualsiasi essere umano, e usarli per insegnare a se stessi come prevedere un risultato. Le implicazioni commerciali sono enormi.

Gli argomenti per l'imminente arrivo dell'IA a livello umano in genere fanno appello ai progressi che abbiamo visto fino ad oggi nell'apprendimento automatico e presumono che porterà inevitabilmente alla superintelligenza. In altre parole, ingrandisci i modelli attuali, dai loro più dati e voilà: AGI.

L'IA avanzata si trasformerà in Terminator e prenderà il controllo della civiltà umana?

Alle Ford Distinguished Lectures nel 1960, l'economista Herbert Simon proclamò che entro 20 anni le macchine sarebbero state alla pari nell'esecuzione di qualsiasi compito realizzabile dagli esseri umani. Nel 1961, Claude Shannon, il fondatore della teoria dell'informazione, previde che i robot in stile fantascienza sarebbero emersi entro 15 anni.

Il matematico IJ Good concepì una "esplosione di intelligenza" inarrestabile, un processo in cui macchine più intelligenti dell'uomo migliorano in modo iterativo la propria intelligenza. Scrivendo nel 1965, Good predisse che l'esplosione sarebbe arrivata prima della fine del ventesimo secolo. Nel 1993, Verner Vinge ha coniato l'inizio di questa esplosione "la singolarità" e ha affermato che sarebbe arrivata entro 30 anni.

Ray Kurzweil in seguito dichiarò una legge della storia, The Law of Accelerating Returns, che prevede l'arrivo della singolarità entro il 2045. Più recentemente, Elon Musk ha affermato che la superintelligenza è a meno di cinque anni di distanza, e accademici da Stephen Hawking a Nick Bostrom hanno mostrato preoccupazioni riguardo ai pericoli dell'IA canaglia.

L'hype non si limita a una manciata di personaggi pubblici. Ogni pochi anni ci sono sondaggi di ricercatori che lavorano nel campo dell'intelligenza artificiale che chiedono le loro previsioni su quando raggiungeremo l'intelligenza generale artificiale (AGI) - macchine per tutti gli usi e almeno intelligenti quanto gli umani. Le stime mediane di questi sondaggi danno una probabilità del 10% di AGI negli anni 2020 e una possibilità su due di AGI tra il 2035 e il 2050. Anche i principali ricercatori del settore hanno fatto previsioni sorprendenti. Il CEO di OpenAI scrive che nei prossimi decenni i computer "faranno quasi tutto, compreso fare nuove scoperte scientifiche che amplieranno il nostro concetto di 'tutto'", e il co-fondatore di Google Deepmind che "l'IA a livello umano sarà approvato a metà degli anni '2020".

Queste previsioni hanno delle conseguenze. Alcuni hanno definito l'arrivo dell'AGI una minaccia esistenziale, chiedendosi se dovremmo fermare il progresso tecnologico per evitare la catastrofe. Altri stanno versando milioni in fondi filantropici per evitare AI disastri.

Mayank Vashisht | Sottoeditor | ELE Times