La California guarda all’Europa per tenere a freno l’intelligenza artificiale

Aggiornamento: 28 marzo 2024
I legislatori della capitale dello stato della California stanno lavorando a una serie di leggi volte a reprimere gli usi abusivi dell'intelligenza artificiale sul terreno di casa di alcuni dei potenti titani della tecnologia mondiale
I legislatori della capitale dello stato della California stanno lavorando a una serie di leggi volte a reprimere gli usi abusivi dell’intelligenza artificiale sul terreno di casa di alcuni dei potenti titani della tecnologia mondiale.

La California, sede della Silicon Valley, è ansiosa di frenare lo sviluppo dell’intelligenza artificiale e sta cercando ispirazione nell’approccio duro e tecnologico dell’Europa.

Lo stato più ricco degli Stati Uniti per PIL, la California è un focolaio di innovazione tecnologica senza esclusione di colpi, ma i legislatori della capitale dello stato Sacramento vogliono dare al settore leggi e guardrail che sono stati in gran parte risparmiati nell’era di Internet.

Bruxelles ha promulgato una serie di leggi sulla tecnologia dominata dagli Stati Uniti e si è affrettata ad approvare l’AI Act dopo che ChatGPT di OpenAI, sostenuto da Microsoft, è entrato in scena alla fine del 2022, scatenando una corsa globale all’intelligenza artificiale.

"Quello che stiamo cercando di fare è in realtà imparare dagli europei, ma anche lavorare con gli europei e capire come mettere in atto normative sull'intelligenza artificiale", ha affermato David Harris, consulente politico senior presso la California Initiative for Tecnologia e democrazia.

Come hanno fatto in passato con le leggi dell’UE sui dati privati, i legislatori della California stanno guardando alla recente legislazione europea sull’intelligenza artificiale, soprattutto data la poca speranza di una legislazione nazionale equivalente da parte di Washington.

Ci sono almeno 30 diversi progetti di legge proposti dai legislatori statali della California che si riferiscono a vari aspetti dell'intelligenza artificiale, secondo Harris, che afferma di aver fornito consulenza ai funzionari qui e in Europa su tali leggi.

Le leggi proposte in California spaziano dall’imporre ai produttori di intelligenza artificiale di rivelare ciò che è stato utilizzato per addestrare i modelli al divieto di annunci elettorali contenenti funzionalità generate dal computer.

"Uno degli aspetti che penso sia davvero importante è la questione di come gestiamo i deepfake o i testi falsi creati per sembrare che un essere umano ti stia inviando messaggi", ha detto Harris all'AFP.

Il membro dell’assemblea statale Gail Pellerin sostiene un disegno di legge che, secondo lei, vieterebbe sostanzialmente la diffusione di contenuti digitali ingannevoli creati con l’intelligenza artificiale generativa nei mesi precedenti e nelle settimane successive alle elezioni.

“I cattivi attori che utilizzano questo sperano davvero di creare il caos nelle elezioni”, ha detto Pellerin.

I "cattivi" che violano la legge

L’associazione industriale NetChoice è fermamente contraria all’importazione di aspetti della legislazione europea sull’intelligenza artificiale o di qualsiasi altra regolamentazione tecnologica dell’UE.

“Stanno adottando, essenzialmente, un approccio europeo sull’intelligenza artificiale, ovvero dobbiamo vietare la tecnologia”, ha affermato Carl Szabo, consigliere generale dell’associazione, che sostiene una regolamentazione leggera della tecnologia.

“Mettere fuori legge l'intelligenza artificiale non fermerà (nulla). È un male perché i cattivi non rispettano la legge”, ha sostenuto Szabo.

"Questo è ciò che li rende cattivi."

Il gigante statunitense del software per computer Adobe, come la maggior parte dei giganti della tecnologia, ha collaborato con l’Europa all’AI Act, secondo Dana Rao, General Counsel e Chief Trust Officer di Adobe.

Al centro dell’EU AI Act c’è un approccio basato sul rischio, con le pratiche di IA ritenute più rischiose che ricevono un maggiore controllo.

“Siamo soddisfatti di come è finito l’AI Act” con il suo approccio ad alto e basso rischio, ha affermato Rao.

Secondo Rao, gli ingegneri Adobe già effettuano “valutazioni d’impatto” per valutare il rischio prima di rendere disponibili i prodotti di intelligenza artificiale.

“Vuoi pensare alla sicurezza nucleare, alla sicurezza informatica, a quando l’intelligenza artificiale prenderà decisioni sostanziali sui diritti umani”, ha detto Rao.

"Guardando la California"

In California, Rao ha detto che si aspetta che il problema dei deepfake sia il primo a cadere sotto l’autorità di una nuova legge.

Il disegno di legge 602 dell’Assemblea criminalizzerebbe la pornografia deepfake non consensuale, mentre il disegno di legge 730 dell’Assemblea vieta l’uso dei deepfake basati sull’intelligenza artificiale durante la stagione delle campagne elettorali.

Per combattere questo problema, Adobe si è unita ad altre società per creare “credenziali di contenuto” che Rao ha equiparato a una “etichetta nutrizionale” per i contenuti digitali.

Il deputato Pellerin si aspetta che le leggi sull’intelligenza artificiale adottate in California vengano replicate in altri stati.

“Le persone stanno guardando la California”, ha detto Pellerin, con una serie di stati americani che stanno anche lavorando sulle proprie fatture per l’IA deepfake.

"Siamo tutti sulla stessa barca; dobbiamo stare al passo con le persone che stanno cercando di provocare il caos nelle elezioni”, ha detto.