L'UE stabilisce le regole per l'IA

Aggiornamento: 9 dicembre 2023

L'UE stabilisce le regole per l'IA

“Per quanto riguarda l’intelligenza artificiale, la fiducia è un must, non una cosa piacevole da avere”, afferma la vicepresidente digitale Margrethe Vestager (nella foto), “con queste regole fondamentali, l’UE sta guidando lo sviluppo di nuove norme globali per garantire che ci si possa fidare dell’IA. Fissando gli standard, possiamo aprire la strada all’etica la tecnologia a livello mondiale e garantire che l’UE rimanga competitiva lungo il percorso. A prova di futuro e favorevoli all’innovazione, le nostre norme interverranno laddove strettamente necessario: quando sono in gioco la sicurezza e i diritti fondamentali dei cittadini dell’UE”.

Le regole distinguono tra applicazioni AI ad alto rischio, rischio limitato e rischio minimo.

Sistemi di intelligenza artificiale identificate come ad alto rischio includono la tecnologia AI utilizzata in:

  • Infrastrutture critiche (es. Trasporti), che potrebbero mettere a rischio la vita e la salute dei cittadini;
  • Formazione scolastica o professionale, che può determinare l'accesso all'istruzione e al percorso professionale della vita di qualcuno (es. Punteggio di esami);
  • Componenti di sicurezza dei prodotti (es. Applicazione AI nella chirurgia assistita da robot);
  • Occupazione, gestione dei lavoratori e accesso al lavoro autonomo (es. Software di smistamento CV per procedure di assunzione);
  • Servizi privati ​​e pubblici essenziali (es. Valutazione del credito che nega ai cittadini l'opportunità di ottenere un prestito);
  • Applicazione della legge che può interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell'affidabilità delle prove);
  • Migrazione, asilo e gestione dei controlli alle frontiere (es. Verifica dell'autenticità dei documenti di viaggio);
  • Amministrazione della giustizia e processi democratici (es. Applicazione della legge a un insieme concreto di fatti).

I sistemi di IA ad alto rischio saranno soggetti a severi obblighi prima di poter essere immessi sul mercato:

  • Adeguati sistemi di valutazione e mitigazione del rischio;
  • Alta qualità dei set di dati che alimentano il sistema per minimizzare i rischi e gli esiti discriminatori;
  • Registrazione delle attività per garantire la tracciabilità dei risultati;
  • Documentazione dettagliata che fornisce tutte le informazioni necessarie sul sistema e il suo scopo affinché le autorità possano valutarne la conformità;
  • Informazione chiara e adeguata all'utente;
  • Adeguate misure di sorveglianza umana per ridurre al minimo il rischio;
  • Elevato livello di robustezza, sicurezza e precisione.

In particolare, tutti i sistemi di identificazione biometrica a distanza sono considerati ad alto rischio e soggetti a requisiti rigorosi. Il loro utilizzo dal vivo in spazi accessibili al pubblico per scopi di contrasto è in linea di principio vietato.

Le eccezioni ristrette sono rigorosamente definite e regolamentate (ad esempio laddove strettamente necessario per cercare un bambino scomparso, per prevenire una minaccia terroristica specifica e imminente o per rilevare, individuare, identificare o perseguire un autore o sospetto di un reato grave).

Tale utilizzo è subordinato all'autorizzazione di un organo giudiziario o altro organo indipendente e ad opportuni limiti di tempo, portata geografica e banche dati ricercate.

I sistemi di IA a rischio limitato avranno specifici obblighi di trasparenza: ad esempio, quando utilizzano sistemi di IA come i chatbot, gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina in modo da poter prendere una decisione informata se continuare o fare un passo indietro.

I sistemi di intelligenza artificiale a rischio minimo senza alcuna necessità di regolamentazione includono: videogiochi abilitati all’intelligenza artificiale o filtri antispam. La stragrande maggioranza dei sistemi di intelligenza artificiale rientra in questa categoria.

L'European Artificial Intelligence Board faciliterà l'implementazione dei regolamenti e guiderà lo sviluppo di standard per l'IA.

Sono previste multe del 6% delle entrate per le aziende che non rispettano divieti o requisiti in materia di dati

Sono previste multe minori per le aziende che non rispettano altri requisiti enunciati nelle nuove regole

Le regole si applicheranno sia agli sviluppatori che agli utenti di sistemi di IA ad alto rischio

I fornitori di IA rischiosa devono sottoporla a una valutazione di conformità prima della distribuzione

Altri obblighi per l'intelligenza artificiale ad alto rischio includono l'uso di set di dati di alta qualità, la garanzia della tracciabilità dei risultati e la supervisione umana per ridurre al minimo il rischio

I criteri per le applicazioni "ad alto rischio" includono lo scopo previsto, il numero di persone potenzialmente interessate e l'irreversibilità del danno.

Le regole richiedono l'approvazione del Parlamento europeo e degli Stati membri prima di diventare legge, un processo che può richiedere diversi anni.