De EU stelt regels op voor AI

Update: 9 december 2023

De EU stelt regels op voor AI

“Op het gebied van kunstmatige intelligentie is vertrouwen een must, geen nice to have”, zegt digital vp Margrethe Vestager (foto), “met deze baanbrekende regels loopt de EU voorop in de ontwikkeling van nieuwe mondiale normen om ervoor te zorgen dat AI kan worden vertrouwd. Door de normen vast te stellen, kunnen we de weg vrijmaken voor ethiek technologie wereldwijd en ervoor zorgen dat de EU onderweg concurrerend blijft. Onze regels zijn toekomstbestendig en innovatievriendelijk en zullen ingrijpen waar dat strikt nodig is: wanneer de veiligheid en de fundamentele rechten van EU-burgers op het spel staan.”

De regels maken onderscheid tussen AI-toepassingen met een hoog risico, een beperkt risico en een minimaal risico.

AI-systemen die als risicovol worden aangemerkt, zijn onder meer AI-technologie die wordt gebruikt bij:

  • Kritieke infrastructuren (bijv. Vervoer) die het leven en de gezondheid van burgers in gevaar kunnen brengen;
  • Onderwijs- of beroepsopleiding, die de toegang tot onderwijs en de professionele loop van iemands leven kunnen bepalen (bijv. Het scoren van examens);
  • Veiligheidscomponenten van producten (bijv. AI-toepassing in robotondersteunde chirurgie);
  • Tewerkstelling, personeelsbeheer en toegang tot zelfstandig ondernemerschap (bv. Software voor het sorteren van cv's voor wervingsprocedures);
  • Essentiële particuliere en openbare diensten (bijv. Kredietscores die burgers de kans ontnemen om een ​​lening te krijgen);
  • Wetshandhaving die inbreuk kan maken op de grondrechten van mensen (bijv. Evaluatie van de betrouwbaarheid van bewijs);
  • Migratie-, asiel- en grenscontrolebeheer (bijv. Verificatie van de authenticiteit van reisdocumenten);
  • Rechtsbedeling en democratische processen (bijv. Toepassing van de wet op een concrete reeks feiten).

AI-systemen met een hoog risico zullen aan strikte verplichtingen worden onderworpen voordat ze op de markt kunnen worden gebracht:

  • Adequate risicobeoordeling en risicobeperkende systemen;
  • Hoge kwaliteit van de datasets die het systeem voeden om risico's en discriminerende resultaten te minimaliseren;
  • Loggen van activiteiten om traceerbaarheid van resultaten te garanderen;
  • Gedetailleerde documentatie met alle informatie die nodig is over het systeem en het doel ervan zodat de autoriteiten de naleving ervan kunnen beoordelen;
  • Duidelijke en adequate informatie voor de gebruiker;
  • Passende maatregelen voor menselijk toezicht om risico's te minimaliseren;
  • Hoog niveau van robuustheid, veiligheid en nauwkeurigheid.

In het bijzonder worden alle biometrische identificatiesystemen op afstand als een hoog risico beschouwd en aan strenge eisen onderworpen. Het live gebruik ervan in publiek toegankelijke ruimtes voor wetshandhavingsdoeleinden is in principe verboden.

Smalle uitzonderingen zijn strikt gedefinieerd en gereguleerd (zoals waar strikt noodzakelijk om te zoeken naar een vermist kind, om een ​​specifieke en dreigende terroristische dreiging te voorkomen of om een ​​dader of verdachte van een ernstig strafbaar feit op te sporen, te lokaliseren, te identificeren of te vervolgen).

Dergelijk gebruik is onderworpen aan toestemming van een gerechtelijke of andere onafhankelijke instantie en aan passende beperkingen in tijd, geografisch bereik en doorzochte databanken.

AI-systemen met een beperkt risico zullen specifieke transparantieverplichtingen hebben: bij het gebruik van AI-systemen zoals chatbots moeten gebruikers zich er bijvoorbeeld van bewust zijn dat ze interactie hebben met een machine, zodat ze een weloverwogen beslissing kunnen nemen om door te gaan of een stap terug te doen.

AI-systemen met een minimaal risico zonder enige noodzaak voor regelgeving omvatten: AI-compatibele videogames of spamfilters. De overgrote meerderheid van AI-systemen valt in deze categorie.

De European Artificial Intelligence Board zal de uitvoering van de regelgeving vergemakkelijken en de ontwikkeling van standaarden voor AI stimuleren.

Er zijn boetes van 6% van de omzet voorzien voor bedrijven die zich niet houden aan verboden of gegevensvereisten

Er zijn lagere boetes voorzien voor bedrijven die niet voldoen aan andere vereisten die in de nieuwe regels zijn uiteengezet

De regels zullen zowel gelden voor ontwikkelaars als gebruikers van risicovolle AI-systemen

Aanbieders van risicovolle AI moeten deze voorafgaand aan de inzet aan een conformiteitsbeoordeling onderwerpen

Andere verplichtingen voor AI met een hoog risico omvatten het gebruik van datasets van hoge kwaliteit, het waarborgen van de traceerbaarheid van resultaten en menselijk toezicht om risico's te minimaliseren

De criteria voor toepassingen met een hoog risico omvatten het beoogde doel, het aantal mogelijk getroffen mensen en de onomkeerbaarheid van schade.

De regels moeten worden goedgekeurd door het Europees Parlement en de lidstaten voordat ze wet worden – een proces dat meerdere jaren kan duren.