UE estabelece regras para IA

Atualização: 9 de dezembro de 2023

UE estabelece regras para IA

“Na Inteligência Artificial, a confiança é uma obrigação, não é algo agradável de se ter”, diz a vice-presidente digital Margrethe Vestager (foto), “com estas regras históricas, a UE está a liderar o desenvolvimento de novas normas globais para garantir que a IA é confiável. Ao estabelecer os padrões, podemos preparar o caminho para a ética tecnologia em todo o mundo e garantir que a UE permaneça competitiva ao longo do caminho. Preparadas para o futuro e favoráveis ​​à inovação, as nossas regras intervirão onde for estritamente necessário: quando a segurança e os direitos fundamentais dos cidadãos da UE estiverem em jogo.»

As regras diferenciam entre aplicativos de IA de alto risco, risco limitado e risco mínimo.

Sistemas de IA identificados como de alto risco incluem tecnologia de IA usada em:

  • Infraestruturas críticas (por exemplo, transportes), que podem colocar em risco a vida e a saúde dos cidadãos;
  • Formação educacional ou profissional, que pode determinar o acesso à educação e ao curso profissionalizante da vida de alguém (por exemplo, pontuação em exames);
  • Componentes de segurança de produtos (por exemplo, aplicação de IA em cirurgia assistida por robô);
  • Emprego, gestão de trabalhadores e acesso ao trabalho autônomo (por exemplo, software de classificação de currículos para procedimentos de recrutamento);
  • Serviços essenciais privados e públicos (por exemplo, pontuação de crédito negando aos cidadãos a oportunidade de obter um empréstimo);
  • Aplicação da lei que pode interferir com os direitos fundamentais das pessoas (por exemplo, avaliação da confiabilidade das evidências);
  • Migração, asilo e gestão do controlo das fronteiras (por exemplo, verificação da autenticidade dos documentos de viagem);
  • Administração da justiça e processos democráticos (por exemplo, aplicação da lei a um conjunto concreto de fatos).

Os sistemas de IA de alto risco estarão sujeitos a obrigações estritas antes de serem colocados no mercado:

  • Avaliação de risco adequada e sistemas de mitigação;
  • Alta qualidade dos conjuntos de dados que alimentam o sistema para minimizar riscos e resultados discriminatórios;
  • Log da atividade para garantir a rastreabilidade dos resultados;
  • Documentação detalhada fornecendo todas as informações necessárias sobre o sistema e sua finalidade para que as autoridades avaliem sua conformidade;
  • Informações claras e adequadas ao usuário;
  • Medidas de supervisão humana adequadas para minimizar o risco;
  • Alto nível de robustez, segurança e precisão.

Em particular, todos os sistemas de identificação biométrica remota são considerados de alto risco e sujeitos a requisitos rigorosos. A sua utilização ao vivo em espaços acessíveis ao público para fins de aplicação da lei é proibida em princípio.

Exceções restritas são estritamente definidas e regulamentadas (como quando estritamente necessário para procurar uma criança desaparecida, para prevenir uma ameaça terrorista específica e iminente ou para detectar, localizar, identificar ou processar um perpetrador ou suspeito de um crime grave).

Tal uso está sujeito à autorização de um órgão judicial ou outro órgão independente e aos limites adequados de tempo, alcance geográfico e bases de dados pesquisadas.

Os sistemas de IA de risco limitado terão obrigações específicas de transparência: por exemplo, ao utilizar sistemas de IA como chatbots, os utilizadores devem estar cientes de que estão a interagir com uma máquina para que possam tomar uma decisão informada de continuar ou recuar.

Os sistemas de IA de risco mínimo sem qualquer necessidade de regulamentação incluem: videogames habilitados para IA ou filtros de spam. A grande maioria dos sistemas de IA se enquadra nesta categoria.

O Conselho Europeu de Inteligência Artificial irá facilitar a implementação dos regulamentos, bem como impulsionar o desenvolvimento de padrões para IA.

Multas de 6% da receita estão previstas para empresas que não cumprirem proibições ou requisitos de dados

Estão previstas multas menores para empresas que não cumprirem outros requisitos previstos nas novas regras

As regras se aplicarão a desenvolvedores e usuários de sistemas de IA de alto risco

Os fornecedores de IA de risco devem submetê-la a uma avaliação de conformidade antes da implantação

Outras obrigações para IA de alto risco incluem o uso de conjuntos de dados de alta qualidade, garantindo a rastreabilidade dos resultados e supervisão humana para minimizar o risco

Os critérios para aplicações de 'alto risco' incluem a finalidade pretendida, o número de pessoas potencialmente afetadas e a irreversibilidade do dano.

As regras requerem a aprovação do Parlamento Europeu e dos Estados-Membros antes de se tornarem leis - um processo que pode demorar vários anos.