La UE establece reglas para la IA

Actualización: 9 de diciembre de 2023

La UE establece reglas para la IA

“En materia de inteligencia artificial, la confianza es imprescindible, no algo agradable de tener”, dice la vicepresidenta digital Margrethe Vestager (en la foto), “con estas reglas históricas, la UE está encabezando el desarrollo de nuevas normas globales para garantizar que se pueda confiar en la IA. Al establecer los estándares, podemos allanar el camino hacia la ética. la tecnología en todo el mundo y garantizar que la UE siga siendo competitiva a lo largo del camino. Nuestras normas, preparadas para el futuro y favorables a la innovación, intervendrán cuando sea estrictamente necesario: cuando la seguridad y los derechos fundamentales de los ciudadanos de la UE estén en juego”.

Las reglas diferencian entre aplicaciones de IA de alto riesgo, riesgo limitado y riesgo mínimo.

Sistemas de IA identificadas como de alto riesgo incluyen la tecnología de IA utilizada en:

  • Infraestructuras críticas (por ejemplo, transporte), que podrían poner en riesgo la vida y la salud de los ciudadanos;
  • Formación educativa o vocacional, que puede determinar el acceso a la educación y el curso profesional de la vida de alguien (por ejemplo, calificación de exámenes);
  • Componentes de seguridad de los productos (por ejemplo, aplicación de IA en cirugía asistida por robot);
  • Empleo, gestión de trabajadores y acceso al trabajo por cuenta propia (por ejemplo, software de clasificación de CV para los procedimientos de contratación);
  • Servicios públicos y privados esenciales (por ejemplo, calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo);
  • Aplicación de la ley que pueda interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la confiabilidad de las pruebas);
  • Gestión de migración, asilo y control de fronteras (por ejemplo, verificación de la autenticidad de los documentos de viaje);
  • Administración de justicia y procesos democráticos (por ejemplo, aplicación de la ley a un conjunto concreto de hechos).

Los sistemas de IA de alto riesgo estarán sujetos a estrictas obligaciones antes de que puedan comercializarse:

  • Sistemas adecuados de evaluación y mitigación de riesgos;
  • Alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios;
  • Registro de actividad para garantizar la trazabilidad de los resultados;
  • Documentación detallada que proporcione toda la información necesaria sobre el sistema y su propósito para que las autoridades evalúen su cumplimiento;
  • Información clara y adecuada al usuario;
  • Medidas apropiadas de supervisión humana para minimizar el riesgo;
  • Alto nivel de robustez, seguridad y precisión.

En particular, todos los sistemas de identificación biométrica remota se consideran de alto riesgo y están sujetos a requisitos estrictos. Su uso en vivo en espacios de acceso público con fines policiales está prohibido en principio.

Las excepciones limitadas están estrictamente definidas y reguladas (por ejemplo, cuando sea estrictamente necesario para buscar un niño desaparecido, para prevenir una amenaza terrorista específica e inminente o para detectar, localizar, identificar o enjuiciar a un perpetrador o sospechoso de un delito grave).

Dicho uso está sujeto a la autorización de un órgano judicial u otro organismo independiente y a los límites adecuados en el tiempo, el alcance geográfico y las bases de datos buscadas.

Los sistemas de IA de riesgo limitado tendrán obligaciones específicas de transparencia: p. Al utilizar sistemas de inteligencia artificial como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada de continuar o dar un paso atrás.

Los sistemas de IA de riesgo mínimo y sin necesidad de regulación incluyen: videojuegos con IA o filtros de spam. La gran mayoría de los sistemas de IA entran en esta categoría.

La Junta Europea de Inteligencia Artificial facilitará la implementación de las regulaciones, además de impulsar el desarrollo de estándares para la IA.

Se prevén multas del 6% de los ingresos para las empresas que no cumplan con las prohibiciones o los requisitos de datos

Se prevén multas menores para las empresas que no cumplan con otros requisitos detallados en las nuevas reglas.

Las reglas se aplicarán tanto a los desarrolladores como a los usuarios de sistemas de IA de alto riesgo.

Los proveedores de IA de riesgo deben someterla a una evaluación de conformidad antes de su implementación.

Otras obligaciones para la IA de alto riesgo incluyen el uso de conjuntos de datos de alta calidad, lo que garantiza la trazabilidad de los resultados y la supervisión humana para minimizar el riesgo.

Los criterios para las aplicaciones de 'alto riesgo' incluyen el propósito previsto, el número de personas potencialmente afectadas y la irreversibilidad del daño.

Las reglas requieren la aprobación del Parlamento Europeo y los estados miembros antes de convertirse en ley, un proceso que puede llevar varios años.