California mira a Europa para frenar la IA

Actualización: 28 de marzo de 2024
Los legisladores del capitolio del estado de California están trabajando en una serie de leyes destinadas a acabar con los usos abusivos de la inteligencia artificial en el territorio de algunos de los poderosos titanes tecnológicos del mundo.
Los legisladores del capitolio del estado de California están trabajando en una serie de leyes destinadas a tomar medidas enérgicas contra los usos abusivos de la inteligencia artificial en el territorio de algunos de los poderosos titanes tecnológicos del mundo.

California, hogar de Silicon Valley, está ansiosa por frenar el despliegue de la inteligencia artificial y busca inspiración en el enfoque duro de Europa hacia las grandes tecnologías.

California, el estado más rico de Estados Unidos en términos de PIB, es un semillero de innovación tecnológica sin restricciones, pero los legisladores en la capital del estado, Sacramento, quieren darle a la industria leyes y barreras de seguridad que en gran medida se han salvado en la era de Internet.

Bruselas ha promulgado una avalancha de leyes sobre tecnología dominada por Estados Unidos y se apresuró a aprobar la Ley de IA después de que ChatGPT de OpenAI, respaldado por Microsoft, llegara a escena a finales de 2022, desatando una carrera mundial de IA.

"Lo que estamos tratando de hacer es aprender de los europeos, pero también trabajar con los europeos y descubrir cómo implementar regulaciones para la IA", dijo David Harris, asesor político senior de la Iniciativa de California para Tecnología y Democracia.

Como lo han hecho en el pasado con las leyes de la UE sobre datos privados, los legisladores de California están mirando la reciente legislación europea sobre IA, especialmente dadas las pocas esperanzas de una legislación nacional equivalente en Washington.

Hay al menos 30 proyectos de ley diferentes propuestos por legisladores del estado de California que se relacionan con diversos aspectos de la IA, según Harris, quien dijo que ha asesorado a funcionarios aquí y en Europa sobre este tipo de leyes.

Las leyes propuestas en California van desde exigir a los fabricantes de inteligencia artificial que revelen qué se utilizó para entrenar modelos hasta prohibir los anuncios electorales que contengan funciones generadas por computadora.

"Uno de los aspectos que creo que es realmente importante es la cuestión de cómo abordamos los deepfakes o textos falsos creados para que parezca que un ser humano te envía mensajes", dijo Harris a la AFP.

Gail Pellerin, miembro de la asamblea estatal, respalda un proyecto de ley que, según ella, esencialmente prohibiría la difusión de contenido digital engañoso creado con inteligencia artificial generativa en los meses previos y las semanas posteriores a las elecciones.

"Los malos actores que están utilizando esto realmente esperan crear caos en una elección", dijo Pellerin.

'Chicos malos' que infringen la ley

La asociación industrial NetChoice está totalmente en contra de importar aspectos de la legislación europea sobre IA o cualquier otra regulación tecnológica de la UE.

“Están adoptando, esencialmente, un enfoque europeo sobre la inteligencia artificial, que consiste en prohibir la tecnología”, dijo Carl Szabo, asesor general de la asociación, que aboga por una regulación ligera de la tecnología.

“Prohibir la IA no detendrá (nada). Es malo porque los malos no respetan la ley”, argumentó Szabo.

"Eso es lo que los convierte en malos".

El gigante estadounidense del software Adobe, como la mayoría de los gigantes tecnológicos, trabajó con Europa en la Ley de IA, según Dana Rao, asesora general y directora de confianza de Adobe.

En el centro de la Ley de IA de la UE se encuentra un enfoque basado en el riesgo, en el que las prácticas de IA consideradas más riesgosas reciben un mayor escrutinio.

“Nos sentimos satisfechos con el resultado de la Ley de IA” con su enfoque de alto y bajo riesgo, dijo Rao.

Según Rao, los ingenieros de Adobe ya llevan a cabo “evaluaciones de impacto” para calificar el riesgo antes de poner a disposición productos de IA.

"Hay que pensar en la seguridad nuclear, en la ciberseguridad, en cuándo la IA toma decisiones sustanciales sobre los derechos humanos", dijo Rao.

'Observando California'

En California, Rao dijo que esperaba que el problema de los deepfakes fuera el primero en quedar bajo la autoridad de una nueva ley.

El Proyecto de Ley 602 de la Asamblea penalizaría la pornografía deepfake no consensuada, mientras que el Proyecto de Ley 730 prohíbe el uso de deepfakes de IA durante la temporada de campaña electoral.

Para luchar contra esto, Adobe se unió a otras empresas para crear “credenciales de contenido” que Rao equiparó con una “etiqueta nutricional” para contenido digital.

La asambleísta Pellerin espera que las leyes sobre IA adoptadas en California se reproduzcan en otros estados.

"La gente está observando a California", dijo Pellerin, y una gran cantidad de estados de EE. UU. también están trabajando en sus propios proyectos de ley sobre falsificación de IA.

"Estamos todos juntos en esto; Tenemos que adelantarnos a la gente que intenta causar estragos en unas elecciones”, afirmó.