Eurodiputados dan el primer paso para aprobar ley de regulación de la IA
El proyecto para regular la Inteligencia Artificial (IA) en la UE superó este jueves una etapa clave al obtener la primera luz verde de los eurodiputados, que pidieron nuevas prohibiciones y que se aborde con mayor profundidad el fenómeno de ChatGPT.
Los eurodiputados de las comisiones parlamentarias de Libertades Civiles y de Protección de los Consumidores votaron por abrumadora mayoría a favor de limitar el uso de la IA en la Unión Europea (UE), sin dejar de incentivar la innovación en el sector.
El texto se presentará al pleno parlamentario en junio para su adopción y si es aprobado, se iniciarán las negociaciones con los Estados miembros a fin de acordar una ley definitiva.
La Comisión Europea propuso hace dos años un ambicioso proyecto de reglamentación y los países miembros definieron sus posiciones a finales de 2022.
Pero el examen parlamentario se alargó y se retrasó en los últimos meses con el surgimiento de polémicas sobre los peligros de las herramientas de IA capaces de crear textos o imágenes.
Los eurodiputados calificaron el voto de este jueves como "histórico" y afirmaron que esperan que concluya con la implementación de "la primera normativa del mundo sobre inteligencia artificial".
El texto aprobado recoge algunos de los principales ejes de la propuesta que hizo hace dos años la Comisión Europea, pero sugiere además una prohibición para la vigilancia biométrica, el reconocimiento de emociones y los sistemas de IA para la vigilancia policial predictiva.
Riesgos de manipulación
"Recibimos más de 3.000 enmiendas. Sólo hay que encender la televisión, cada día se ve lo importante que es este asunto para los ciudadanos", dijo el eurodiputado liberal rumano Dragos Tudorache, uno de los impulsores del texto.
Otro de los promotores del borrador, el parlamentario socialdemócrata italiano Brando Benifei afirmó que "Europa quiere un enfoque ético, basado en el ser humano".
Los sistemas de IA son de una gran complejidad técnica y estas herramientas generan fascinación, pero también inquietudes.
Por una parte, pueden salvar vida al permitir un importante avance en los diagnósticos médicos, pero también pueden ser usados por regímenes autoritarios para implementar una vigilancia masiva de la población.
La opinión pública descubrió su inmenso potencial a finales del año pasado con el lanzamiento del robot generador de textos ChatGPT, de la empresa californiana OpenAI, que es capaz de escribir ensayos, poemas o traducciones en pocos segundos.
Pero la difusión en las redes sociales de imágenes falsas que parecen muy realistas creadas con aplicaciones como Midjourney generó alerta sobre los riesgos de manipulación de la opinión pública.
En medio de un álgido debate, un grupo de destacados científicos pidieron que se establezca una moratoria para el desarrollo de sistemas más potentes hasta que haya una mejor regulación legislativa.
El texto aprobado este jueves se basa en las normativas vigentes sobre seguridad de los productos y va a imponer controles que recaigan mayoritariamente como responsabilidad de las empresas.
Los humanos deben mantener el control
El núcleo del borrador es crear una lista de reglas que sean impuestas únicamente a las aplicaciones consideradas como de "alto riesgo", una calificación que debe ser declarada por las propias empresas, a partir de los criterios establecidos por los legisladores.
Para el ejecutivo de Bruselas esto incluye a todos los sistemas usados en ámbitos como la infraestructura crítica, la educación, los recursos humanos, el control del orden o la gestión de la migración.
Una de las obligaciones que se busca imponer es que haya un control por parte de un humano de la máquina, el establecimiento de documentación técnica y la creación de un sistema de gestión de riesgos.
El cumplimiento de estas normas estaría a cargo de las autoridades supervisoras designadas por cada Estado del bloque.
El Parlamento Europeo también busca una mayor consideración de las herramientas de IA generativas de contenido, como ChatGPT, reclamando que se establezca un régimen específico de obligaciones del mismo tipo que el que rija para los sistemas de alto riesgo.
La CCIA, un grupo de presión de defensa de las grandes compañías digitales, reaccionó afirmando que si bien "el Parlamento introdujo algunas mejoras en el texto", por otro lado estaba "abandonando el enfoque basado en el riesgo" de la propuesta de la Comisión Europea.
"La mejor forma de que la UE inspire a otras jurisdicciones es garantizar que la nueva normativa habilite, y no inhiba, el desarrollo de aplicaciones útiles de IA", dijo Boniface de Champris, director de políticas para Europa de la CCIA.