La norma, que entrará en vigencia en el 2026 en todo el territorio europeo, implica sanciones de hasta 35 millones de euros para quienes no respeten lo dispuesto por la ley.
Luego de más de dos años – fue presentada en abril del 2021 –los organismos que integran la Unión Europea acordaron establecer un marco legal común para la inteligencia artificial (IA) en su región. La Ley de Inteligencia Artificial ha sido presentada como una forma de fomentar el desarrollo y la adopción en todo el mercado de una IA segura y legal, que respete los derechos fundamentales de las personas.
El viaje no ha sido sencillo ni ha estado exento de encendidas polémicas entre quienes creen que frena la innovación de las pequeñas empresas y quienes aseguran que esta es la mejor manera de evitar abusos en el uso de la IA. Aun con ello, para diciembre del 2022, el Consejo de la UE alcanzó un acuerdo sobre una orientación general y entabló conversaciones interinstitucionales con el Parlamento Europeo en junio del 2023.
El pasado 5 de diciembre se llegó a un acuerdo, pero la historia no termina ahí. Como explicaron en el portal Xataka, el acuerdo entre el Parlamento Europeo y el órgano que representa a los 27 Estados comunitarios es provisional. Se establece que la ley debería aplicarse dos años después de su entrada en vigor (2026), previa ratificación. En las próximas semanas se seguirá trabajando a nivel técnico para ultimar los detalles del nuevo reglamento, el cual deberá ser aprobado por todos y sometido a una revisión jurídico-lingüística antes de su adopción formal.
La mayoría de las agencias de noticias han informado que se trata de la primera norma que regula la IA. Y es así en términos de la magnitud de aplicación de la ley y lo minucioso que es su contenido. De hecho, en nuestro país tenemos una norma que impulsa su uso, pero es sobre todo declarativa y no establece una regulación como la dispuesta en la UE, que probablemente se convertirá en el modelo a seguir o la referencia a evaluar en muchos otros países y continentes en donde se diseñen normas para regular la IA.
¿Qué establece la norma creada en Europa? A continuación, un resumen con los principales aspectos considerados en la ley en torno al uso de la IA.
Videovigilancia
Las grabaciones de videocámaras callejeras en tiempo real sólo se podrán utilizar en casos excepcionales, como por ejemplo la prevención de amenazas terroristas, o la identificación de personas involucradas en delitos graves. Y no podrán usarse para categorizar por raza u otro factor a las poblaciones que circulan por las calles.
Segmentación
La ley prohíbe que los sistemas de categorización biométrica segmenten a las personas en función de creencias políticas, religiosas, filosóficas, raza u orientación sexual. Tampoco tendrán cabida los sistemas cognitivos enfocados en clasificar a las personas en función de su comportamiento u otras características personales. Como es lógico, tampoco se podrá crear bases de datos faciales de forma indiscriminada o usar la IA para reconocer emociones en entornos laborales y educativos.
Transparencia
La IA generativa deberá ser transparente en la generación de sus contenidos. La idea es que se permita a los usuarios identificar fácilmente el origen de las contribuciones de las máquinas y tomar decisiones informadas sobre su posterior uso. Compañías como OpenAI tendrán que adaptar sus productos a estos estándares europeos.
Uso militar
El acuerdo aclara que el reglamento no se aplica a áreas fuera del alcance de la legislación de la UE y no debe afectar las competencias de los Estados miembros en materia de seguridad nacional. Además, la ley de IA no se aplicará a los sistemas que se utilicen exclusivamente con fines militares o de defensa. No se aplicaría tampoco a los sistemas creados con el único fin de investigación.
Comités
Se dispone la creación de una Oficina de IA dentro de la Comisión encargada de supervisar los modelos de IA más avanzados, buscando hacer cumplir las normas comunes en todos los estados miembros. Un panel científico de expertos independientes los asesorará, además de monitorear posibles riesgos de seguridad. Se tendrá una Junta de IA, compuesta por representantes de los Estados miembros, que actuarán como una plataforma de coordinación y asesoría de la Comisión. También se creará un foro consultivo con representantes de la industria, las pymes, las empresas emergentes, la sociedad civil y el mundo académico, quienes proporcionarán conocimientos técnicos a la Junta de IA.
Excepciones
Se ha introducido un procedimiento de emergencia que permite a los organismos encargados de hacer cumplir la ley desplegar en caso de urgencia una herramienta de IA de alto riesgo que no haya pasado el procedimiento de evaluación de la conformidad. Sin embargo, contiene un mecanismo para garantizar que los derechos fundamentales sean respetados.
Penalizaciones
Las multas por violaciones se establecen como un porcentaje de la facturación anual global de la empresa infractora en el año financiero anterior o una cantidad predeterminada, lo que sea mayor. Esto equivaldría a penalidades que van entre 35 millones de euros y 7,5 millones de euros. Los límites serán distintos para las pymes.