top of page
  • pruebas iies

La UE aprueba la primera ley de inteligencia artificial del mundo

Los Estados y la Eurocámara superan sus diferencias en torno a cómo regular los modelos fundacionales y las líneas rojas en materia de sistemas de vigilancia biométrica y cierran un acuerdo provisional que todavía debe ser ratificado antes de que entre en vigor.


La Unión Europea será la primera región del mundo en regular de forma completa los usos de la inteligencia artificial (IA). Los Estados y el Parlamento Europeo han llegado, casi en la medianoche del viernes al sábado, y después de tres días de intensas y duras negociaciones, a un acuerdo provisional, un texto final que todavía deberá ser ratificado por las dos partes antes de entrar en vigor, previsiblemente a finales de 2026, aunque algunas partes empezarán a funcionar antes. Este texto define las obligaciones y normas por las que deberá regirse una tecnología que está aquí para quedarse y que está transformando completamente la vida diaria, pero que conlleva tantas posibilidades como riesgos, muchos de ellos ni siquiera aún imaginables.


“El reglamento tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos”, ha asegurado en X (antes Twitter) la Presidencia española del Consejo de la UE. Cerrar esta ley, que quiere convertirse en una referencia o estándar para otras regiones más allá de las fronteras comunitarias, era una de las prioridades fijadas por España para su semestre europeo, que acaba este mes de diciembre.


Los Veintisiete aseguran que quieren garantizar las posibilidades y limitar al máximo los riesgos, para lo que han negociado una ley “a prueba del futuro” que contenga la flexibilidad suficiente como para poder regular funciones o tecnologías hoy por hoy desconocidas, o para amoldarse a los cambios que experimenten las ya existentes. Pero el diablo, como siempre, está en los detalles, y las negociaciones, “apasionadas”, como las calificaron testigos de los interminables tira y afloja que comenzaron el miércoles y acabaron rozando la medianoche del viernes al sábado, se alargaron debido al pulso entre Estados y eurodiputados —y a veces entre cada parte entre sí— sobre qué es un riesgo o no y qué excepciones y salvaguardias poner para garantizar que los derechos fundamentales individuales no se arriesgan en aras de no perjudicar la economía o los intereses de los Estados. La letra pequeña está aún por conocerse, pero, tras 36 horas de negociaciones, una de las más largas que se recuerdan de estos formatos, todas las partes se declararon satisfechas por el “equilibrio” logrado entre los dos objetivos.

“Es una ley muy buena que impulsará la innovación y de forma compatible con los derechos fundamentales”, ha asegurado la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas.


“La UE se convierte en el primer continente que pone reglas claras para el uso de la IA”, ha señalado mientras tanto el comisario de Mercado Interior, Thierry Breton, uno de los grandes impulsores de la normativa y para quien la ley propuesta es “mucho más que un paquete de normas, es una lanzadera para que las startups europeas y los investigadores lideren la carrera global por la IA”.


Sobre todo, ha acotado Artigas, porque da una “certeza legal y técnica” a los ciudadanos y a las empresas que ahorrará previsiblemente muchas acciones legales. Para ello, la normativa quiere tener dientes suficientes como para no quedar en papel mojado, para lo que prevé un sistema de sanciones, bien un porcentaje del volumen total de negocios de la compañía infractora el año fiscal previo o incluso una cantidad predeterminada “aún mayor”. Además, se establece la creación de un ente supervisor independiente, una Oficina de IA ligada a la Comisión Europea y que estará asesorada por un panel científico y la sociedad civil.


La presidenta de la Comisión, Ursula von der Leyen, ha celebrado una normativa “pionera en el mundo”. Un marco legal “único para el desarrollo de una IA en el que se puede confiar”, ha saludado en X la jefa del Ejecutivo europeo. “Europa ha liderado y ha cumplido”, ha acotado la presidenta del Parlamento Europeo, Roberta Metsola, según la cual la AI Act, como se la conoce en inglés, es una legislación “vanguardista y responsable que impone estándares globales”.


Junto a la satisfacción por cerrar un acuerdo que muchas veces parecía escaparse, había también gestos de alivio entre los principales responsables de las negociaciones, y no solo porque por fin podían irse a casa, sino porque, subrayaron todos, lo hacían seguros de que han hecho bien unos deberes con muchas trabas.


Entre ellos, los más espinosos fueron, como se preveía, la cuestión de cómo regular los modelos de IA de propósito general (la IA generativa o modelos fundacionales) en los que se basan populares herramientas como el ChatGPT, así como los sistemas de vigilancia biométrica (como el reconocimiento facial), que al final acabó siendo el punto más arduamente negociado y prolongó las discusiones hasta este viernes, debido a los fuertes recelos que despiertan estas tecnologías que potencialmente —y en algunos casos ya realmente, como se ve en algunos países con poco músculo democrático— permiten una supervisión y control estatal que puede colisionar directamente con los derechos fundamentales de los ciudadanos.


Finalmente, se ha evitado el fracaso de las negociaciones, que España insistió en concluir ya, temerosa de un calendario que, con elecciones europeas en seis meses, podría hacer peligrar una ley largamente elaborada y discutida. El Parlamento Europeo ha celebrado que la ley “busca garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental están protegidos de IA de alto riesgo, a la par que se impulsa la innovación y se hace de Europa un líder en el sector”.


El texto final recoge, aseguran los eurodiputados, sus principales líneas rojas, al confirmar que quedarán prohibidos varios sistemas de vigilancia biométrica que consideraban inaceptables: los sistemas de categorización biométrica (por creencias políticas, religiosas, filosóficas o por orientación sexual o raza); los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales y televisión; el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas; el social scoring (sistemas que puntúan a las personas en función de su comportamiento social o características personales); sistemas que manipulan comportamiento humano y la IA usada para explotar las vulnerabilidades de las personas (por ejemplo por su edad o situación social o económica).



Vigilancia biométrica


Por otro lado, aunque se permitirán los sistemas de vigilancia biométrica en tiempo real en espacios públicos, solo podrán ser empleados por las fuerzas del orden y estarán muy limitados y rodeados de estrictas salvaguardias: se requerirá una autorización judicial y la lista de crímenes que lo autoricen será muy restrictiva. En el caso del uso “ex post”, solo se permitirá para la búsqueda de una persona condenada o sospechosa de haber cometido un crimen grave. En el caso de la vigilancia en tiempo real, su uso estará limitado en “tiempo y locación” y solo se permitirá para la búsqueda de víctimas de secuestro, tráfico humano o explotación sexual, para la prevención de una amenaza terrorista “genuina y previsible” o “genuina y presente”, es decir, que se está produciendo en el mismo momento, o para la localización o identificación de un sospechoso de crímenes específicos: terrorismo, tráfico, asesinato, secuestro, violación, robo armado o un crimen medioambiental, entre otros).


En cuanto al otro gran punto de las negociaciones, la regulación de los sistemas de inteligencia artificial generativa en los que se basan modelos como ChatGPT, estos tendrán que cumplir criterios de transparencia, como especificar que si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial, así como garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.


Se trata de una tecnología que apenas se conocía cuando Bruselas propuso la ley, en abril de 2021, por lo que ha habido que incorporar medidas y salvaguardias a posteriori, lo que ha constituido a la vez un recordatorio de que la legislación debe ser adaptable a sistemas del futuro aún inimaginables. El reglamento no prohíbe su uso, pero sí establece una serie de criterios para detectar los modelos que pueden generar un alto riesgo en función del contexto en el que se usen y obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado.

Ningún otro país tiene aún una regulación tan completa como la europea. El presidente de EE UU, Joe Biden, firmó un octubre un decreto que obliga a las tecnológicas a notificar al Gobierno cualquier avance que suponga un “riesgo grave para la seguridad nacional”. Días después, el primer ministro británico, Rishi Sunak, convocó a una cumbre de la que surgió el primer compromiso de 28 países y de la UE sobre estos sistemas (Declaración de Bletchley) y la creación de un grupo de expertos para el seguimiento de sus avances.


Si no ocurren imprevistos, es decir, si ninguna de las partes se echa atrás y tanto los Estados como la Eurocámara ratifican la ley en los próximos meses (los negociadores no creen que el proceso pueda empezar antes de febrero, ya bajo presidencia europea belga), la Ley de IA debería poder entrar totalmente en vigor hacia finales de 2026, aunque algunas partes lo harán antes: está previsto que la Oficina de IA empiece a funcionar en cuanto se ratifique el reglamento, mientras que la prohibición de los sistemas prohibidos de inteligencia artificial llegará a los seis meses y los requisitos para los sistemas y modelos de IA generativa, a los 12.

Kommentare


Categorías

Entradas destacadas
Síguenos
  • Facebook Basic Square
  • Twitter Basic Square
  • Icono social de YouTube
  • Icono social LinkedIn
  • Icono social Instagram
  • Google+ Basic Square
bottom of page