PARIS. – Suele decirse que Estados Unidos inventa, China copia y Europa regula. Y si bien esta última costumbre consigue a veces complicar la vida, también es garantía de respeto a la privacidad y freno a los excesos del mercado. Con ese objetivo, este domingo entró en vigor en la Unión Europea (UE) la primera etapa del llamado “AI European Act”, ley que prohíbe ciertas utilizaciones de la Inteligencia Artificial, como el reconocimiento de las emociones en el espacio laboral.
Es la primera legislación a escala mundial que afectará con amplitud el universo de la inteligencia artificial. Adoptada en mayo pasado tras arduas negociaciones, la reglamentación europea sobre la AI tiene por objetivo regular el desarrollo, el lanzamiento y la utilización de sistemas de inteligencia artificial según su nivel de riesgo. En otras palabras: proteger los derechos fundamentales de los ciudadanos y limitar el uso abusivo de esas tecnologías.
El AI European Act entró oficialmente en vigor en agosto de 2024. Pero ninguna de sus exigencias se aplicaba hasta este domingo. Esta es, sin embargo, una primera etapa.
“Esas reglas conciernen los casos prohibidos de utilización de la IA, y las exigencias relativas a su control en el ambiente empresario”, resume Enza Iannopollo, analista en Forrester.
A partir de ahora, en la UE, las empresas tendrán prohibido utilizar sistemas de IA considerados como “un riesgo inaceptable”, tales como son definidos en el capítulo II del reglamento. Se trata, por ejemplo, de los sistemas de notación social —como los utilizados en China—, de aquellos basados en el reconocimiento de las emociones en el sitio de trabajo, de tecnologías que podrían discriminar individuos debido a su edad, un defecto físico o una situación económica, de la manipulación del comportamiento, de la identificación biométrica para deducir “raza, opinión política, religiosa, orientación sexual o afiliación sindical”, según enumera el sitio de la Comisión Europea (CE). Ciertas excepciones han sido previstas, no obstante, para las fuerzas del orden.
Todos esos métodos de IA, que están totalmente prohibidos por la nueva ley, afectarán no obstante a pocas empresas, pues son raras las que recurren a este tipo de sistemas, según los expertos.
Por el contrario, casi todas las sociedades que operan en Europa estarán concernidas por otra exigencia del texto que entró en vigencia este domingo: las obligaciones en materia de conocimiento de la IA. La idea de los reguladores europeos al escribir el AI Act fue categorizar los sistemas de inteligencia artificial en función de su nivel de riesgo, para definir las obligaciones. El reglamento las define en cuatro categorías: “inaceptable”, “alto riesgo”, “riesgo limitado” y “riesgo débil”. Cada empresa deberá listar los sistemas de IA utilizados y catalogar las obligaciones a las que deberán ser sometidos.
Por su parte, las etapas principales del texto que regirán los modelos de IA “para uso general” entrarán en vigor recién el 1° de agosto. Se trata de los grandes modelos de generación de texto o de imagen que sirven de base a asistentes como ChatGPT, Gemini (Google) o Le Chat (Mistral). Todos ellos estarán obligados a respetar una total transparencia de su documentación técnica y sus datos de entrenamiento. Y los modelos más importantes estarán, además, sometidos a controles de seguridad de riesgo, sobre todo cíber.
En 2027 serán reglamentadas las utilizaciones de IA juzgadas de “alto riesgo”: en las infraestructuras eléctricas, el agua o las rutas, en la educación y la formación, en el trabajo y la empresa, en la banca o los seguros, la justicia, la policía, la gestión de la inmigración o los procesos democráticos. Quienes desplieguen esos programas deberán realizar evaluaciones de riesgo, sobre todo sobre los errores y las posibles desviaciones.
Para aplicar el AI Act, Bruselas tendrá una nueva unidad que colaborará con las autoridades nacionales, como la Comisión de Informática y Libertades (CNIL) en Francia. La UE podrá asimismo dictar sanciones en caso de infracción: hasta 7% del monto de las transacciones por prácticas prohibidas y 3% para las otras.
Naturalmente, nada será fácil. La UE seguirá padeciendo la presión de los gigantes estadounidenses de la informática, ahora apoyados por Donald Trump. Los lobbies de la “tech”, entre ellos la Business Software Alliance (BSA) o la Computer & Communications Industry Association (CCIA), enviaron recientemente una carta criticando el AI Act, en particular sobre los derechos de autor. Y denunciando textos ya en vigor, como el Digital Services Act (el DSA sobre redes sociales), criticado por Elon Musk (X) y Mark Zuckerberg (Meta), o el Digital Markets Act (sobre la competencia en las plataformas). El nuevo ocupante de la Casa Blanca ya prometió sostener a sus GAFAM contra las multas de Bruselas, advirtiendo a Europa sobre “los riesgos” de aplicación de sus regulaciones.
Pero no son solo los gigantes estadounidenses quienes preocupan a los reguladores europeos. Como ya lo anunciaron sus homólogos irlandeses, surcoreanos y australianos, Bruselas reclamará informaciones sobre el tratamiento de las informaciones suministradas por los usuarios a la start-up china DeepSeek, cuyo último modelo, R1, generó una onda de choque en los mercados financieros la semana pasada, sorprendiendo al sector por su capacidad de igualar las performances de los gigantes norteamericanos, a un costo muy inferior.