36 C
San Juan
InicioEl mundoLa Unión Europea regula el uso de la inteligencia artificial y enfrenta...

La Unión Europea regula el uso de la inteligencia artificial y enfrenta la presión de las tecnológicas


PARIS. – Suele decirse que Estados Unidos inventa, China copia y Europa regula. Y si bien esta última costumbre consigue a veces complicar la vida, también es garantía de respeto a la privacidad y freno a los excesos del mercado. Con ese objetivo, este domingo entró en vigor en la Unión Europea (UE) la primera etapa del llamado “AI European Act”, ley que prohíbe ciertas utilizaciones de la Inteligencia Artificial, como el reconocimiento de las emociones en el espacio laboral.

Es la primera legislación a escala mundial que afectará con amplitud el universo de la inteligencia artificial. Adoptada en mayo pasado tras arduas negociaciones, la reglamentación europea sobre la AI tiene por objetivo regular el desarrollo, el lanzamiento y la utilización de sistemas de inteligencia artificial según su nivel de riesgo. En otras palabras: proteger los derechos fundamentales de los ciudadanos y limitar el uso abusivo de esas tecnologías.

La UE puso en marcha la primera gran regulación global sobre Inteligencia ArtificialGUILLAUME PERIGOIS/UIMP – Europa Press

El AI European Act entró oficialmente en vigor en agosto de 2024. Pero ninguna de sus exigencias se aplicaba hasta este domingo. Esta es, sin embargo, una primera etapa.

“Esas reglas conciernen los casos prohibidos de utilización de la IA, y las exigencias relativas a su control en el ambiente empresario”, resume Enza Iannopollo, analista en Forrester.

A partir de ahora, en la UE, las empresas tendrán prohibido utilizar sistemas de IA considerados como “un riesgo inaceptable”, tales como son definidos en el capítulo II del reglamento. Se trata, por ejemplo, de los sistemas de notación social —como los utilizados en China—, de aquellos basados en el reconocimiento de las emociones en el sitio de trabajo, de tecnologías que podrían discriminar individuos debido a su edad, un defecto físico o una situación económica, de la manipulación del comportamiento, de la identificación biométrica para deducir “raza, opinión política, religiosa, orientación sexual o afiliación sindical”, según enumera el sitio de la Comisión Europea (CE). Ciertas excepciones han sido previstas, no obstante, para las fuerzas del orden.


La identificación biométrica es el uso de características físicas o conductuales únicas de una persona para verificar su identidad. Incluye tecnologías como el reconocimiento facial, las huellas dactilares, el escaneo del iris, la voz o la forma de caminar

Todos esos métodos de IA, que están totalmente prohibidos por la nueva ley, afectarán no obstante a pocas empresas, pues son raras las que recurren a este tipo de sistemas, según los expertos.

Por el contrario, casi todas las sociedades que operan en Europa estarán concernidas por otra exigencia del texto que entró en vigencia este domingo: las obligaciones en materia de conocimiento de la IA. La idea de los reguladores europeos al escribir el AI Act fue categorizar los sistemas de inteligencia artificial en función de su nivel de riesgo, para definir las obligaciones. El reglamento las define en cuatro categorías: “inaceptable”, “alto riesgo”, “riesgo limitado” y “riesgo débil”. Cada empresa deberá listar los sistemas de IA utilizados y catalogar las obligaciones a las que deberán ser sometidos.

Por su parte, las etapas principales del texto que regirán los modelos de IA “para uso general” entrarán en vigor recién el 1° de agosto. Se trata de los grandes modelos de generación de texto o de imagen que sirven de base a asistentes como ChatGPT, Gemini (Google) o Le Chat (Mistral). Todos ellos estarán obligados a respetar una total transparencia de su documentación técnica y sus datos de entrenamiento. Y los modelos más importantes estarán, además, sometidos a controles de seguridad de riesgo, sobre todo cíber.

Un estudio analiza la orientación política de los principales modelos de inteligencia artificial; la postura se genera a partir de los contenidos con los que fueron entrenadosShutterstock – Shutterstock

En 2027 serán reglamentadas las utilizaciones de IA juzgadas de “alto riesgo”: en las infraestructuras eléctricas, el agua o las rutas, en la educación y la formación, en el trabajo y la empresa, en la banca o los seguros, la justicia, la policía, la gestión de la inmigración o los procesos democráticos. Quienes desplieguen esos programas deberán realizar evaluaciones de riesgo, sobre todo sobre los errores y las posibles desviaciones.

Para aplicar el AI Act, Bruselas tendrá una nueva unidad que colaborará con las autoridades nacionales, como la Comisión de Informática y Libertades (CNIL) en Francia. La UE podrá asimismo dictar sanciones en caso de infracción: hasta 7% del monto de las transacciones por prácticas prohibidas y 3% para las otras.

La aplicación china de inteligencia artificial recientemente lanzada, DeepSeek, ha ascendido al número uno en la App Store de Apple y ha provocado una venta masiva de acciones tecnológicas estadounidenses por la preocupación de que los avances en inteligencia artificial de las empresas chinas puedan amenazar los resultados de los gigantes tecnológicos en Estados Unidos y EuropaJUSTIN SULLIVAN – GETTY IMAGES NORTH AMERICA

Naturalmente, nada será fácil. La UE seguirá padeciendo la presión de los gigantes estadounidenses de la informática, ahora apoyados por Donald Trump. Los lobbies de la “tech”, entre ellos la Business Software Alliance (BSA) o la Computer & Communications Industry Association (CCIA), enviaron recientemente una carta criticando el AI Act, en particular sobre los derechos de autor. Y denunciando textos ya en vigor, como el Digital Services Act (el DSA sobre redes sociales), criticado por Elon Musk (X) y Mark Zuckerberg (Meta), o el Digital Markets Act (sobre la competencia en las plataformas). El nuevo ocupante de la Casa Blanca ya prometió sostener a sus GAFAM contra las multas de Bruselas, advirtiendo a Europa sobre “los riesgos” de aplicación de sus regulaciones.

Pero no son solo los gigantes estadounidenses quienes preocupan a los reguladores europeos. Como ya lo anunciaron sus homólogos irlandeses, surcoreanos y australianos, Bruselas reclamará informaciones sobre el tratamiento de las informaciones suministradas por los usuarios a la start-up china DeepSeek, cuyo último modelo, R1, generó una onda de choque en los mercados financieros la semana pasada, sorprendiendo al sector por su capacidad de igualar las performances de los gigantes norteamericanos, a un costo muy inferior.

Conforme a los criterios de
Articulos relacionados
Subscribe
Notify of
guest

0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
- Advertisment -

Más leídos