Ley de Inteligencia Artificial: Europa da el primer paso

Ley de Inteligencia Artificial: Europa da el primer paso

El Parlamento Europeo ha dado un paso crucial al consensuar la primera Ley de Inteligencia Artificial (IA).

La Unión Europea (UE) ha logrado un hito al consensuar la primera legislación destinada a regular la Inteligencia Artificial (IA), un conjunto de tecnologías que, tras la expansión de plataformas como ChatGPT, ha provocado debates públicos acerca de su potencial y los riesgos asociados.

El texto, originalmente propuesto en 2021 y modificado ante el auge de la industria de la IA generativa, enfrentó presiones de diversos sectores, incluyendo gobiernos, organizaciones no gubernamentales y grupos tecnológicos. Finalmente, superó el proceso legislativo en un maratón de negociaciones conocido como ‘trílogo‘ o diálogo a tres bandas el 8 de diciembre, donde la Comisión, el Consejo y el Parlamento europeos lograron solventar sus diferencias en una intensa sesión de 36 horas.

El acuerdo es provisional y requiere ratificación antes de entrar en vigor en 2026. Sin embargo, algunas prohibiciones se implementarán en un plazo de seis meses. Por otro lado, disposiciones como los requisitos para sistemas de alto riesgo, la regulación de modelos potentes de IA, la creación de organismos de evaluación de la conformidad y aspectos de gobernanza entrarán en vigor en un plazo de un año.

Las penalizaciones por incumplimiento de la ley de IA en la UE oscilan entre multas que representan un porcentaje de la facturación global de la empresa, con límites entre los 35 millones de euros o el 7% y los 7,5 millones o el 1,5%, dependiendo de la gravedad de la infracción y el tamaño de la entidad.

Esta nueva ley de IA para la Unión Europea se basa en la clasificación de la capacidad de estas tecnologías para causar daño. Considerando su rápida evolución, se enfoca en regular los usos y no tecnologías específicas. Se prohíben los usos que presenten riesgos inaceptables para los ciudadanos y la democracia en toda la región.

Algunos de estos usos prohibidos incluyen:

Sistemas biométricos que utilicen características sensibles.

-Extracción indiscriminada de imágenes faciales o grabaciones para bases de datos de reconocimiento facial.

-Reconocimiento de emociones en entornos laborales y educativos.

Puntuación social basada en el comportamiento o características personales.

Manipulación del comportamiento humano por la IA para evadir el libre albedrío.

Explotación de vulnerabilidades en personas debido a su edad, discapacidad, situación social o económica.

Uno de los puntos más controvertidos en las negociaciones de la ley de IA de la UE ha sido el uso del reconocimiento facial y biométrico en tiempo real por parte de los gobiernos en espacios públicos.

Si bien el Parlamento buscaba eliminar estos usos, el Consejo logró definir excepciones vinculadas a la seguridad nacional, lo cual ha generado debate con organizaciones en defensa de los derechos humanos y consumidores.

En cuanto a la regulación de modelos de IA generativa como ChatGPT, la ley establece dos niveles. Todos los modelos de propósito general deben presentar documentación técnica, cumplir con la legislación de derechos de autor y proporcionar resúmenes detallados sobre el entrenamiento del modelo.

Los modelos con un impacto significativo y riesgo sistémico tendrán obligaciones más estrictas, incluyendo evaluaciones, mitigación de riesgos, pruebas, reporte de incidentes graves y garantías de ciberseguridad, además de informar sobre su eficiencia energética.

El consumo creciente de energía por parte de la industria de la IA ha sido un punto clave. Hasta ahora, las empresas no estaban obligadas a publicar estos datos, pero con esta nueva legislación, se busca abordar este problema a través de estudios independientes.