La UE aprueba la primera ley de inteligencia artificial del mundo

La Unión Europea (UE) ha llegado a un consenso para acordar la primera ley de inteligencia artificial (IA) en el mundo, representando un paso histórico en la regulación tecnológica. Tras más de 35 horas de negociaciones intensas, el acuerdo provisional alcanzado entre los Estados miembros y el Parlamento Europeo marca un precedente global.

Esta legislación busca equilibrar el desarrollo y uso de la IA con la seguridad y el respeto a los derechos fundamentales. Se centra en garantizar que los sistemas de IA utilizados en la UE sean seguros, respeten los valores europeos y no se utilicen con fines represivos o discriminatorios. La ley introduce reglas específicas para los “modelos fundacionales”, como ChatGPT y DALL-E, y establece estándares para la vigilancia biométrica, incluyendo el uso del reconocimiento facial por parte de las fuerzas de seguridad.

El marco legal clasifica la IA en categorías de riesgo, desde tecnologías “inaceptables” que deben prohibirse hasta formas de IA de alto, medio y bajo riesgo.

Para los sistemas de IA clasificados como de alto riesgo (debido a su importante daño potencial a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho), se acordaron obligaciones claras. Los eurodiputados lograron incluir una evaluación obligatoria del impacto sobre los derechos fundamentales, entre otros requisitos, aplicable también a los sectores bancario y de seguros. Los sistemas de inteligencia artificial utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo. Los ciudadanos tendrán derecho a presentar quejas sobre los sistemas de IA y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.

Reconociendo la amenaza potencial para los derechos de los ciudadanos y la democracia que plantean determinadas aplicaciones de la IA, los colegisladores acordaron prohibir:

  • sistemas de categorización biométrica que utilizan características sensibles (por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual, raza);
  • extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial;
  • reconocimiento de emociones en el lugar de trabajo y en instituciones educativas;
  • puntuación social basada en comportamiento social o características personales;
  • Sistemas de IA que manipulan el comportamiento humano para eludir su libre albedrío;
  • La IA solía explotar las vulnerabilidades de las personas (por su edad, discapacidad, situación social o económica).

Esta iniciativa posiciona a la UE a la vanguardia de la regulación de la IA, adelantándose a otras potencias como Estados Unidos y China. La ley es vista como una plataforma para que las startups y los investigadores europeos lideren en la esfera de la IA, equilibrando innovación y regulación. Al mismo tiempo, existe preocupación por asegurar que la regulación no obstaculice la competitividad de la UE en el campo de la IA.

El acuerdo refleja un enfoque de “corregulación”, donde se establecen obligaciones para las empresas de IA, pero se permite cierto margen para la autorregulación sectorial supervisada. Esta estrategia busca proteger los derechos fundamentales sin imponer una normativa demasiado restrictiva que frene la innovación.

El alcance y la influencia de esta legislación europea podrían extenderse más allá de sus fronteras, ya que las empresas que deben cumplir con estas normas en la UE probablemente aplicarán algunas de estas obligaciones en otros mercados.

Con información de: El País, Cinco Días, El Periódico y News European Parliament.

+ publicaciones

Artículo redactado con asistencia de diversas inteligencias artificiales generativas con supervisión humana (redacción AD).

Entradas relacionadas

Más
error: Contenido protegido