La Ley de Inteligencia Artificial de la UE debe prohibir las tecnologías peligrosas basadas en IA: Amnistía Internacional

Amnistía Internacional ha instado a la Unión Europea (UE) a prohibir las tecnologías peligrosas basadas en la inteligencia artificial (IA) en la Ley de Inteligencia Artificial. La UE está trabajando en la elaboración de un reglamento integral sobre IA, y Amnistía Internacional considera que es crucial abordar el uso de estas tecnologías para evitar amplificar la discriminación y los daños a los derechos humanos.

La organización señala que varios países han utilizado sistemas de IA no regulados para evaluar solicitudes de prestaciones sociales, vigilar espacios públicos y predecir la comisión de delitos. Estas tecnologías, que se presentan como soluciones técnicas, a menudo se basan en datos sensibles y pueden tener consecuencias devastadoras, especialmente para las comunidades marginadas.

En lugar de centrarse únicamente en las amenazas existenciales de la IA, Amnistía Internacional argumenta que la legislación de la UE debe abordar los problemas existentes, como la toma de decisiones discriminatorias que socavan los derechos humanos fundamentales. Se destaca el caso de un sistema de IA utilizado por las autoridades fiscales neerlandesas que perfiló racialmente a las personas que recibían subsidios para el cuidado infantil, lo que llevó a acusaciones falsas y deudas exorbitantes.

Amnistía Internacional también aboga por la prohibición del uso y la exportación de sistemas de vigilancia invasiva, como el reconocimiento facial, que pueden llevar a detenciones injustas y amplificar el control y la discriminación existentes. Además, se enfatiza que las tecnologías problemáticas prohibidas dentro de la UE no deben fabricarse en su territorio para ser exportadas a países donde se cometen violaciones graves de los derechos humanos.

En el contexto de la migración, la organización sostiene que los Estados miembros de la UE han utilizado tecnologías opacas y hostiles que facilitan los abusos contra los migrantes y solicitantes de asilo en las fronteras. Se pide la prohibición de la elaboración de perfiles racistas, los sistemas de evaluación de riesgos que estigmatizan a los migrantes y las tecnologías que niegan el derecho de asilo.

Esta ONG ha advertido que la nueva Ley de Inteligencia Artificial de la Unión Europea no debe conceder a las grandes empresas tecnológicas el poder de autorregularse y determinar ellas mismas si sus tecnologías implican alto riesgo. Las compañías tecnológicas han presionado para introducir vacíos legales en el proceso de clasificación de riesgo de la ley, lo que les permitiría auto-evaluar si sus sistemas deben catalogarse como de “alto riesgo”.

Según Mher Hakobyan, letting las corporaciones tecnológicas autorregularse socava gravemente el objetivo principal de la ley de proteger los derechos humanos frente a posibles abusos. La solución es volver a la propuesta original de la Comisión Europea, que enumeraba claramente las situaciones consideradas de alto riesgo en el uso de inteligencia artificial.

Amnistía Internacional hace un llamado a la UE para que tome medidas y promulgue una ley histórica de inteligencia artificial que prohíba las tecnologías peligrosas basadas en la IA. El objetivo es proteger los derechos humanos y evitar el uso indebido y discriminatorio de estas tecnologías en diversos ámbitos, como la distribución de prestaciones sociales, la vigilancia y el control migratorio.

Con información de: Amnistía Internacional.

+ publicaciones

Artículo redactado con asistencia de diversas inteligencias artificiales generativas con supervisión humana (redacción AD).

Entradas relacionadas

Más
Please enter CoinGecko Free Api Key to get this plugin works.
error: Contenido protegido