El Pentágono adopta nuevos principios éticos para usar la IA en la guerra

El Pentágono está adoptando nuevos principios éticos mientras se prepara para acelerar su uso de tecnología de inteligencia artificial en el campo de batalla.

Los nuevos principios exigen que las personas “ejerzan niveles apropiados de juicio y cuidado” al desplegar y usar sistemas de IA, como aquellos que escanean imágenes aéreas para buscar objetivos.

También dicen que las decisiones tomadas por los sistemas automatizados deben ser “rastreables” y “gobernables”, lo que significa que “debe haber una manera de desconectarlas o desactivarlas” si están demostrando un comportamiento involuntario, dijo el teniente general de la Fuerza Aérea Jack Shanahan, director del Centro Conjunto de Inteligencia Artificial del Pentágono.

La determinación del Pentágono para acelerar sus capacidades de inteligencia artificial ha impulsado una lucha entre las compañías tecnológicas por un contrato de computación en la nube de $ 10 mil millones de dólares conocido como la “Infraestructura de Defensa Empresarial Conjunta”, o JEDI. Microsoft ganó el contrato en octubre, pero no ha podido comenzar el proyecto de 10 años porque Amazon demandó al Pentágono, argumentando que la antipatía del presidente Donald Trump hacia Amazon y su CEO Jeff Bezos perjudicó las posibilidades de la compañía de ganar la oferta.

Una directiva militar existente de 2012, requiere que los humanos controlen las armas automáticas, pero no aborda usos más amplios de la IA. Los nuevos principios de los EE. UU. están destinados a guiar tanto las aplicaciones de combate como las que no son de combate, desde las operaciones de recopilación de inteligencia y vigilancia hasta la predicción de problemas de mantenimiento en aviones o barcos.

El enfoque esbozado el lunes sigue las recomendaciones hechas el año pasado por la Junta de Innovación en Defensa, un grupo dirigido por el ex CEO de Google Eric Schmidt.

Si bien el Pentágono reconoció que la IA “plantea nuevas ambigüedades y riesgos éticos”, los nuevos principios no alcanzan restricciones más fuertes favorecidas por los defensores del control de armas.

“Me preocupa que los principios sean un poco un proyecto de lavado de ética”, dijo Lucy Suchman, una antropóloga que estudia el papel de la IA en la guerra. “La palabra *apropiado* está abierta a muchas interpretaciones”.

Shanahan dijo que los principios son intencionalmente amplios para evitar esposar al ejército de los EE. UU. con restricciones específicas que podrían quedar desactualizadas.

“La tecnología se adapta. La tecnología evoluciona ”, dijo.

El Pentágono llegó a un obstáculo en sus esfuerzos de inteligencia artificial en 2018 después de que las protestas internas en Google llevaron a la compañía de tecnología a abandonar el Proyecto Maven de los militares, que utiliza algoritmos para interpretar imágenes aéreas de zonas de conflicto. Desde entonces, otras compañías han llenado el vacío. Shanahan dijo que los nuevos principios están ayudando a recuperar el apoyo de la industria tecnológica, donde “había sed de tener esta discusión”.

Shanahan dijo que la guía también ayuda a asegurar la ventaja tecnológica estadounidense, mientras China y Rusia persiguen la IA militar con poca atención a las preocupaciones éticas.

La profesora de derecho de la Universidad de Richmond, Rebecca Crootof, dijo que adoptar principios es un buen primer paso, pero los militares deberán demostrar que pueden evaluar críticamente los enormes datos que utilizan los sistemas de inteligencia artificial, así como sus riesgos de ciberseguridad.

Crootof dijo que también espera que la acción de Estados Unidos ayude a establecer normas internacionales sobre el uso militar de la IA.

“Si se ve que Estados Unidos está tomando en serio las normas éticas de IA, por defecto se convierten en un tema más serio”, dijo.

Con información de: The New York Times.

Publicado por: 

Redacción Abogado Digital.

Entradas relacionadas

error: Contenido protegido