La IA no puede protegernos de las falsificaciones profundas, argumenta un nuevo informe.

Un nuevo informe de Data and Society plantea dudas sobre soluciones automatizadas para videos alterados engañosamente, incluidos videos alterados por el aprendizaje automático llamados deepfakes. Los autores Britt Paris y Joan Donovan argumentan que las falsificaciones profundas, aunque nuevas, son parte de una larga historia de manipulación de los medios, una que requiere una solución tanto social como técnica. Confiar en la inteligencia artificial podría empeorar las cosas al concentrar más datos y poder en manos de corporaciones privadas.

“El pánico en torno a los deepfakes justifica soluciones técnicas rápidas que no abordan la desigualdad estructural”, dice Paris. “Es un proyecto masivo, pero necesitamos encontrar soluciones sociales y políticas para que las personas sin poder no queden fuera de la ecuación”.

Tal como lo ven Paris y Donovan, es poco probable que las falsificaciones profundas se solucionen solo con la tecnología. “La relación entre los medios y la verdad nunca ha sido estable”, se lee en el informe. En la década de 1850, cuando los jueces comenzaron a permitir pruebas fotográficas en los tribunales, la gente desconfiaba de la nueva tecnología y prefería el testimonio de testigos y los registros escritos. En la década de 1990, las compañías de medios eran cómplices de tergiversar eventos al editar selectivamente imágenes de transmisiones nocturnas. En la Guerra del Golfo, los reporteros construyeron un conflicto entre oponentes igualados al no mostrar el número de muertos marcadamente desigual entre las fuerzas estadounidenses e iraquíes. “Estas imágenes eran imágenes reales”, dice el informe. “Lo que fue manipulado fue la manera en cómo se contextualizaron, interpretaron y transmitieron durante todo el día en la televisión por cable”.

Hoy en día, las falsificaciones profundas han llevado la manipulación aún más lejos al permitir que las personas manipulen videos e imágenes utilizando el aprendizaje automático, con resultados que son casi imposibles de detectar con el ojo humano. Ahora, según el informe, “cualquier persona con un perfil público de redes sociales es candidato para ser falsificado”. Una vez que existen las falsificaciones, pueden volverse virales en las redes sociales en cuestión de segundos.

Para combatir este problema, Facebook anunció recientemente que lanzaría un conjunto de datos para permitir a las personas probar nuevos modelos destinados a detectar falsificaciones profundas. Las startups como TruePic, que utilizan tecnología de inteligencia artificial y blockchain para detectar fotos manipuladas, también han comenzado a ganar impulso. Más recientemente, la Agencia de Proyectos de Investigación Avanzada de Defensa de los Estados Unidos (DARPA) invirtió en Medifor, que analiza las diferencias en los píxeles de video para determinar cuándo se ha manipulado algo. Pero casi todas estas soluciones tienen como objetivo luchar contra la manipulación en el punto de captura (es decir, cuando se toma una foto o un video) o en el nivel de detección (para que sea más fácil diferenciar entre contenido adulterado y no manipulado).

Los expertos legales ven este enfoque como positivo, señalando que los problemas con las falsificaciones profundas no se pueden resolver solo a través de los tribunales. David Greene, director de libertades civiles de la Electronic Frontier Foundation, dice que los videos falsos también pueden tener usos importantes en comentarios políticos, parodia y anonimato de personas que necesitan protección de identidad.

“Si va a haber una ley de falsificaciones profundas, debe tener en cuenta la libertad de expresión”, agregó, y señaló que si las personas usan falsificaciones profundas para hacer algo ilegal, como chantajear o extorsionar a alguien, por ejemplo, pueden ser procesados ​​según la legislación vigente.

Pero a Paris le preocupa que los filtros de contenido impulsados ​​por IA y otras soluciones técnicas puedan causar un daño real. “Mejoran las cosas para algunos, pero podrían empeorar las cosas para otros”, dice ella. “El diseño de nuevos modelos técnicos crea oportunidades para que las empresas capturen todo tipo de imágenes y creen un depósito de la vida en línea”.

Bobby Chesney, coautor del artículo “Fakes profundos: un desafío inminente para la privacidad, la democracia y la seguridad nacional”, no ve la recopilación de datos como un problema. “Veo el punto de que si no se regulan, las entidades privadas tendrán acceso a más información”, dijo. “Pero la idea de que eso es inherentemente malo me parece poco convincente”.

Chesney y Paris coinciden en que se necesita algún tipo de solución técnica y que debe funcionar junto con el sistema legal para procesar a los malos actores y detener la propagación de videos falsos. “Necesitamos hablar sobre mitigación y limitar el daño, no sobre cómo resolver este problema”, agregó Chesney. “Los deepfakes no van a desaparecer”.

Con información de: The Verge y Data & Society.

+ publicaciones

Redacción Abogado Digital.

Entradas relacionadas

Más
error: Contenido protegido