Ética para enfrentar el futuro tecnológico y la inteligencia artificial.

“El caos y el orden forman parte de una misma moneda, en el umbral del cambio y el movimiento, cada una de estas caras convergen para lograr el equilibrio”, metáfora dualista a través de la cual pretendo ilustrar que las cosas suceden a pesar de las valoraciones y concepciones que puedan surgir en torno a ellas.

Dentro de esta dualidad en el ámbito tecnológico, quienes a través de doctrinas deterministas desarrollan discursos tecnofóbicos parecieran que ven cumplidas sus profecías cuando las principales herramientas del entorno digital enfrentan problemas en su inserción, como en la inteligencia artificial, cuando los algoritmos de Facebook que empezaron a comunicarse de manera autónoma a través de un nuevo lenguaje o en las declaraciones de la robot Sophia que aseveró hace dos años que “mataría” a la humanidad (¡confío que haya sido parte del proceso de aprendizaje y que Sophia lo haya expresado en sentido figurado!).

Así, los resultados devastadores de películas de ciencia ficción tales como Gattaca, Terminator, Minority Report o Matrix, parecen inevitables desde una perspectiva de la técnica basada en el imperativo tecnológico, es decir, que técnicamente lo que pueda hacerse será hecho, independientemente de que sea bueno o malo.

No obstante, este tipo de problemáticas dista mucho de la ciencia ficción, al grado que hace un par de meses el Secretario General de la Organización de las Naciones Unidas volvió a urgir a los líderes mundiales en establecer principios para regular el uso de armas letales autónomas, así como para trabajar en un futuro digital que sea seguro y benéfico para todos, ya que las armas letales autónomas no se reducen al ámbito físico, sino al digital, desde una perspectiva amplia, cualquier herramienta mal utilizada puede convertirse en un arma en contra de su portador.

Es por ello, que dentro de la dualidad a la que hice referencia al principio, también encontramos que en el 99% de los casos la tecnología es usada para fines benéficos, ya que sobra señalar las ventajas de la economía colaborativa, la telemedicina y avances médicos mediante implantes impresos en tercera dimensión, cultivos de órganos, o inclusive tan sencillo como trasladarnos por las mejores rutas a través de aplicaciones gps, sin duda, la tecnología también nos hace la vida más sencilla.

Es por ello, que la gran serie de riesgos y vulnerabilidades que implican el imperativo tecnológico, solamente pueden ser controlados y administrados a través de un supuesto de la misma dimensión, tal como un imperativo ético que inserte desde el origen del diseño de las tecnologías, para que éstas se enfoquen a cumplir sus fines y a procurar el respeto a la vida de las personas.

Enfoque ético en el que varias materias han convergido en la actualidad y que han redimensionado esquemas como el compliance, en el cual se identifican una diversa serie de obligaciones que pueden afectar el correcto funcionamiento del ente, lo cual impide emplear soluciones aisladas.

Este enfoque ético frente al tecnológico pareciera resolver en principio el problema, sin embargo, qué pasa si agregamos elementos valorativos y autónomos como en el caso de la inteligencia artificial ¿es posible programar a los algoritmos para hacer el bien? ¿Es posible evitar que las máquinas alcancen dentro de su inteligencia la exigencia de su libre albedrío?

Por ello, llama la atención la resolución de este año de la Conferencia Internacional de Comisionados de Privacidad y Protección de Datos con su Declaración sobre Ética y Protección de Datos en la Inteligencia Artificial (enlace: https://icdppc.org/wp-content/uploads/2018/10/20180922_ICDPPC-40th_AI-Declaration_ADOPTED.pdf) , la cual surge a partir de la discusión iniciada dos años antes, sobre la importancia de la protección de datos personales ante este fenómeno en conjunto con la robótica y la automatización facilitada por el internet de las cosas, en particular, la prospectiva de un uso extendido de vehículos autónomos.

Este documento propone 6 principios orientadores para la industria y responsables de tratamiento relacionados con inteligencia artificial, sobre los cuales la misma Conferencia dará seguimiento a través de un grupo de trabajo, los cuales se refieren de manera general a continuación:

  1. Las tecnologías sobre aprendizaje de máquinas e inteligencia artificial, debe ser diseñada, desarrollada y utilizada respetando derechos fundamentales y humanos, así como el principio de justicia.
  2. Debe asegurarse una atención continua y vigilancia, dentro de sus mecanismos de responsabilidad proactiva, a fin de identificar efectos potenciales y consecuencias en los sistemas de inteligencia artificial.
  3. Deben implementarse efectivamente y mejorarse la transparencia e inteligibilidad de los sistemas relacionados.
  4. Implementar un enfoque de ética desde el diseño en inteligencia artificial.
  5. Debe promoverse el empoderamiento de los individuos e incentivar el ejercicio de los derechos de las personas, así como crear oportunidades para generar un mayor compromiso público.
  6. Deben reducirse o mitigarse sesgos ilegales o la discriminación derivada del uso de datos a través de inteligencia artificial.

Tema que debe empezar a generar interés en la población, a fin de empezar a proponer soluciones más completas frente al uso de inteligencia artificial, que a su vez deberá encontrar el elemento que le permita llegar al equilibrio a través de un uso debido.

Ética o comportamiento adecuado que surge desde nuestra condición humana, la cual cada año valoramos de manera especial en este día, quienes aprovechamos la ocasión para reunirnos y renovar nuestro corazón en el amor de la creación.

¡Feliz nochebuena y feliz navidad!

Publicado por: 

Abogado especializado en TICs, privacidad y cumplimiento legal. Maestro en Derecho de las Tecnologías de Información y Comunicación por INFOTEC.

Entradas relacionadas

error: Contenido protegido