Si a un coche autónomo, es decir, que puede analizar su entorno y conducirse sin apenas injerencia humana, se le cruzan una persona mayor y un niño y el coche solo puede esquivar a uno de ellos, ¿qué decisión tomaría la máquina? Este es uno de los ejemplos que presenta las Naciones Unidas en la campaña de Unesco para resaltar la importancia de la ética en el desarrollo de la inteligencia artificial.
El 24 de noviembre de 2021, los 193 países participantes en la Unesco adoptaron una recomendación sobre la ética en la inteligencia artificial (IA). Según la Unesco, este documento es el primero de su clase que ha sido acordado a nivel mundial. En él, se tratan temas como el uso de la IA en la vigilancia masiva, o en decisiones de “vida o muerte” como el ejemplo mencionado por la organización.
En Newtral.es hemos analizado el texto con la ayuda de expertos para explicar cuál es su importancia y si sus recomendaciones son realistas en la práctica.
Hacia una inteligencia artificial ética
La inteligencia artificial ha tenido muchos avances en los últimos años. Desde su uso doméstico en aspiradoras inteligentes que escanean las estancias para aprender las rutas más eficaces, a su uso en medicina para facilitar diagnósticos. Plataformas que usamos a diario, como Google, Facebook, Netflix o Amazon, también usan IA. Por ejemplo, en Newtral.es usamos inteligencia artificial como una de nuestras herramientas de verificación.
[Inteligencia artificial: cuál es su alimento y por qué tiene sesgos]
Juan Ignacio Sanz Fuentes, investigador en el proyecto del CEU y el observatorio del impacto social y ético de la inteligencia artificial (OdiseIA), explica a Newtral.es que hay mucha tecnología que se vale de inteligencia artificial para ser más eficiente. Desde algoritmos que le indican a la batería de un dispositivo el momento óptimo para cargarse al completo, a termostatos inteligentes.
“Hay termostatos que desde el primer día de instalación, recogen datos de uso, y luego autorregulan la temperatura según tus preferencias. Algunos usan inteligencia colectiva, y ponen en común tus hábitos con los de tus vecinos. Así pueden saber si hay muchas casas en tu zona que están subiendo la calefacción, lo que podría indicar que hace mucho frío”. Esto, explica el investigador, puede llevar a un uso más eficaz de la energía, uno de los objetivos éticos que se citan varias veces en la recomendación de la Unesco, que subraya la necesidad de que esta tecnología sea sostenible con el medio ambiente.
Las limitaciones de la recomendación
Según Jessica Kunert, profesora de Innovación e Investigación de Género de la Universidad de Mainz, en Alemania, es el primer documento global sobre la ética en la inteligencia artificial. A pesar de esto, y de estar acordado por los países que forman parte de la Unesco, esta recomendación tiene una limitación clave, dice Sanz: “No es vinculante”.
Esto significa que no hay un elemento legal para penalizar a los países que no lo cumplan. Por ejemplo, en la recomendación se especifica que en los escenarios donde la toma de decisiones tiene especial importancia, sobre todo en cuestiones de vida o muerte, debe ser un ser humano el que tome la decisión final.
En un contexto bélico, por ejemplo, explica Kunert, “puedes usar un algoritmo que analice los datos y te indique que un edificio es una base militar. Pero debe ser una persona la que en última instancia diferencia un hospital de una base militar antes de bombardear”.
Si esto no se cumple, “se trataría de una violación ética en el uso de la inteligecia artificial”, dice la profesora. Al no tratarse de una norma vinculante, el peso de garantizar que los Estados cumplan estas recomendaciones recae en la diplomacia y las relaciones multilaterales.
Sin embargo, cuando se trata de vigilancia masiva, la experta no es muy optimista. En el pasado se han dado a conocer numerosos casos de vigilancia masiva llevados a cabo por los países, como indica Amnistía Internacional. Kunert explica que esta recomendación no va a impedir que se use, algo que ya sucede. “En Londres puedes seguir a alguien por cámaras de seguridad por toda la ciudad”, dice. “Siempre se buscará una excusa para usarlo: seguridad nacional o que la persona parezca sospechosa”.
Por otro lado, la sostenibilidad de la IA es uno de los enigmas del documento, según Kunert. “Se dice varias veces que el desarrollo ético de la inteligencia artificial debe ser bueno para la humanidad. Pero ¿qué significa eso? Solo hay silencio en ese aspecto. Lo mismo con el medio ambiente. ‘Hay que cuidar del medio ambiente’. Vale, pero, ¿cómo? ¿Qué vamos a hacer con el desarrollo de pequeños países no tan evolucionados en IA?”.
El siguiente paso en el plan de Unesco para la ética en la Inteligencia artificial está en manos de los países
Aunque la recomendación no se ha traducido en pasos concretos, Jessica Kunert, profesora de Innovación e Investigación de Género de la Universidad de Mainz, explica que hay bastantes recomendaciones de políticas de acción que son bastante específicas.
En temas de privacidad, “dicen que tienes que mostrar un acuerdo de privacidad y dicen que se deben tener en cuenta a las partes interesadas, y hacer consultas. Esto lo mencionan varias veces en todo el documento, así que, aunque tampoco sea demasiado preciso, muestra que se le da importancia. Es un buen comienzo”, dice Kunert.
Según el investigador del CEU los dos países más avanzados en IA son Estados Unidos y China. Sin embargo, es el vecino del primero, Canadá, el que está más adelantado en estudios sobre los efectos de la inteligencia artificial. “Canadá ha establecido desde hace muchos años observatorios e institutos para medir e investigar los efectos de la inteligencia artificial”, dice el investigador.
Cuando se trata de legislación, Sanz explica que la Unión Europea también ha concretado más sobre los límites de los usos éticos de la inteligencia artificial en varios documentos. Uno de ellos es el que recoge las directrices de la Comisión Europea de 2019 sobre la “ética para una IA fiable”, en la que participaron cerca de 500 expertos.
Por otro lado, dice la profesora, se hace hincapié en que no hay que dejar de lado a los países del sur global, tanto en tema de desarrollo de estas herramientas como en cuestiones de transparencia. “El documento también especifica que los países ricos deben aportar fondos para el desarrollo de otros países”.
“No se trata solo de países”, explica Kunert. “También de no dejar atrás a las mujeres o a grupos marginados. A nivel local va a ser mucho más difícil de materializar porque tienen que ser los países los que desarrollen las políticas a nivel local. Será más complicado porque no tendrán la estructura de Unesco”.
El siguiente paso que depende de los países, explica Kunert, es analizar sus capacidades y necesidades actuales en materia de inteligencia artificial. Una vez concluya, Unesco analizará los casos y aportará sus recomendaciones y ayudará en la coordinación de proyectos.
Fuentes:
- Jessica Kunert, profesora de Innovación e Investigación de Género de la Universidad de Mainz
- Comisión europea. Directrices éticas para una IA fiables
- Juan Ignacio Sanz Fuentes, profesor e investigador en el proyecto de investigación del CEU y el observatorio del impacto social y ético de la inteligencia artificial, OdiseIA
- Amnistía Internacional. Vigilancia Masiva
- Página oficial de Unesco Recommendation on the ethics of artificial intelligence
- Recommendation on the ethics of artificial intelligence
- Artificial Intelligence: examples of ethical dilemmas
0 Comentarios