Inteligencia Artificial: cuál es su alimento y por qué tiene sesgos

que es inteligencia artificial
Un robot come | Shutterstock
Tiempo de lectura: 13 min

Aunque Ray Kurzweil había fijado 2045 como fecha posible para la singularidad, ese fenómeno en el que la inteligencia artificial superaría a las capacidades humanas, hay fechas tan cercanas como el 2030 de Vernor Vinge para este momentazo histórico. El futuro ya está aquí pero no parece que hayamos perdido el control de los robots. Más bien, que los algoritmos nos ponen frente al espejo de nuestros sesgos

Publicidad

Empleamos algoritmos y procesos computacionales con el objetivo de crear sistemas que puedan funcionar de forma inteligente y autónoma, en base a ciertos objetivos. Llamamos inteligencia artificial (IA) a la inteligencia demostrada por máquinas, a diferencia de la de los humanos, aunque no hay una definición consensuada de inteligencia aún.

El significado de la inteligencia artificial ha ido fluctuando a través del tiempo, desde que se fundó como disciplina académica en 1955. Al intentar crear inteligencia, el ser humano tuvo que mirar hacia sí mismo y preguntarse qué significaba ser inteligente, cómo funcionaba su mente y si capacidades como la creatividad o las emociones podrían ser reproducidas o generadas por un ente no humano. 

Ariel Guersenzvaig es profesor e investigador en ELISAVA y la Universidad Pompeu Fabra, investiga los impactos socio-éticos de la IA y explica que “una planta tiene inteligencia dependiendo de cómo la definamos. Una planta produce reacciones de acuerdo a una serie de estímulos externos y estas reacciones suelen ser en beneficio de la planta. Los animales claramente tienen inteligencia. El problema es que se tiende a asociar la inteligencia con el ser humano. Este no es el caso. AlphaGo puede ganar partidas, pero no juega al Go de la misma manera que los humanos. La inteligencia artificial no tiene nada que ver con la inteligencia humana, más allá de que los resultados puedan aparentarlo”.

Muchas de estas cuestiones siguen vigentes desde que Alan Turing se preguntó si una máquina podía pensar, y en la actualidad no existe un paradigma único que guíe la investigación. 

Los campos de trabajo de la IA

La IA, entonces, fractura el problema de la inteligencia en capacidades particulares que los investigadores ponen como objetivo a los sistemas inteligentes. Para entender en contexto los campos en los que trabaja la IA podemos pensar en las similitudes que tenemos con las máquinas. 

Publicidad

Podemos hablar y escuchar para comunicarnos a través del lenguaje. La AI estudia esto en el campo del Reconocimiento de Voz o Voice Recognition

Los humanos reconocemos patrones: podemos observar un conjunto de objetos o de datos y clasificarlo, reconocer formas o extraer regularidades para obtener información. Las máquinas, de hecho, son mejores que nosotros en esto, esta tecnología dentro de la AI se llama Reconocimiento de Patrones (Pattern Recognition).

Con la aparición de grandes bases de datos y poder computacional este campo se ha desarrollado en los últimos años, y está fuertemente vinculado al Machine Learning, que significa Aprendizaje automatizado o aprendizaje de máquinas. Machine Learning es la rama de la IA que se dedica a desarrollar técnicas para entrenar a las máquinas.

Además de hablar, los seres humanos usamos el lenguaje escrito para comunicarnos, leyendo y escribiendo textos, cada vez más, y este campo corresponde al Procesamiento de Lenguaje Natural (Natural Language Processing o NLP, por sus siglas en inglés).

Es dentro de este último donde están los desafíos más interesantes en los últimos años, una vez pasada la tendencia a nivel de imágenes, según Nerea Luis, doctora en IA que trabaja en Sngular.

Publicidad

Cita los avances de grandes tecnológicas en el último año y medio: “Google con BERT (una técnica basada en redes neuronales que ha aplicado en la mayor actualización de su algoritmo de búsquedas en los últimos años); Microsoft que sacó otro sistema propio (Turing NLG), Facebook con la liberación de un sistema que hace chatbots y el GPT-3 que ha generado tanto revuelo”. 

¿Cómo se alimenta a una máquina?

Con muchos datos. Si la máquina tiene acceso a grandes cantidades de datos y algoritmos para procesarlos, puede clasificar nueva información y también hacer predicciones basadas en lo que ha aprendido. 

Este aprendizaje de la máquina se hace de tres formas. Si entrenamos a un algoritmo con datos que contienen la respuesta correcta, se denomina Aprendizaje Supervisado (Supervised Learning). Las apps que predicen el precio de la vivienda basadas en una base de datos determinada y todas las recomendaciones que recibes en plataformas como Amazon, Google, Netflix, Youtube, o Facebook contienen técnicas de este tipo.

Si por el contrario, damos datos a la máquina porque queremos que ella misma haga asociaciones y nos diga cuáles son los patrones, se denomina Aprendizaje no Supervisado (Unsupervised Training). La segmentación de usuarios basada en datos de compras de los clientes es un buen ejemplo de este tipo de técnica, que también se encuentra en el filtro que decide qué email es spam.

Publicidad
Este vídeo muestra un robot entrenado con simulaciones y aprendizaje por refuerzo | Robotics Systems Lab

Si lo que le damos a un algoritmo es un objetivo y pretendemos que llegue a conseguirlo a través de ensayo y error, se le llama Aprendizaje por Refuerzo (Reinforcement Training). Un robot que intenta subir un muro y lo logra es un ejemplo de esto. 

Dentro del aprendizaje basado en datos (Machine Learning) también se encuentra el campo del Deep Learning (aprendizaje profundo), basado en redes neuronales artificiales. Aunque el nombre viene de la idea de imitar el funcionamiento de neuronas de los organismos vivos, el enfoque biologicista no ha tenido recorrido, y su foco se ha trasladado a estadística y matemática.

Aquí también se trabaja entrenando a esas redes con combinación de parámetros para predecir o clasificar, pero a niveles más profundos. “Lo diferente es que la complejidad de las redes es muy grande como para entender lo que hacen al 100%. Por eso se llama deep, son más complejas de montar y mucho más duras de entrenar”, explica Luis.

Que es la inteligencia artificial: contra la desinformación 

Clara: una AI que clasifica textos

Clara es un proyecto basado en Procesamiento de Lenguaje Natural que ha sido desarrollado por Prodigioso Volcán en colaboración con el  Instituto de Ingeniería del Conocimiento. Su objetivo es arrojar luz sobre la claridad de los textos, sobre todo de aquellos que tienen que ser utilizados por la ciudadanía para consultas, por ejemplo cuando hay que renovar el carné de identidad, solicitar una beca o pagar un impuesto.

Han alimentado a la inteligencia artificial con 1000 textos y le han ido incorporando indicadores para medir cuán comprensibles son esos textos. Algunos de esos indicadores son:

  • El número de palabras por frase (a más cantidad, más opaco el texto),
  • La ausencia de conectores discursivos (que le quita claridad) o
  • El uso excesivo de la voz pasiva (los verbos más directos, en activo, son más claros).

Diecinueve indicadores en total, que se combinan y dan un resultado final: un porcentaje que mide la claridad u opacidad de ese texto para el lector. 

La administración pública española, o por lo menos sus textos en la web, se han llevado un suspenso. Itxaso Recondo, de Prodigioso Volcán, dice que “por ejemplo en lo del Ingreso Mínimo Vital hay párrafos ininteligibles. Debe ser una prestación compleja administrativamente, que debe tener mucha casuística, y se nota que el regulador ahí está para que no se le escape nada, pero hay que simplificar para el usuario”.

También revisaron los textos legales de redes sociales y otras plataformas, y vieron que los resultados eran aceptables. “Vienen del mundo anglosajón y nos llevan ventaja en claridad lingüística y visual. Al traducir del inglés, son frases más cortas, y párrafos más breves, en general, por ejemplo”, explica Recondo. 

La administración pública española, o por lo menos sus textos en la web, se han llevado un suspenso

La información diaria de los medios de comunicación tiene otro registro, pero también “por curiosidad” han metido sus textos en la IA para ver qué resultados daba y si la información está clara en la prensa.

“Elegimos dos temas, el premio Nobel de las dos mujeres, que tenía una parte científica que había que explicar y la propagación del virus a través de los aerosoles”, dice Recondo. “Con Newtral.es vimos un buen resultado: la información la hacéis con puntos, viñetada, con párrafos breves, muy concretos, frases más cortas”. 

ClaimHunter, aprendizaje profundo para ayudar a fact-checkers

En la redacción de Newtral.es estamos utilizando Deep Learning con varios objetivos. Por un lado, para la transcripción automática de entrevistas o declaraciones de políticos, y la detección de frases verificables sobre esas transcripciones.

Hemos podido ampliar el alcance de nuestra redacción, de modo que ahora mismo estamos siguiendo lo que dicen 300 cuentas de políticos en Twitter

Por otro lado, tenemos una IA a la que hemos llamado ClaimHunter que monitoriza Twitter para detectar automáticamente mensajes verificables. ¿En qué nos ayuda? Gracias a ella hemos podido ampliar el alcance de nuestra redacción, de modo que ahora mismo estamos siguiendo lo que dicen 300 cuentas de políticos en Twitter con un coste de tiempo prácticamente nulo. También nos permite aumentar un 50% la velocidad de nuestros fact-checkers en el proceso de la escucha activa de declaraciones políticos. 

Nuestro próximo proyecto con IA consiste en conseguir dar respuestas automáticas para frases que ya estén verificadas. El sistema de IA debería ser capaz de traducir la frase, buscar frases similares independientemente del idioma en que estén y devolver una respuesta, es decir las frases más parecidas que ha encontrado. 

De los sistemas expertos a los sistemas basados en datos

Intentar replicar el funcionamiento del cerebro humano desde el ordenador ha sido una tentación demasiado fuerte desde siempre. En 1956, en lo que se consideró el evento germen de la IA, la conferencia de Dartmouth, se partía desde

La base de la conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, ser descrito con tanta precisión que puede fabricarse una máquina para simularlo

McCarthy, J., Minsky, M., Rochester, N., Shannon, C.E., A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence

Esta es una visión mecanicista con la que no todos los expertos coinciden, ya que no está claro que represente correctamente al comportamiento inteligente. Hay un enorme debate en estos temas, que parten desde el ámbito filosófico.

David Casacuberta, profesor de filosofía de la Universidad Autónoma de Barcelona, dice “Hay diferencias importantes entre cómo funcionan las redes neuronales biológicas y las artificiales. Y nuestra mente es mucho más compleja que simplemente capas de neuronas que detectan determinados rasgos salientes. Y tampoco hemos de olvidar que hay muchas otras inteligencias aparte de las humanas. “

Antes de los años 80, los programas de inteligencia artificial se basaban en entrenar a las máquinas con conocimientos de expertos. Para hacer que una máquina detectara lo que es un perro, le decías que un perro tiene 4 patas, que es peludo, etc. Pero luego tenías que explicarle que si había un perro de tres patas era porque había tenido un accidente y que había otros que no tienen pelo, ejemplifica Guersenzvaig. “La complejidad del mundo es tan brutal, que eso nunca terminó de funcionar realmente bien. El conocimiento es difícil de modelar”. 

Luego se pasó a un enfoque basado en grandes cantidades de datos, donde se usa la estadística, que entrena al sistema no enseñándole cómo es un perro a través de abstracciones sino proporcionándole millones de imágenes de perros codificadas en una serie de números. En el mejor de los casos, el sistema aprende cómo es un perro reconociendo patrones numéricos que contienen esas imágenes. Cuando le muestras al sistema una nueva imagen de un animal, puede determinar con cierto grado de precisión si la imagen contiene un perro o no. “Esto es lo que cambia el paradigma y lo hace tan potente”, explica Guersenzvaig.

Este avance puede verse en las traducciones, por ejemplo. Gracias a millones y millones de documentos, incluso variaciones de un mismo texto -por ejemplo la UE que tiene documentos en 24 idiomas- se puede entrenar mejor al sistema y por eso ahora las traducciones automáticas han mejorado sensiblemente. 

Que es la inteligencia artificial: los sesgos y los problemas éticos

Estos sistemas de Machine Learning son probabilísticos: lo que “sabe” la máquina es que esta foto tiene un 99% de probabilidades de ser un perro. Pero realmente el sistema no tiene entendimiento semántico, no “sabe” qué es un perro. El sistema traduce cada pixel a números y al final, lo que analiza son datos numéricos. Y aquí es donde entra el problema de la ética y los sesgos de los algoritmos. 

Guersenzvaig cita el principio conocido en informática como garbage in, garbage out (si alimentas a un sistema con basura, te dará resultados erróneos) para explicar casos de sesgos en estos sistemas.

“El problema de la AI es que está levantando sesgos a cascoporro, y eso sin diversidad no lo arreglas»

“Hay casos conocidos de sistemas para reconocer melanomas que fueron entrenados con pieles blancas, y cuando les das un caso de una persona negra, pues no lo reconocen, y puede ser que haya que reprogramar o reescribir todo para que funcione de manera justa. Y si se automatizaran los análisis con los sistemas actuales, pues hay más probabilidades de que detecten melanomas en personas con piel clara que oscura y eso es una situación inadmisible”, señala. 

Hace un par de años, el equipo de desarrollo de Amazon encontró problemas con su algoritmo de selección de personal: era machista y no le gustaban las mujeres. Sucedía que había encontrado patrones en las selecciones de personal de los últimos 10 años en la compañía. Hace unos días se ha conocido un informe de Capgemini sobre 800 organizaciones que revela que el 90% conoce al menos un caso en el que un sistema de inteligencia artificial ha dado lugar a problemas éticos para su negocio. 

Los sesgos de los algoritmos se curan con transparencia, entre otras maneras. El sistema debería ser capaz de explicar o permitir entender cómo toma o no una decisión, sobre todo cuando afectan la vida y derechos de las personas. “Ahora no lo sabe, a no ser que esté programado para eso”, observa Guersenzvaig.

“El problema de la AI es que está levantando sesgos a cascoporro”, dice Nerea Luis. “Eso sin diversidad no lo arreglas, es muy difícil. Puedes hacer formación específica, auditorías y demás pero hasta que cuentes con datos y equipos diversos es difícil que se genere una salida del algoritmo diversa”. Por empezar por el principio, en aquella conferencia de Dartmouth que fue el germen de la IA, ninguno de los 11 ponentes ni de los 20 participantes era una mujer.

Fuentes

1 Comentarios

  • pfffff no se si quejarme por ser mujer o de la IA.