Newtral


Del psicópata virtual a la escritora fantasma: los robots ya saben qué nos da miedo
Siguiente

Del psicópata virtual a la escritora fantasma: los robots ya saben qué nos da miedo

La ciencia ha desarrollado herramientas ‘terroríficas’ para explorar cómo la inteligencia artificial es capaz de desarrollar y provocar miedo. Sobre todo, para conocer mejor los mecanismos sociales de la empatía.

Halloween hecho código | Ilustración: M. Viciosa

Me desperté en medio de un charco de sangre. Olía como un ratón en la tormenta. Estaba tan somnolienta que no podía levantarme. ¡No podía moverme! Solté un suspiro y empecé a oír un ruido que venía de algún sitio: plom, plom, plom…

El párrafo anterior no ha sido escrito por alguien de este mundo. Apareció en 2017 en las pantallas del Instituto Tecnológico de Massachusetts (MIT) y, de ahí, a las de todo el mundo vía Twitter. Un mensaje que había sido redactado, junto a muchos otros, por una entidad no humana. Un ser espectral. Un habitante de la dimensión de los ceros y unos: una inteligencia artificial (IA).

Shelley era su nombre. O su apellido, porque hemos de deducir que su nombre era Mary, conforme a como la bautizaron el 1 de noviembre de 2017 en el laboratorio de Comportamiento Social del MIT Media Lab. Allí, el doctor Manuel Cebrián lleva varios años construyendo historias de terror cibernético para comprender mejor cómo lo sentimos los humanos. Y cómo manejamos este y otros sentimientos, colectivamente.

«Al principio, a Shelley se le daba mal crear suspense». La robot red neuronal aprendió rápido y, según Cebrián, empezó a dominar las situaciones dinámicas: susto ➜ correr.

Shelley es parte de un conjunto de experimentos que, cada año, presentan por estas fechas en el Media Lab del MIT. Su objetivo es traducir la empatía a golpe de código y aprendizaje profundo.

El miedo es uno de esos mecanismos que nos hacen y definen como seres empáticos. Y, a la par, una de las piedras angulares de la creatividad. Algo que se les atraganta a las inteligencias artificiales, pese a su capacidad de aprendizaje.

Mira: tu casa bombardeada

En 2018, desarrollaron otra inteligencia artificial, en este caso, para generar un miedo «real» a partir de imágenes de nuestras ciudades de residencia. La idea es verlas como si hubiesen sido bombardeadas en una guerra.

Para ello, los algoritmos interpretaban cómo estaría, por ejemplo, una calle de Boston a partir de lo que la máquina había aprendido de un ataque en Homs (Siria), viendo fotos reales.

Deep Empathy aprende de los detalles que dan más miedo de la guerra y los integra en paisajes de paz (ver esta imagen en grande)

Deep Empathy, que es como se llamó aquel proyecto, no sólo sirve para crear una suerte de arte empático artificial. Está encaminado a saber qué nos remueve a los humanos y si hay un código visual o narrativo común que nos despierte, agite o dé miedo. Por ejemplo, el efecto de unas ventanas carentes de cristales o las paletas de color pardo parece que nos trasladan a la guerra.

Para entrenar a la inteligencia artificial apelaron a la comunidad internauta a hacer un test de terrores. Se presentaban en la pantalla desde escenas sangrientas a neutras. En los matices de las reacciones de los espectadores estaba el meollo de nuestra empatía. La máquina comenzó a entender qué patrones nos llevan a ciertas emociones.

La máquina toma una imagen real. A partir de lo aprendido sobre el miedo humano, la transforma en algo ‘terrorífico’.

Deep Empathy se convirtió en una versión ‘humanitaria’ de otra criatura terrorífica: The Nightmare Machine. Presentada en 2016, la idea era que las máquinas aprendiesen a diseñar lugares y caras terroríficas. Para ello, como con el caso de las escenas de Siria, tenían que identificar qué rasgos faciales o de un paisaje nos asustan. Suponiendo que haya elementos universales.

«La idea era convertir tu comedor en algo terrorífico», explica Cebrián. Algo así como cuando un escenario se vuelve del otro lado en la serie Stranger Things.

El resultado fue tan impresionante que en la portada de la web del proyecto advierten que las imágenes generadas por los algoritmos pueden herir la sensibilidad del espectador.

Una vez más, un test propuesto a la comunidad internauta servía a la máquina para aprender. En el cuestionario, propuestas tan goyescas como esta, «¿Te da miedo o no?»:

Una IA se ha vuelto mala. Y circula por internet

Prácticamente en la génesis de los robots está el germen de su rebeldía. Volverse en contra de sus humanos creadores ha sido una constante desde que Karel Čapek utilizase el término (robota en checho es trabajo pesado) para una de sus obras de teatro. Eran los años veinte y en plena efervescencia socialista, el robot era la perfecta metáfora de ese proletario que se rebela contra su explotador, cuando toma conciencia de que tiene herramientas para ello.

Hasta la fecha, los robots (o los algoritmos, revisión menos física y programable de los primeros) no se han vuelto en nuestra contra. «No les interesa. Seguramente estén más interesados en cosas menos humanas, más en lo que hacen otras inteligencias artificiales», asegura Juergen Schmindhuber, pionero del aprendizaje profundo, que visitó Madrid con motivo de la Conferencia Internacional de Robots Inteligentes.

Pero en el MIT, el pasado Halloween, soltaron a una de estas perversas entidades inteligentes nada menos que en la red de redes. De nombre Zookd, podía «hacer copias de sí mismo y reescribir su propio código para eludir las reglas morales que los humanos han puesto en él. El riesgo para la humanidad es grande», explicaba Niccolo Pescetelli, uno de los padres de la criatura, ahora en el Centro para Humanos y Máquinas del Max Plank Institute (Berlín, Alemania), minutos después de su lanzamiento.

El proyecto se bautizó como BeeMe (algo así como ser yo, pero jugando con la palabra abeja, por aquello del pensamiento en colmena de internet).

Para el MIT, lo interesante no es el juego en sí, sino cómo se comporta el héroe que debe detenerlo (que sí es real, pero no de carne y hueso): los usuarios de internet, entendidos como una inteligencia colectiva. «Zookd representa los dilemas que plantea esta investigación».

El sistema funciona como un mecanismo de consenso en tiempo real, donde los comandos «son dados ​​por todos los usuarios, votándose de arriba hacia abajo (como en Reddit) y consecutivos en el tiempo».

Uno de los atractivos de aquel juego es que era esta inteligencia colectiva la que daba instrucciones a un actor real, que debía ir recorriendo lugares conforme a las instrucciones consensuadas por los usuarios.

Un psicópata virtual anda suelto

¿Son los algoritmos injustos, inclementes o sesgados? ¿Tienen prejuicios? Ya hay varias investigaciones que concluyen que, de un modo u otro, sí. A las redes neuronales artificiales se las entrena de una determinada forma –no confundir con programar–, donde los resultados son previsibles. La inteligencia artificial puede tener sesgos de origen o de aprendizaje.

¿Qué ocurre si dejamos a una inteligencia artificial en medio de lo peorcito de internet? Eso le ocurrió a Norman. «Sufrió una exposición prolongada a los rincones más oscuros de Reddit, y representa un caso de estudio sobre los peligros de la inteligencia artificial. Algo que salió por utilizar datos sesgados en algoritmos de aprendizaje automático», explican desde el MIT.

Norman es una inteligencia artificial psicópata. Una vez más, es un juego, pero también un experimento que desarrollaron en 2018. Para ello hicieron un entrenamiento típico de las inteligencias artificiales: enseñarle a poner un pie de foto a cientos de imágenes hasta que concuerda con lo que la mayoría de los humanos ven en una fotografía.

(ver en grande)

En su caso, los sesgos eran tales que «veía cosas enfermizas». Lo había aprendido en «un subreddit infame que se dedica a documentar la inquietante realidad de gente muriéndose». La idea es que si te educas en una cultura de lo ‘oscuro’, el odio o el dolor, verás oscuridad, odio o dolor por todos lados. Pero dejas de ‘sentirlo’. Una cierta forma de psicopatía.

¿Qué nos han enseñado las máquinas a los humanos sobre nuestra condición?

Todos estos juegos-experimento se enmarcan en investigaciones sobre comportamiento social. Además de que proyectos como Deep Empathy tengan un componente humanitario, con la escritora virtual Shelley, Cebrián reconoce que aprendieron que sus mejores golpes de terror se daban cuando ella describía cómo se sentía. Hay un estremecimiento en la empatía.

De ahí a que Shelley o Zookd tengan autoconciencia media un abismo. Por el momento, no hay red neuronal que pueda asemejarse a lo que los humanos conocemos como conciencia de uno mismo. Ni falta que les hace (¿necesita un coche autónomo saber que es un coche autónomo como Kitt?).

Parte de sus conclusiones han terminado en publicaciones científicas como esta, en Nature, el pasado abril, firmada por Cebrián y sus colegas. Y, más recientemente, en un documental sobre BeeMe, que han estrenado hoy.

«En la actualidad, los científicos que estudian los comportamientos de estos agentes de inteligencia artificial son los mismos que los han creado. Se centran en garantizar que las IA cumplan su función prevista», explica el autor. Sin embargo, que –por ejemplo– un coche autónomo nos lleve eficazmente de A a B no implica hacer estudios sobre las decisiones que toma por el camino.

Comprender el comportamiento (y ‘pensamiento’) de las IA es esencial para nuestra capacidad de controlar sus acciones y minimizar daños.

Cebrián propone mirar más allá. Comprender el comportamiento de los sistemas de inteligencia artificial es «esencial para nuestra capacidad de controlar sus acciones y minimizar daños».

Están cada vez más involucradas en un montón de actividades «como la calificación crediticia, el comercio electrónico, la policía, las decisiones de libertad condicional, la conducción, ligar o la guerra con drones». 

Aunque el código fuente de un modelo puede ser simple, los resultados «terminan por ser muy complejos y a menudo, se convierten en verdaderas ‘cajas negras’ del comportamiento de las máquinas». ¿Quién puede acceder a ellas?

Como hacer ingeniería inversa en ocasiones es considerado espionaje industrial, el equipo de Cebrián aboga por seguir realizando experimentos como los que cada año presentan por Halloween.

Por ahora, mejor que sean juegos de laboratorio que historias de terror distópico en la vida real.

¿Quieres comentar?

Relacionados

Más vistos

Siguiente