Newtral


Un robot para prevenir el suicidio: así ayuda la inteligencia artificial en redes sociales
Siguiente

Un robot para prevenir el suicidio: así ayuda la inteligencia artificial en redes sociales


La conducta suicida es un problema de salud pública. En el Día Mundial para la Prevención del Suicidio te contamos cómo un grupo de investigadores ha desarrollado un robot que, gracias a un sistema de inteligencia artificial, detecta mensajes en redes sociales de personas en riesgo de acabar con su vida. La herramienta mantiene a estas personas en el anonimato pero el robot puede hacerles llegar una respuesta a su mensaje con ayuda profesional


Para la poeta feminista Adrienne Rich el lenguaje siempre fue el capital colectivo más poderoso. Argumentaba que con él se podían crear nuevas verdades que impugnasen verdades anteriores —contadas desde lo ajeno y no desde lo propio—. Defendía, por tanto, que la falta de lenguaje o la inexistencia de relatos no es algo que deba ser calificado de «silencio», sino de «ausencia»: el silencio tiene su propio lenguaje y una presencia histórica, venía a decir Rich. Lo que no se habla sí existe y está presente, pero está mudo, callado.

Si asumimos como la poeta estadounidense que la palabra toma múltiples formas, tiene sentido que prestemos atención al lenguaje usado en las redes sociales y que pensemos en él como un contenedor de cuestiones complejas. Escribir un tuit es sencillo, pero quizá el mensaje del tuit no lo es tanto.

Por ello, un grupo de investigadores de la Universidad de Alicante (UA) ha diseñado un sistema para analizar los mensajes volcados en internet que permite identificar aquellos que contienen ideas relacionadas con la conducta suicida, un problema de salud pública que según la psicóloga Adriana Goñi, experta en prevención, «está infranotificado».

Goñi, en conversación con Newtral, señala que es erróneo no hablar de este asunto: «La gente tiene que comprender que no es tan extraño que haya personas con una crisis suicida, y que el hecho en sí de verbalizarlo ya puede resultar liberador para la persona que está sufriendo». De nuevo, el lenguaje como herramienta para poner en el centro un problema como este, de carácter global.

Según explica a Newtral Sílvia Fort, diectora de la Sociedad Española de Suicidología, en nuestro país concretamente «las cifras de fallecimientos por suicidio se han mantenido más o menos estables en los últimos 17 años»: «Esto no significa que haya que quitarle relevancia al asunto, ya que, según el Instituto Nacional de Estadística (INE), en 2017 [los últimos datos disponibles] hubo 3.679 suicidios, 10 al día. En el mundo hay, aproximadamente, un millón al año. Sin dejar de mencionar que por cada persona que se suicida, hay otras 20 que lo intentan».

Por eso, el equipo de investigación de la Universidad de Alicante, liderado por el ingeniero José Manuel Gómez, decidió analizar de qué manera la inteligencia artificial podría servir para prevenir la conducta suicida. Este sistema se conoce como «análisis de sentimientos en el ecosistema digital».

«Toca asumir que, a menudo, las redes sociales son usadas para expresar sentimientos de todo tipo. Si sabemos que en internet hay quienes dejan pistas sobre ideación suicida o, en algunas ocasiones, incluso lo dicen directamente, hay que verlo como una oportunidad para ayudar a estas personas», cuenta a Newtral Saray Zafra, una de las criminólogas del grupo de investigación de la UA.

Ilustración de Carlos Palanca (Newtral)

Un robot que predice la conducta suicida

El proyecto, que comenzó en 2016 gracias a una beca del BBVA y conocido como «Plataforma Life!», ha conseguido crear un robot que rastrea internet en busca de mensajes de los que se pueda deducir que la persona ha pensado o está pensando en acabar con su vida.

Para ello, dos criminólogas, entre ellas Saray Zafra, se dedicaron a rastrear manualmente lugares como Reddit, Forocoches o Twitter fijándose en aquellos textos en los que la persona mostrase ideación suicida. También entrevistaron a personas que habían intentado suicidarse para ver de qué modo expresaban estos sentimientos negativos.

Después de varios meses de trabajo intensivo, las criminólogas detectaron patrones comunes en el lenguaje: «Creíamos que encontraríamos un lenguaje muy complejo y ambiguo. No fue así para nada. Había palabras tan comunes como tristeza, soledad, vacío, angustia, hastío o melancolía… No todo el mundo es capaz de hablar de esto porque hay mucho tabú y miedo. Es un motivo de vergüenza porque se percibe como una debilidad o como algo limitante. Pero lo cierto es que quien te habla de este asunto lo hace de manera muy clara», explica Zafra.

Zafra y su compañera también se dieron cuenta de que hay una brecha generacional en los textos: «La gente joven, por ejemplo, usa emoticonos. Y los lingüistas que nos asesoran también nos hicieron detectar que los jóvenes, por ejemplo, terminan sus textos con varias exclamaciones o empiezan una pregunta sin signo de interrogación. Esto puede ser útil porque, en función de la edad, puedes abordar a esa persona de una u otra manera», apunta la criminóloga.

«La prevención es llegar a tiempo»

Galicia Méndez, de 33 años, tuvo una tentativa de suicidio el año pasado. Lo contó en sus cuentas de Instagram y Twitter: «Sentía que hacerlo me ayudaba a expresar una situación muy fea que de por sí es difícil de explicar. Yo he tenido la suerte de conocer en redes sociales a gente como @gacela1980 [sic], gente que cuando expresas estas emociones tan negativas te hace sentir acompañada», explica a Newtral.

Galicia no considera las redes sociales una alternativa a la ayuda profesional, sino más bien un canal donde «de alguna forma puedes compartir tu estado ánimo cuando te sientes sola»: «No es una llamada de atención, sino una petición de ayuda. Igual la manera de pedir ayuda no te parece común, o no te parece la más adecuada, o no te parece legítima, pero es una petición de ayuda. Y si estás en el entorno de esa persona, o lees un mensaje así en redes, es importante que la tomes en serio y sepas responder con apoyo, acompañamiento y aconsejándola que vaya a Urgencias, al médico o a terapia», añade.

Es en casos como los que expone Galicia en los que el robot implementado por los investigadores de la Universidad de Alicante podría ser realmente útil. «No significa que sepamos a ciencia cierta que esa persona tiene una ideación suicida, pero sí que está sufriendo, y la prevención es eso, llegar a tiempo», matiza Saray Zafra.

Como explica el ingeniero experto en inteligencia artificial José Manuel Gómez, líder del «Proyecto Life!», «el mensaje, anonimizado por supuesto, llegaría a unos determinados servicios especializados en prevención, como el Teléfono de la Esperanza o la Asocición La Barandilla». «Cuando pincharan en uno de estos mensajes, los profesionales tendrían un campo para responder. Esta respuesta no llegaría directamente a la persona, sino que volvería a nuestro robot, al que le habríamos enseñado cómo publicar el texto de ayuda. Si fuera en Twitter, sería un reply; o si fuese un blog, sería un comentario en ese blog. La clave es animar a esa persona a que dé su permiso para que le contacten, o que esa persona se ponga en contacto con los profesionales para pedirles ayuda, o que sepa dónde acudir», añade.

Cuatro niveles de alerta

El paso definitivo para que esto funcionase fue «enseñar a la máquina», cuenta Gómez: «El trabajo de las criminólogas fue imprescindible porque detectaron algunas claves: por ejemplo, que alguien cuente los detalles de cómo llevaría a cabo una conducta suicida o que diga que va a regalar sus pertenencias. Pero también que manifieste que nadie le comprende o que está falto de energía. Todas estas claves se pasaron a un sistema de inteligencia artificial que ha aprendido por qué ciertas expresiones o características son importantes. Así, cuando ve un texto nuevo, el robot, rastreando la red, decide si un texto puede contener riesgo de ideación suicida e incluso lo clasifica en uno de los cuatro niveles de alerta».

Tanto Zafra como Gómez lamentan quedarse sin financiación cuando ya tenían el sistema listo «con unos resultados preliminares son tan prometedores», indice el ingeniero. «Es una pena que no nos renovasen la beca porque las pruebas que hemos hecho nos indicaron que el robot tenía más de un 70% de efectividad», reconoce la criminóloga.

Lo ideal, según ambos investigadores, sería que «se llegase a un acuerdo entre empresas, Ministerio de Sanidad y fundaciones que trabajan en la prevención del suicidio para implementar esto». «Incluso hemos habilitado un sistema en la página web del proyecto para que cualquier persona que detecte un mensaje de este tipo en internet nos lo pueda hacer llegar. Tenemos que sentirnos todos parte de la solución», concluye Saray Zafra.


Mitos y falsas creencias sobre la conducta suicida | Recomendaciones de la OMS para los medios de comunicación a la hora de informar sobre el suicidio

Relacionados

Más vistos

Siguiente