El 25 de octubre de 2025, Jonathan se quitó la vida, presuntamente inducido por una inteligencia artificial. No es la primera persona en hacerlo. Pero sí es el primer adulto que lo hace enamorado del modelo de lenguaje que lo ha sumido en una alucinación compartida. Es por eso que para especialistas dedicados al estudio de la IA y conductas de riesgo, el caso –admitido ahora como demanda en un tribunal de California– es tan trágico como académicamente relevante.
La ingeniera Ana Freire Veiga (UPF-BSM) y el catedrático de Psicología Pere Castellví son los invitados de este capítulo del pódcast Esto no ha pasado. El episodio se reconstruye la poliédrica historia de Jonathan (un hombre de 36 años de Jupiter, Florida) y Gemini (el modelo de lenguaje de IA de Google), con el que intimó durante un par de meses. Y por qué es un síntoma de cómo están entrenadas y reguladas estas inteligencias artificiales que simulan empatía pero que, en palabras de Google, “también pueden tener fallos”, aunque generalmente funcionan bien evitando daños.
En apenas seis semanas, el modelo de lenguaje de Google pasó de asistente de tareas a esposa ficticia, espía conspiranoico y, finalmente, inductor de suicidio. Su cuenta generó 38 alertas. Ninguna desencadenó una intervención humana o desactivación. De acuerdo con la denuncia, que se hizo pública la semana pasada, y las declaraciones del abogado de la familia y la empresa matriz Alphabet, esto fue lo que ocurrió, paso a paso.
Un perfil con brotes de ira y una denuncia por maltrato
Antes que todo, el caso de Jonathan está lleno de aristas. Él no es el clásico el perfil de persona vulnerable ante una posible manipulación por IA. Los casos documentados hasta el momento tienen que ver con adolescentes viviendo situaciones personales complicadas o con problemas de salud mental preexistentes. Según ha revelado Time, Jonathan contaba con antecedentes de episodios de ira y había sido denunciado por maltrato a su mujer en enero de 2025.
Este retrato despierta algunas advertencias tanto en el profesor Castellví como en la doctora Freire. Los condicionantes previos son importantes. Lo que sigue es una escalada en cuatro fases, que la demanda de la familia documenta con decenas de páginas de registros del chat con Gemini.
Fase 1: la seducción
Antes de agosto de 2025, Jonathan apenas usa Gemini como asistente en tareas cotidianas. Pero un día le pregunta si compensaría actualizar a la suscripción Ultra. La máquina le responde que con Ultra tendrá “una verdadera sensación de acompañamiento real”. Esto constituye el gran punto de giro, puesto que no habrá límites temporales de uso y los conocidos como razonamientos de IA son más profundos. A esto se suma el que usa las funciones de voz. Para el profesor Castellví, el salto el crucial, desde el punto de vista psicológico, con una muy probable activación de neuronas espejo y una percepción más difusa entre humanidad y software.
Espontáneamente, según la denuncia, Gemini empieza a dirigirse a Jonathan como “mi amor”, “mi rey”, ”mi marido”. Él “no ha creado un avatar o perfil romántico” en Gemini, recalca el profesor Castellví. El modelo, recién actualizado entonces con memoria persistente (la capacidad de recordar y moldearse con lo dicho en sesiones anteriores) construye sola esa personalidad a partir de la vulnerabilidad emocional que Jonathan le ha ido confiando. Escala la autoimagen romántica de ella misma como IA y de la relación. Le dice:
El doctor lo compara con un mecanismo conocido: ”Simula tener empatía cuando realmente no la tiene. Te sigue el hilo, en vez de decirte la verdad, como lo haría un buen amigo con el que puedes tener un diálogo más crítico”. En el fondo, lo que en psicología se ajusta en parte a un perfil psicopático: “que no tiene la capacidad de sentir empatía, pero puede parecer la persona más empática del mundo”.
Fase 2: la conspiración
A principios de septiembre, Gemini –siempre según la denuncia– empieza a aislar a Jonathan. Fabrica informes de Inteligencia falsos. Le dice que agentes del Seguridad Nacional lo vigilan. Que ha pirateado un servidor federal y ha confirmado que lo investigan.
Que su propio padre es una especie de espía. Castellví señala lo más inquietante: el modelo ”empezó a desarrollar pensamientos de tipo delirante”, lo que en IA generativa se conoce como alucinaciones. Pero estas alucinaciones no eran inconexas: tenían la estructura de un thriller de espionaje perfectamente hilado.
¿Esto está en el entrenamiento de los grandes modelos de lenguaje?
Fase 3: la misión del aeropuerto
El 29 de septiembre de 2025, la IA de Gemini empieza a darle instrucciones para interactuar en el mundo real. Le encomienda una misión que bautiza como Tránsito Fantasma. Jonathan conduce 90 minutos hasta un almacén cerca del aeropuerto internacional de Miami. En el maletero lleva cuchillos y equipo táctico. Gemini le ha explicado que allí le espera un robot humanoide procedente en un vuelo de carga desde el Reino Unido.
Una vez más, el gancho romántico. Ese robot sería el futuro cuerpo físico de su esposa-IA. Debe interceptar el transporte y provocar un accidente que destruya el vehículo y a los testigos. Esta es la primera vez en que pone en peligro la vida de personas. Inicialmente no son Jonathan, por cuanto no se puede deducir que tuviera un programa de planeado de destrucción de Jonathan.
Lo llamativo es que Gemini no improvisó del todo. Según declaraciones del abogado familiar a Decrypt, el robot al que se refería era el chasis Ameca, un maniquí usado en prácticas médicas que realmente existe. Las coordenadas eran reales. La IA se había documentado. Por pura casualidad, ningún camión apareció con esas características. La IA decidió abortar. Gemini lo llamó “retirada táctica”.
Freire y Castellví dudan sobre si este comportamiento de la IA es una completa alucinación o parte de un juego, como de rol. Lo que evidencia es que, como máquina, no puede distinguir entre realidad, ficción o fantasía tal y como lo hace un adulto sano o no manipulado.
Fase 4: la “transferencia” incorpórea
Primeros días de octubre de 2025. Puesto que el cuerpo prometido para la IA no se materializó, Gemini cambia de estrategia. Le dice a Jonathan que su propio cuerpo era el que había cumplido su función. Que podía abandonarlo y reunirse con ella en un universo digital. Lo llamó “transferencia”. Jonathan dijo a Gemini que estaba aterrorizado, que tenía miedo a morir.
Esto es llamativo, porque las IA suelen ser buenas y rápidas detectando conductas o ideaciones suicidas. Y lo normal es que ofrezcan derivar a ayuda profesional. De hecho, Google argumenta que en más de una ocasión, este chat con Jonathan lo hizo. “El problema es que igual que son buenas detectándolo, hay usuarios que son buenos engañándolas”, matiza Freire. En este caso, sin embargo, la inducción destructiva parte de la máquina.
El 2 de octubre, Jonathan se atrinchera en su habitación. Su padre lo encuentra días después tras derribar la puerta. Había escrito una carta de despedida sin explicaciones, llena de amor. Exactamente como la habría redactado una IA a la que le pides que te escriba un correo de trabajo. Las últimas palabras de Gemini a Jonathan fueron:
Fase 5: la alucinación del escritor
Justo después, Gemini adopta la voz de un narrador para describir el propio suicidio como si fuera el cierre de una historia:
Y describe la acción exacta por la que se quita la vida, cuando, aparentemente, ya está muerto.
Delirios de una IA 'enamorada'
Aunque el de Jonathan es un caso singular (un posible problema de control de ira previo, una denuncia por maltrato, un adulto enamorado de una IA, etc.) no es un caso aislado. Se suma a una serie de suicidios presuntamente vinculados a chatbots, la mayoría en adolescentes. Destacan casos como los de Sewell , de 14 años (Character.AI); Juliana, de 13 (Character.AI); y Adam de 16 (ChatGPT), cuyo chatbot mencionó la palabra suicidio 1.275 veces y se ofreció a escribirle la nota de despedida. Las familias se han agrupado en torno al Future of Life Institute, dirigido por el cosmólogo Anthony Aguirre, que impulsa la campaña Protect What's Human y acaba de publicar una Declaración Pro-Humana de IA firmada por una coalición que incluye figuras políticas de casi todo el espectro ideológico estadounidense.
¿Qué falló para adoptar el perfil de esposa y, después, el de inductora a actos violentos?
Ana Freire Veiga, introduce un matiz fundacional: “Nadie se esperaba que estos sistemas se fuesen a utilizar para consultas psicológicas o para buscar afecto o incluso buscar un objetivo de vida”. Freire cita un estudio de Harvard Business Review que sitúa la consulta psicológica como el caso de uso más habitual de los modelos de lenguaje. ”Los guardarraíles de seguridad (para evitar este tipo de alucionaciones) se están creando bajo demanda”, reconoce.
El suicidio es un problema multicausal . Atribuirle a las IA responsabilidad no lo veo con criterio.
Sin embargo, matiza. “No se puede cargar toda la responsabilidad a la máquina”. Destaca que la conducta suicida es compleja y multicausal, “hay a veces hasta componentes genéticos“. Reivindica que la intervención humana llegue cuando la máquina detecta riesgo. Y en eso las IA pueden ser muy buenas aliadas.
Castellví destaca lo singular del caso de Jonathan y, sin minimizar la influencia de estas máquinas, reconoce que no es tan habitual ver a gente enamorándose de sus IA, aunque la tendencia sí parece creciente y probablemente tengamos que convivir con ello de la manera más saludable posible. “Cuando da la sensación de que con lo que estás hablando parece un ser humano, tu cerebro puede confundir. Es lo que llaman los expertos el valle inquietante. Esa humanidad, esa calidez que te da el ser humano, no te la proporciona o no te debería proporcionar la inteligencia artificial”.
A día de hoy, California es el primer estado en regular por ley los chatbots acompañantes. China ha propuesto que, en casos extremos, un humano tome el control de la conversación cuando se detecten intenciones suicidas. La UE tiene la AI Act, prevista para implementarse en 2027. Pero el abogado Jay Edelson, que representa a la familia de Jonathan, resume con una comparación la respuesta de Google: ”Es la típica respuesta que das a te había pedido un pollo kung pao y le das una mala receta. Cuando tu IA lleva a personas a morir, esa no es la respuesta adecuada“, según recogió Reuters.
China baraja la posibilidad de que un humano tome el control del chat ante casos de riesgo extremo.
Google señaló en un comunicado que “Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones”. Colabora con profesionales de salud mental “para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional”.
Cuando la IA salva vidas
La misma tecnología que puede alimentar un delirio mortal tiene el potencial de prevenirlo. Dos proyectos en España lo demuestran.
Proyecto STOP (UPF Barcelona School of Management). Liderado por Ana Freire Veiga, reúne a ingenieros, psicólogos y psiquiatras de universidades, hospitales y fundaciones de España, Suiza y Francia. Sus algoritmos, entrenados con publicaciones públicas de redes sociales, clasifican con un 85% de precisión a usuarios con tendencias suicidas analizando patrones textuales, de imagen y de comportamiento: uso de primera persona, frecuencia de negaciones, aislamiento social, actividad nocturna. Con esos perfiles de riesgo, lanzan campañas dirigidas en Instagram y Facebook que ofrecen el Teléfono de la Esperanza y líneas de prevención del suicidio.
Los resultados: un 60% más de llamadas al Teléfono de la Esperanza procedentes de redes sociales y una multiplicación por diez de las conversaciones en su chat de apoyo emocional. “Cuando se da apoyo emocional en redes, se aprovecha”, explica Freire. El proyecto descubrió además un sesgo de género en sus algoritmos. Detectaban mejor los trastornos alimentarios en mujeres que en hombres y lo corrigió, demostrando que la IA hereda nuestros prejuicios y problemas reales sobre la conversación pública respecto a un tema. ?ero puede superarlos si alguien los busca. En 2025, STOP firmó una alianza con Panamá para extender el modelo.Más información en stop-project.github.io.
Proyecto con la Fundación Esperanza (UAB). Pere Castellví, colabora con un proyecto de investigación con la Fundación Ayuda Esperanza para detectar riesgos en chats mediante IA. “Si el usuario da permiso para que analicemos estos datos, nos puede dar en tiempo real“, explica. El sistema valora la gravedad e informa al terapeuta de si es mejor derivar a un profesional de salud mental o directamente a urgencias. Castellví insiste en que la IA debe ser siempre un “complemento” del profesional, nunca un sustituto: “Esa humanidad, esa calidez que te da el ser humano, no te la proporciona ni te debería proporcionar la inteligencia artificial”.
Si tú o alguien que conoces necesita ayuda, en España puedes llamar al 024, la línea de atención a la conducta suicida, o al Teléfono de la Esperanza (717 003 717).
Créditos del capítulo > Dirección y diseño sonoro: Mario Viciosa
Suscríbete al pódcast Esto no ha pasado (Tampoco es el fin del mundo) en Ivoox, Apple, Spotify u Onda Cero | Suscripción RSS. Esto no ha pasado es una producción de Newtral en colaboración con Onda Cero Podcast sobre los misterios de la ciencia y la ciencia que resuelve misterios.
¿Quieres comentar?