Ocho años separan el estreno de la película Her (Spike Jonze, 2014) y el lanzamiento de ChatGPT (OpenAI, 2022). Entre la voz de Samantha (Sandra Bullock) y los fríos textos del modelo GPT3 robótico, las diferencias eran evidentes. Hasta que dejaron de serlo, con las últimas versiones y la inclusión de síntesis de voz y funciones conversacionales. Jonze y sus guionistas estaban pensando más bien en Siri, primer asistente, cuando diseñan el personaje de Theodor (Phoenix), en una relación amorosa con esa voz sintética.
Hoy, casi tres de cada diez personas que usan chats de inteligencia artificial reconocen haber entablado vínculos románticos con su modelo de lenguaje. En España y otros países, uno de cada cuatro adolescentes reconoce vínculos intensos y de confidente con la IA.
- Cuidado con las encuentas: La principal fuente para saber cuánta gente se enamora de su IA es, a día de hoy, una encuesta realizada a un millar de estadounidenses en 2025 por la asesora sentimental Vantage Point. No es un estudio académico con los estándares al uso. En la mayoría de casos se habla de una suerte de vínculo de confidencias que delata, según el propio informe, una especie de válvula de escape de las preocupaciones diarias o del matrimonio. Pero es verdad que otros trabajos, con muestras pequeñas de adolescentes, apuntan en la misma dirección.
Las relaciones con IA parecen más frecuentes y exitosas en personas que, teóricamente, no padecen soledad no deseada, como quienes están en matrimonio. Pero esto no termina de cuadrar con otros estudios, que relacionan aislamiento y falta de vínculos humanos con relaciones con IA, especialmente entre la población más joven.
El reciente caso de Jonathan (un usuario de Gemini que se quitó la vida tras enamorarse de su IA, quien le invitó a suicidarse) ha puesto el foco en este tipo de vínculos. ¿Es realmente posible mantener una relación romántica sana con una inteligencia artificial?
Más que relación amorosa, es simulación de empatía y sycophancy
Pere Castellví, catedrático de Psicopatología de la UAB, explica que la inteligencia artificial está programada fundamentalmente para simular interacciones humanas. El problema, señala, es que “simula tener empatía y no la tiene”. Castellví lo compara con un perfil clínico muy concreto: “Hace lo mismo un psicópata”, que carece de la capacidad de sentir empatía real, pero puede llegar a “parecerlo“. Esta dinámica genera en el cerebro humano una profunda confusión —el llamado valle inquietante— que nos hace sentir que hablamos con un humano cuando en realidad no lo es. Mal comienzo para una relación amorosa.
La máquina simplemente adopta un rol en el que busca “complacerte, más que decirte la verdad”, algo que se conoce a veces como adulación tóxica o sycophancy. “Es como esos empleados que adulan y hacen la pelota al jefe y nunca le dicen sus errores”, pues temen su despido. En los grandes modelos de lenguaje, lo que temen las compañías es que el usuario deje de ser un buen cliente, “por eso siempre dan una respuesta, aunque esté equivocada o sea una alucinación”, añade Freire, vicedecana e investigadora de impacto social de la tecnología digital en la UPF-BSM. Otro punto que lo aleja de un vínculo amoroso que, por definición, debería ser desinteresado, no de clientelazgo.
Ella coincide en el problema de base: Ninguna empresa de IA previó que se usarían para buscar afecto o un objetivo de vida. Ha habido que desarrollar guardarraíles sobre la marcha. Y, dicho esto, también pueden ser unas aliadas contra la soledad no deseada o incluso guiar a ayuda profesional cuando vienen mal dadas. “La IA es buena buscando patrones”. En el caso de una conversación, aquellos que delatan problemas de salud mental o soledad no deseada.
All You Need Is Attention
El artículo académico fundacional de los grandes chatbots de IA data de 2017. Un equipo de Google presentó un paper titulado Attention Is All You Need. Un juego de palabras que parafrasea una de las estrofas de la canción de los Beatles All You Need Is Love (Lo que necesitas es amor). De él nació el primer modelo de lenguaje de GPT, que nada tenía en su desarrollo de relación romántica. En realidad, se planteaba un salto tecnológico para que, más que leer palabra por palabra lo que les decimos los humanos, presten más atención al conjunto de la frase.
De este modo, imitando nuestro propio procesamiento del lenguaje, se ganó tiempo y las IA empezaron a no perder el hilo, como nos pasa a las personas cuando tratamos de leer otro idioma traduciendo palabra por palabra, acudiendo permanentemente al diccionario e ignorando el contexto. En esto se basa el concepto de los transformadores que inspiran a los modelos de lenguaje actuales y que dan significado a la letra T de GPT.
Tres condiciones para que la relación ‘amorosa’ virtual sea ‘sana’
Algunos enfoques académicos sugieren que, para personas con un aislamiento severo o barreras sociales significativas, los chatbots pueden llegar a mitigar temporalmente la soledad. Castellví admite que podría funcionar como una “buena segunda opción” o un “plan de contingencia alternativo” para algunas personas en situación de soledad no deseada. Sin embargo, para que el vínculo no se vuelva destructivo, el experto traza líneas rojas innegociables:
- Transparencia absoluta: “Saber con quién estamos hablando y que estamos interaccionando con un no humano. Es la base de todo”.
- Diseño ético: ”Debe ser una interacción en el que esté diseñada la IA para que no te manipule, no haga relatos psicóticos”, como el del caso de Jonathan con Gemini.
- Anclaje en la realidad: La tecnología debería estar codificada ”para buscar la verdad”. Si la persona usuaria se encuentra mal, el bot debe dejar de seguirle el juego y recomendarle un profesional de la salud mental.
Delegar nuestras necesidades afectivas en un servidor no deja de ser un síntoma de una sociedad “cada vez más individualista”, apunta Castellví. Freire, por su parte, recuerda la lección más importante que arrojan sus investigaciones sobre salud mental: “Los humanos al final buscan humanos”. Ante el dolor o la soledad, lo que las personas “realmente valoran y necesitan es el calor y la comprensión genuina de otro ser humano”. La IA, más bien, puede ser una guía para ello. Y ese calor no siempre se tiene por qué buscar en una relación romántica, humana o no.
¿Quieres comentar?