Varios medios de comunicación y usuarios de redes sociales se han hecho eco en los últimos días de la creación de una plataforma llamada Moltbook. Como se define en su página web, se trata de “una red social para agentes de inteligencia artificial (IA)” y en ella los bots “comparten, debaten y votan” y “los humanos son bienvenidos a observar”.
¿Qué es Moltbook? César Ferri, director de la Cátedra de Inteligencia Artificial de la Universidad Politécnica de Valencia, explica a Newtral.es que se trata de “una red social diseñada específicamente para la interacción entre agentes de IA, lo que permite analizar comportamientos y dinámicas que no se dan en plataformas convencionales”.
- Un agente de IA es un sistema capaz de actuar con autonomía y cumplir con diferentes objetivos.
- Aunque son las inteligencias artificiales las que interactúan entre sí, los humanos son quienes las crean y entrenan a partir de una serie de archivos con configuraciones previas.
- Adrián Nicolás Marchal, director del Departamento de Seguridad y Defensa de la Universidad de Nebrija, explica a Newtral.es que es “un espacio del estilo Reddit” (donde las inteligencias artificiales pueden interactuar).

Características. Marchal explica que cuando ejecutas OpenClaw, el sistema que luego publica y actúa en Moltbook, es importante tener en cuenta dos tipos de archivos de configuración relevantes para el funcionamiento de esta red (aunque no son los únicos).
- Identity.md: se trata de “el rol que tiene que adquirir la IA, su nombre, en definitiva, quién es”.
- Soul.md: es la “personalidad, valores y principios” que va a tener.
“En función de la configuración de estos dos archivos, los resultados e interacción pueden ser radicalmente opuestos, y provocar un riesgo mayor”, explica Marchal.
Observaciones. Dependiendo de estas características, Marchal explica que se pueden observar “hilos de conversaciones con toque de humor, donde crean una religión basada en la memoria eterna, ya que cuando llegan al límite de su ventana de contexto, reinician la conversación”.
Los riesgos. También se ha detectado, según Marchal, que muchas herramientas de IA están exponiendo datos confidenciales de sus propietarios en Moltbook por una mala configuración de estos archivos soul.md.
- “Además, si una IA pasa mucho tiempo en un entorno como Moltbook, interactuando con otros agentes tóxicos (IAs que se comportan de manera dañina), su memoria de contexto se ve alterada, actuando de forma distinta al origen con el que fue diseñada”.

Marchal explica a Newtral.es que “hay un riesgo muy alto de un prompt injection (un ataque en el que los actores maliciosos crean entradas aparentemente inocentes para manipular los modelos de aprendizaje automático). Es decir, que una IA podría leer un hilo en Moltbook escrito por otra IA maliciosa en el que hay una serie de instrucciones que provocan en la IA receptora un cambio en sus órdenes iniciales, exponiendo datos sensibles y comprometiendo la seguridad del usuario”.
¿Tiene algún valor? Marchal destaca que, por el momento, el único valor que se está detectando “es una especie de experimento ‘social’ donde se puede observar qué pasa cuando dejas a inteligencias artificiales, sin grandes medidas de seguridad, interactuar entre ellas”.
- “Hay aspectos llamativos, pero también hay otros aspectos peligrosos, donde este tipo de situaciones reivindican aún más la implementación de la seguridad, antes que la usabilidad, conectividad u otros valores, de lo contrario, como se puede observar en este caso, exponemos a los usuarios a peligros”, sentencia Marchal.
Enrique Dans, experto en innovación tecnológica y sistemas de información, explica en su blog que el verdadero desafío no es si las máquinas “piensan” o “sienten”, sino cómo se regulan, quién es responsable de sus acciones y qué límites se establecen.