Qué es el ‘sharenting’ y qué riesgos implica en la era de la inteligencia artificial 

Sharenting
Padre fotografiando a su hija | Foto: Shutterstock
Tiempo de lectura: 5 min

El sharenting es un anglicismo que combina las palabras share (compartir) y parenting (paternidad). Esta expresión hace referencia a la sobreexposición que sufren los hijos, generalmente menores de edad, en las redes sociales de sus progenitores. Esta práctica se ha vuelto tan habitual que el sharenting, término conocido como sobreexposición de los hijos en español, ha sido incluido en algunos diccionarios.  

Publicidad

El fenómeno se extiende en plataformas como Facebook, Instagram y Tiktok, donde muchos padres publican fotos y vídeos que muestran la vida cotidiana de los pequeños. Estos consideran que, mientras las fotos no sean “inapropiadas”, no existe riesgo alguno. De esta manera, el 81% de los niños tiene presencia en Internet antes de cumplir los 6 meses, según una encuesta elaborada por la firma de seguridad informática AVG en 10 países, entre ellos, España.

Sin embargo, a medida que crece este fenómeno, las nuevas tecnologías como la inteligencia artificial también avanzan, amplificando los riesgos del sharenting. 

Material de abuso infantil generado con inteligencia artificial

El sharenting adquiere una dimensión diferente con el desarrollo de herramientas basadas en inteligencia artificial, como advierten desde la AEPD. Y es que algunas aplicaciones de IA generativa permiten  crear material de abuso sexual infantil utilizando como base el contenido real disponible en los perfiles de redes sociales.

  • Uno de los casos más recientes tuvo lugar en junio de 2025, cuando tres menores fueron investigados por utilizar imágenes extraídas de redes sociales de profesoras y alumnas para crear y distribuir pornografía infantil generada por IA. A través de aplicaciones específicas, editaban fotografías reales y las transformaban en contenido explícito de carácter delictivo.
  • Pocos meses antes, en enero de 2025, una operación internacional coordinada por Europol y con participación de la Policía Nacional española culminó en el desmantelamiento de una red criminal que distribuía este tipo de material. Durante la operación se incautaron ocho dispositivos electrónicos en España, con más de 16.800 archivos de abuso infantil generadas por IA.
Publicidad

Dificultades en la persecución de los delitos

La trazabilidad de estas imágenes de menores es uno de los principales desafíos. Daniel Jove Villares, profesor ayudante doctor de Derecho Constitucional en la Universidad de Oviedo, explica a Newtral que la IA incrementa la dificultad. “Si, por ejemplo, se capta la imagen de un menor, se procesa con inteligencia artificial y se crea un vídeo pornográfico que se comparte en la dark web, es probable que ni el menor ni sus progenitores lleguen nunca a saberlo, porque ni ellos ni sus entorno acceden a esos foros”, explica.  En estos casos, lo más habitual es que sean los cuerpos y fuerzas de seguridad quienes descubren y tratan de frenar estas prácticas. 

A esta dificultad se suma que muchos delincuentes emplean métodos cada vez más sofisticados para operar desde el anonimato y evitar que sus perfiles digitales puedan vincularse a su identidad. Este esfuerzo constante por borrar cualquier huella complica las investigaciones y retrasa la identificación de los responsables.

En este contexto, los expertos coinciden en que una medida clave sería obligar a etiquetar de forma visible los contenidos generados con inteligencia artificial, no solo para distinguirlos de los reales, sino también para facilitar su rastreo.

Muchas de estas cuestiones, como indica Daniel Jove, ya se contemplan en el Reglamento de Inteligencia Artificial. Sin embargo, como explica este experto “las capacidades de fiscalización de estos sistemas en los últimos años han sido muy bajas, por no decir nulas. La Unión Europea está haciendo un buen trabajo en ese ámbito, aunque falta mucho por implementar”. 

Según explica, la regulación actual tiene un enfoque preventivo, centrado sobre todo en el diseño del producto, pero sigue siendo necesario reforzar la vigilancia de su uso una vez que las herramientas están en el mercado. 

Publicidad

Por otro lado, los modelos de inteligencia artificial capaces de generar imágenes hiperrealistas, incluso en los casos en que las víctimas no sufren un daño directo, ya sea porque desconocen su existencia o porque no resultan reconocibles en las imágenes, siguen alimentando redes delictivas y contribuyen a normalizar conductas gravemente lesivas para la sociedad. “Esto condiciona la percepción sexual hacia la infancia y empuja los límites aún más lejos, ya que con esta tecnología el único límite es la imaginación de los delincuentes”, advierte el profesor. En esta misma línea, según informa Euronews, la Unión Europea ya ha equiparado el contenido generado por inteligencia artificial al material real de abuso infantil en la ley aprobada el  17 de junio de 2025 , que refuerza el control sobre su creación y difusión.

Fuentes

1 Comentarios

Ya no se pueden publicar comentarios en este artículo.