De la injerencia extranjera a la desinformación: algunos casos de usos maliciosos de la IA detectados por ChatGPT

casos desinformacion chatgpt
Persona generando una imagen con IA | Foto: SHUTTERSTOCK
Tiempo de lectura: 2 min

OpenAI, la empresa de ChatGPT, ha analizado en un informe 10 casos de usos de su inteligencia artificial con fines maliciosos y de desinformación. Los objetivos de estas campañas han sido muy diversos: desde la injerencia política mediante campañas de desinformación hasta ciberestafas masivas internacionales.

Publicidad
  • Los casos se han localizado en partes muy diversas del mundo, como China, Rusia, Camboya, Filipinas o incluso Corea del Norte.
  • El objetivo de usar la IA ha sido aumentar la eficiencia de las campañas al conseguir generar un mayor volumen de contenido en idiomas muy diversos.

Operaciones de influencia. Este tipo de operaciones han aprovechado divisiones y conflictos ya existentes en la sociedad para amplificar la polarización (página 34).

  • Destaca la operación “Sneer Review”, “probablemente de origen chino”, donde se generaba contenido para redes sociales como TikTok, X, Reddit o Facebook centrado en temas de interés relevantes para China. Por ejemplo, generaron una campaña contra un video juego que simulaba la resistencia de Taiwán contra el Partido Comunista Chino. 
  • No solo se creaban cuentas falsas para distribuir el contenido, sino también otras que respondían a estas con el objetivo de dar “una impresión falsa de interacciones orgánicas” (página 8 del informe).
  • Otro caso similar es la operación “Helgolan Bite”, donde “agentes aparentemente rusos” emplearon los modelos de ChatGPT para crear contenido relacionado con las elecciones alemanas de 2025 y criticar a Estados Unidos y la OTAN.

Creación de código malicioso. También se han detectado diversos casos en los cuales los modelos de inteligencia artificial han sido utilizados para generar código malicioso, así como para ayudar en su posterior distribución.

  • Uno de estos casos, cuyo origen se sitúa en Corea del Norte, donde empleaban esta tecnología para generar currículums de candidatos falsos, enviarlos a empresas informáticas y posteriormente infectar los equipos de estas.
Publicidad

Ciberestafas. Otros de los casos detectados por OpenAI tenían como fin amplificar modelos de ciberestafas clásicos. 

  • Es el caso de la operación camboyana “Wrong Number”, donde se empleaba la inteligencia artificial para traducir y aumentar la difusión de estafas donde se prometían sueldos muy elevados a cambio de trabajos muy sencillos, para posteriormente terminar solicitando dinero a las víctimas una vez que las habían engañado. 

Fuentes
  • OpenAI

0 Comentarios

Ya no se pueden publicar comentarios en este artículo.