El Pentágono contrata la creación de un servicio de detección de deepfakes

pentágono deepfakes
Foto: Shutterstock
Tiempo de lectura: 3 min

El Gobierno de Estados Unidos ha adjudicado un contrato a la empresa tecnológica Hive AI para detectar deepfakes, según han anunciado la Unidad de Innovación de Defensa (DIU), que hace parte del Departamento de Defensa, conocido como «el Pentágono» y la compañía. El contrato asciende a 2,4 millones de dólares (2,29 millones de euros), según medios especializados como MIT Technology Review

Publicidad
  • La Unidad de Innovación de Defensa se encarga de “adaptar la tecnología comercial a las fuerzas armadas”, según su página web

El contrato. Tiene una duración de dos años, y contempla el despliegue de cinco modelos de detección, sin conexión a internet para mejorar su seguridad, válidos para identificar imágenes, videos y audio creados o modificados con inteligencia artificial (IA). En concreto, la empresa suministrará al Pentágono cinco modelos distintos para identificar deepfakes

  • Detección de imágenes y vídeos generados por IA.
  • Detección de audios generados por IA.
  • Detección de deepfakes (imagen), que identifica si una imagen tiene rostros manipulados.
  • Detección de deepfakes (video), que identifica si un video contiene rostros manipulados. 
  • Verificación de autenticidad (imagen y video), que detecta si un rostro en una imagen o video es primario (existe en la imagen principal) o secundario (existe en una imagen dentro de la imagen principal).

La carrera tecnológica entre la creación y la detección de deepfakes

Según la DIU, la detección de deepfakes permitirá al Pentágono “adelantarse a los adversarios que utilizan medios sintéticos con fines maliciosos” y “sentar las bases para una aplicación generalizada en sectores que dependen de comunicaciones verificables”. Como explicamos en Newtral.es, cualquier tipo de contenido audiovisual es susceptible de ser manipulado mediante deepfakes.

Publicidad
  • ¿Funcionan los detectores? Los expertos advierten de que los detectores solo ofrecen buenos resultados identificando las técnicas para las que han sido entrenados, y no existe un detector universal que pueda identificar contenido creado mediante cualquier técnica. 

Los modelos de creación surgen a un ritmo mayor que los de detección y es imposible que la tecnología de detección de deepfakes vaya por delante de la de creación, ya que la primera necesita a la última para poder evolucionar, por lo que siempre va un paso por detrás. 

Fuentes
  • Unidad de Innovación de Defensa
  • Hive AI
  • MIT Technology Review
Publicidad

0 Comentarios

Ya no se pueden publicar comentarios en este artículo.