Sólo en América

¿Vikingos negros? Google Gemini y sus imágenes con diversidad forzada

Google Gemini y su generador de imágenes de inteligencia artificial con diversidad forzada
Imagen de recurso de Google Gemini. | Foto: Shutterstock
Tiempo de lectura: 4 min

Lo esencial. Google limitó esta semana la capacidad de su herramienta de inteligencia artificial Gemini a la hora de crear imágenes de personas. La compañía se vio obligada a tomar la decisión después de recibir críticas por la diversidad forzada de su generador de imágenes en Gemini.

Publicidad
  • Los usuarios se quejaban de la existencia de un sesgo contra los blancos. Gemini generaba imágenes de personas no-blancas cuando el contexto histórico demandaba lo contrario.
  • Capturas en las que Gemini creaba imágenes de «vikingos» y «papas» de raza negra se hicieron virales en X, donde su fundador Elon Musk alimentó la ferocidad de las críticas.

Desde Google, la controversia supone un nuevo tropiezo mediático en su competencia con OpenAI, los creadores de ChatGPT. Pero también es un escollo político con el que otras compañías tecnológicas ya han tenido que lidiar en el pasado dado el tinte ideológico con el que se impregna todo en Estados Unidos.

En realidad, la polémica ilustra una dinámica más compleja: la dificultad que implica entrenar y ajustar herramientas de inteligencia artificial que ya usan decenas de millones de personas diariamente.

[Riesgos detrás de Worldcoin, la compañía del creador de ChatGPT que escanea los iris de las personas]

Publicidad

Padres fundadores negros

La polémica. La controversia se remonta a la queja de que la inteligencia artificial de Gemini estaba manipulada para forzar la diversidad de sus creaciones. Gemini creaba imágenes de personas cuya raza no era fiel a la realidad histórica que pretendían sus usuarios.

  • Por ejemplo, a la petición de generar imágenes de «padres fundadores de Estados Unidos», Gemini generaba imágenes de personas negras o nativoamericanas.
  • En otros casos, a las peticiones de crear imágenes de «un soldado alemán en 1929» o «una pareja alemana de 1820», Gemini generaba imágenes de personas negras o asiáticas.

Críticas. Figuras habituales de la derecha estadounidense como @EndWokeness propagaron ejemplos similares, aunque la crítica no fue exclusiva de esa parte del espectro ideológico.

  • El periodista experto en datos Nate Silver o el bloguero de economía Noah Smith también se hicieron eco de la controversia.
  • Otros críticos, como Elon Musk, encomendaron a Google a tomar medidas para paliar los fallos.

Más allá de la diversidad forzada de Gemini

Contexto. La existencia de sesgos discriminatorios en la inteligencia artificial es una realidad debatida desde hace años, también en Google. La controversia con la diversidad en Gemini parece un caso muy sencillo de sobrecorrección.

Publicidad
  • Herramientas de inteligencia artificial como Gemini operan sobre modelos de lenguaje grandes que han sido entrenados con billones de líneas de texto e imágenes.
  • Todos esos textos e imágenes tienen un sesgo discriminatorio histórico, por lo que los modelos se han entrenado con sesgos que luego podrían repetir.
  • Por ejemplo, sobrerrepresentando a personas negras al hacer imágenes de presidiarios o sobrerrepresentando a personas blancas al generar imágenes de familias felices.

En el caso de Gemini, sus ingenieros hicieron una corrección para sobrecompensar sesgos con diversidad y multiculturalidad en su representación de personas. Claramente ha tenido resultados inesperados.

  • Por otro lado, también ha demostrado que las IA generativas no son «tan inteligentes», pues son incapaces de entender los matices históricos o temporales que a veces buscan sus usuarios.

¿Y ahora? La controversia pone a Google en una situación compleja.

  • Por un lado, sus investigadores llevan años indagando en los sesgos perjudiciales que tienen sus modelos de lenguaje. El objetivo: poder ajustarlos.
  • Pero por otro, las soluciones que han planteado hasta ahora tienen consecuencias dañinas para la compañía conforme intenta abrir el acceso de sus herramientas de IA a más personas.
Publicidad

La pregunta es si las grandes compañías tecnológicas deben ser más precavidas a la hora de presentar sus productos de IA al gran público. Pero en el caso de Google, estos impedimentos son más difíciles de gestionar porque les frenan en su carrera por competir con OpenAI, un rival que todavía no se ha visto envuelto en una polémica del mismo calibre.

Fuentes
  • Harvard Business Review: What Do We Do About the Biases in AI?
  • The New York Times: Who Is Making Sure the A.I. Machines Aren’t Racist?
  • The Verge: Google pauses Gemini’s ability to generate AI images of people after diversity errors
  • Vox: AI automated discrimination. Here’s how to spot it.
  • Daily Dot: Why Google’s new AI Gemini accused of refusing to acknowledge the existence of white people
  • Wired: Google’s ‘Woke’ Image Generator Shows the Limitations of AI
  • VentureBeat: Google Gemini’s ‘wokeness’ sparks debate over AI censorship

1 Comentarios

Ya no se pueden publicar comentarios en este artículo.

  • Google es una empresa judía. Que se les haya ido de las manos no significa que no fuese intencional y parte de un plan urdido por el pueblo elegido contra la raza más exitosa del planeta.