Coincidiendo con el lanzamiento de DeepSeek, la inteligencia artificial de China para competir con OpenAI, España ha lanzado los primeros modelos de lenguaje de IA en las cuatro lenguas oficiales, dentro del proyecto ALIA. Sin embargo, ¿cuál es el valor añadido de tener un modelo de inteligencia artificial propio?
- ALIA es una herramienta de inteligencia artificial entrenada en castellano y en las lenguas cooficiales del Estado (catalán, gallego y euskera). Está desarrollada por el Gobierno y financiada con 10,2 millones de euros, según se desprende del informe Estrategia de Inteligencia Artificial 2024.
Un modelo más transparente. Uno de los argumentos para lanzar un modelo propio es la transparencia, como afirma a Newtral.es Adrián Moreno, profesor de la Universidad Complutense de Madrid (UCM) y experto en ciberseguridad. «Cabe destacar que se trata de un sistema de código abierto, lo que hace que sea más transparente, ya que cualquier persona puede auditarlo», a diferencia de GPT, desarrollado por OpenAI.
Más especialización y riqueza local. Otra de las razones para desarrollar un modelo español es que puede aportar, además, «una mayor especialización» en determinados ámbitos culturales o normativos, indica Sergio Carrasco, profesor del posgrado de protección de datos y privacidad de la Universitat Oberta de Catalunya (UOC). Por otro lado, Carrasco destaca el hecho de la independencia que implica tener tu propio modelo de IA.
- Pese a los beneficios, Moreno apunta un inconveniente. «A pesar de su elevado coste, ALIA cuenta con un rendimiento inferior a modelos como LLaMA 2 34b, desarrollado por Meta», asegura.
Los sesgos de la inteligencia artificial. Una de las prioridades de ALIA, afirma el Ministerio para la Transformación Digital, es ser «una red abierta y transparente». Es decir, los usuarios pueden acceder a los modelos y descargar los datos, lo que facilita la comprensión de su funcionamiento. Permite detectar, además, los sesgos y resultados erróneos. «La apertura de los modelos y la transparencia de los datos son fundamentales, ya que crea modelos más inclusivos y socialmente justos», asegura el ministerio.
- Las herramientas de IA se entrenan con datos que «reflejan y reproducen las desigualdades sociales», afirma a Newtral.es Anita Fuentes, investigadora sobre el discurso misógino en internet en la Universidad Complutense de Madrid (UCM).
- Se trata de sesgos, asegura, que «no son simples errores». Son, explica, «consecuencia directa de su diseño, casi siempre moldeado por dinámicas de privilegio y exclusión».
- En este sentido, Fuentes argumenta que el desarrollo de una inteligencia artificial exige «un enfoque feminista que confronte y desmantele los sesgos de género, raza y clase en los que se inscriben estas tecnologías».
Cómo prevenirlos. «Es clave incorporar principios de supervisión humana y responsabilidad ética en cada etapa de su desarrollo», analiza Fuentes, apoyándose en los estudios de Safiya Umoja Noble, Catherine D’Ignazio y Lauren Klein y Meredith Broussard. «Esto incluye hacer auditorías constantes, diversificar los equipos técnicos y prohibir de forma explícita el uso de algoritmos en decisiones que refuercen perfiles discriminatorios», añade.
- Informe Estrategia de Inteligencia Artificial 2024
- Adrián Moreno, profesor de la UCM y experto en ciberseguridad
- Sergio Carrasco, ingeniero técnico en Telecomunicaciones
- Anita Fuentes, investigadora de la UCM sobre misoginia en Internet