Los días 26 y 27 de junio Newtral presentará el proyecto DISINFTRUST durante el Cardiff NLP summer workshop, en el que participan investigadores y expertos en inteligencia artificial que analizan distintos usos y desarrollos del procesamiento del lenguaje natural o natural language processing (NLP), que estudia el lenguaje humano.
Newtral compartirá los avances de DISINFTRUST, que desarrolla en colaboración con la Blanquerna-Universitat Ramon Llull y la Universidad de Cardiff, financiado por el European Media and Information Fund (EMIF), y que tiene como objetivo analizar el impacto de las narrativas de desinformación.
En concreto, el estudio analiza en diversos grupos sociales de diferentes países para comprobar la repercusión que tiene el contenido falso o engañoso en los lectores a través de una serie de indicadores como el clickbait, la subjetividad, la inclusión de datos factuales y los niveles de toxicidad, y analizar si favorecen o perjudican la credibilidad de la información presentada, más allá de si es falsa o verdadera.
DISINFTRUST: inteligencia artificial para luchar contra la desinformación
Para entender mejor los mecanismos que llevan a los ciudadanos a creer en contenidos engañosos y comprobar el impacto real de las narrativas de desinformación en diversos grupos sociales, el primer paso del proyecto consistió en recopilar las verificaciones publicadas por los fact-checkers en el Fact-Check Explorer de Google. Con ello, se creó una base de datos global sobre la que aplicamos un modelo de detección de temas para extraer cuáles son las narrativas de desinformación más predominantes.
A partir de este análisis, se seleccionaron tres afirmaciones relacionadas con el cambio climático, el género y las vacunas para elaborar una ficha de cada caso:
- “Los coches eléctricos emiten radiaciones electromagnéticas nocivas”.
- “Cambridge Dictionary cambió la definición de mujer y de hombre, el Gobierno británico adaptará sus registros de ciudadanos en base a la nueva definición”.
- “La vacuna contra el covid formó un nuevo grupo sanguíneo”.
En cada ficha –desarrollada por una persona y por ChatGPT– se incluyen las posibles combinaciones de los indicadores mencionados antes: clickbait, subjetividad, datos factuales y toxicidad. Por ejemplo, habrá una propuesta que reelabore una de las afirmaciones incluyendo un texto a favor de la narrativa, sin toxicidad, sin clickbait en el titular y con la presencia de datos o expertos, mientras que otra de las afirmaciones tratará de arrojar justamente lo contrario.
Con la información obtenida, el próximo paso será determinar el impacto que tiene el contenido falso sobre lectores para comprobar qué efecto tienen estos indicadores sobre la credibilidad de los artículos o contenidos periodísticos.
Modelos de inteligencia artificial para detectar el grado de clickbait de los artículos
Además de DISINFTRUST, en la conferencia también se mostrarán los diferentes modelos de inteligencia artificial desarrollados por Newtral para la detección automática de clickbait y de subjetividad en artículos periodísticos.
0 Comentarios