Newtral


¿Puede un robot luchar contra las mentiras? Está pasando…
Siguiente

¿Puede un robot luchar contra las mentiras? Está pasando…

Reducir tiempos, ser más eficientes, poder abarcar más y mejor. Estas tres premisas, aplicables a cualquier trabajo, son una prioridad para las organizaciones que hacen periodismo fact-checking que este año se han reunido en Ciudad del Cabo (Sudáfrica) para su encuentro anual de verificación.


Foto: Photo/Uğurcan Akın – @Poynter

En el Global Fact 6, organizado por la red internacional de fact-checking IFCN, la automatización de los procesos y el uso de robots para facilitar el trabajo de los periodistas “fact-checkers” ha vuelto a ser uno de los asuntos más relevantes de la conferencia. ¿Qué novedades hay en este campo? ¿Pueden los robots ayudar en la lucha contra las mentiras?

Bill Adair, fundador de Politifact, ganador de un Premio Pulitzer en 2009, ha explicado en un workshop específico de la conferencia los avances, y los no tan avances, de la “Duke Tech and Check Cooperative”, iniciativa de la Universidad de Duke y su Reporters’ Lab que tiene como una de sus misiones automatizar el trabajo de verificación y facilitar la vida a los periodistas.

Adair mostró los avances de Squash, un software desarrollado por Duke y su primer intento de verificación en tiempo real de un discurso político sin intervención humana. El test se hizo durante el último Debate sobre el Estado de la Nación que dio Donald Trump ante el pleno del Congreso de EE.UU. El sistema consiste en que durante la emisión, y tras una declaración ya comprobada del presidente, aparece en pantalla un rótulo que le dice al espectador que eso que acaba de decir es falso y por qué.

“La ventana que surge extrae la información de la base de datos que tenemos de declaraciones verificadas con anterioridad” – explica Adair- “El balance de todo el proceso: conseguimos 6 coincidencias relevantes, el algoritmo que traduce el discurso a texto funcionó y las coincidencias aparecieron de forma instantánea”. Aunque no fue perfecto, ya que hubo hasta 14 frases verificadas cuyo fact-check no apareció en pantalla, el sistema es prometedor.

Christopher Guess, uno de los miembros del equipo de Adair, apunta soluciones alternativas para que el algoritmo mejore la coincidencia (matching) entre la declaración detectada y el artículo con la verificación alojada de la base de datos. “Estamos trabajando con redes neuronales… introducimos miles declaraciones reales para que nuestro algoritmo aprenda a identificarlos, es como educar a un niño desde muy pequeño”, explica Guess.

La Escucha

Uno de los problemas más complejos es, sin duda, lo que en Newtral se denomina “La escucha” y como hacerla de forma más eficiente. Periodistas del equipo que dedican horas y horas a repasar entrevistas, ruedas de prensa y mítines de los líderes políticos, comprobando que los argumentos utilizados sean verdaderos, y actuando en el caso de que fueran falsos. La idea de que un bot pudiera hacer ese trabajo de recolección de frases verificables es sin duda uno de los principales objetivos.

Tanto el equipo de automatización de Full Fact, el verificador de Reino Unido, como el argentino de Chequeado, han avanzado en este campo. Pablo M. Fernández, director de Innovación Editorial de Chequeado, también ha explicado cómo su chequeabot ya les permite agilizar el trabajo de escucha y búsqueda de frases verificables. Esto permite a los redactores destinar un tiempo muy valioso al trabajo periodístico de verificación, mientras el robot le ayuda en la tarea de localizar posibles mentiras.

¿Hasta qué punto podrá automatizarse todo el proceso? Es difícil saberlo. El equipo de tecnología de Newtral trabaja también en la misma dirección, con el fin de que gracias a los robots el trabajo de verificación pueda abarcar mucho más, ser más eficiente y más rápido.

¿Quieres comentar?

Relacionados

Más vistos

Siguiente