Inteligencia artificial para detectar noticias falsas y mensajes de odio en redes sociales
![La pantalla de un teléfono móvil con aplicaciones de mensajería. Foto: Flickr.](https://static.eldiario.es/clip/e7147052-1fce-4cdc-89af-1fc9818c9e01_16-9-aspect-ratio_default_0.jpg)
Un nuevo sistema de inteligencia artificial desarrollado por científicos de la Universidad Politécnica de Valencia (UPV) es capaz de identificar noticias falsas de desinformación y mensajes de odio explícitos e implícitos en las redes sociales.
En fase de prototipo, el sistema ha sido utilizado ya para localizar este tipo de ataques a mujeres e inmigrantes, además de fake news, aplicando para ello técnicas de 'deep leerning' (aprendizaje profundo).
Es el primer resultado de Mismis-FakeNHate, un proyecto liderado por el centro Pattern Recognition and Human Language Technology (PRHLT) de la UPV, y financiado por el Ministerio de Ciencia, Innovación y Universidades. En él participan también expertos de la UNED y la Universidad de Barcelona y colabora la Policía Local de Valencia como entidad promotora observadora.
Tal y como explica Paolo Rosso, del PRHLT, hoy en día en muchos casos la ciudadanía acaba recibiendo en los medios sociales de comunicación sólo la información que concuerda con sus creencias y puntos de vista, con el riesgo de un aislamiento intelectual y caer en un filtro burbuja de información. Un efecto perverso es que cuando la información corrobora nuestras creencias, tendemos a compartirla sin comprobar su veracidad, lo que facilita la propagación de desinformación“, apunta Rosso.
![](https://static.eldiario.es/clip/f7062bc2-e082-4ccb-9656-66119fdff739_16-9-aspect-ratio_default_0.jpg)
Además, el relativo anonimato de los medios sociales favorece la propagación de lenguaje agresivo, de mensajes de odio, y exclusión, que fomentan la separación en comunidades cada vez más polarizadas en sus opiniones. “Se tiende a una escasa argumentación en los contenidos que a menudo se limitan a unos pocos insultos”, añade Anastasia Giachanou, investigadora también del PRHLT.
Cómo identificar noticias falsas
Partiendo de este análisis, el prototipo permite, en primer lugar, identificar noticias falsas a partir de un análisis automático tanto del lenguaje utilizado, como de las emociones que subyacen a ese texto. Para ello, es capaz de discernir emociones básicas como el miedo, la ira o la sorpresa, entre otros. Por el momento lo hace tanto en información escrita, si bien están empezando a trabajar también con imágenes.
“Nos proponemos identificar la desinformación desde una perspectiva multimodal, combinando la información textual con la visual a través de técnicas basadas en deep learning. Además, se llevará a cabo un análisis multilingüe cuándo la información sea en lenguajes diferentes”, apunta Giachanou, quien desarrolla su investigación en el PRHLT gracias a una beca de la Fundación Nacional para la Ciencia de Suiza (SNSF por sus siglas en inglés). Además, el sistema ayudará a perfilar si el autor de una noticia falsa es un bot (robot) o una persona.
Por otro lado, detecta también lenguaje agresivo y mensajes de odio en los medios sociales de comunicación. Para monitorizarlos, el equipo propone un enfoque terminológico, extrayendo términos y patrones lingüísticos de odio a partir de conjuntos de datos analizados anteriormente y monitorizar sistemáticamente si se emplean en nuevas conversaciones online.
Como próximos retos, los investigadores trabajan en la clasificación de patrones y rasgos de la personalidad que se esconden detrás de los haters de las redes sociales.