Facebook recluta a la Wikipedia para combatir las noticias falsas

 

Facebook lleva arrastrando un problema de imagen desde las ultimas elecciones presidenciales de EEUU, en el que acusaron a la popular red social de permitir noticias falsas en sus muros. Estas noticias falsas llegaron a considerarse propaganda electoral y según los acusadores, entre ellos el propio presidente Donald Trump señalaban su procedencia rusa. Aunque otras fuentes citan que estas noticias no son más que clickbait (un cebo normalmente con un titular llamativo para que la gente haga click en sus enlaces) de medios que están dispuestos a decir lo que sea para generar visitas.

Facebook por su parte tras ser acusada instalo un sistema basado en la Inteligencia Artificial, lo que ha provocado que las noticias sean revisadas simplemente por algoritmos que obviamente dejan escapar contenido o bloquean otro contenido que no debería ser bloqueado.

Facebook no ha querido dejar esta lucha aquí y ahora cuenta con la ayuda de la propia Wikipedia para validar los artículos que son compartidos por sus usuarios. Con este nuevo intento se añade un nuevo botón “i” en los artículos compartidos que nos permitirá ver la pagina en Wikipedia acerca del editor del contenido que estamos viendo, haciendo que de esta manera los editores de la Wikipedia puedan establecer si un medio es veraz o se inventa las noticias.

Un método un tanto dudoso si lo analizamos a fondo, ya que en el intento de lucha contra la desinformación, se puede generar mayor desinformación o que terceros puedan manipular que procedencias son fiables o no. Las dudas obviamente afloran desde el propio sistema de edición de la Wikipedia, donde cualquier usuario puede editar un articulo en apenas unos minutos, haciendo que el sistema pueda ser manipulado a conveniencia de los medios de estas “falsas” si fuera necesario.

Desde mi punto de vista, solo puedo decir que es un error, ya que por la red circulan gran cantidad de conspiraciones y noticias, y los propios lectores al final del día deberían saber por sentido común que contenido es real, que contenido no es real y que contenido es simple clickbait. De hecho, es bastante común ver noticias de personajes públicos famosos que mueren varias veces al año, noticias del fin del mundo o “noticias” de teorías de la conspiración sobre algún suceso que haya ocurrido en los últimos años.

La libertad de expresión termina provocando este tipo de cosas, pero por otro lado no puedo dejar de ver el sistema de Facebook como una forma de intentar controlar la opinión publica decidiendo que es aceptable y que no, ya que este tipo de sistemas terminan no siempre utilizándose para las noticias falsas, si no como una herramienta de censura. Aunque entiendo la elección de Facebook de usar la Wikipedia como una herramienta de censura “user-friendly”, en vez de contratar a censores profesionales que darían peor imagen a la compañía. ¿Que opináis vosotros?