Las noticias manipuladas se revisan continuamente en la plataforma a través de verificadores de publicaciones. Y para evitar que el contenido pernicioso se propague, la red prioriza los post de cuentas cercanas y preferenciales. También mantinene una línea constante de capacitación de organizaciones de ‘fast checking’ y en intervención de controladores de contenidos. Las advertencias en cuentas que buscan el debate y las provocaciones, como las provenientes del medio ruso RT, son visibles.
En la principal red social del grupo Meta, la regulación de la desinformación pasó de las advertencias a la eliminación y suspensión de cuentas que divulgan información falsa. Así lo hizo público la misma plataforma en el 2020, cuando anunció un control más estricto a las ‘fake news’ con un nuevo proceso de verificación.
El control se intensificó tras polémicas como la denuncia por una supuesta venta de información de 87 millones de usuarios a la consultora política Cambridge Analytica, que le costó a Facebook una multa de USD 5.000 millones, impuesta en el 2019.
El problema salió a la luz con decenas de reportajes e informes donde se indicó que la red social persuadió a votantes del Reino Unido para mostrarse a favor del referéndum del Brexit, en el 2016, con publicaciones erróneas que posteriormente fueron eliminadas.
Para recuperar su reputación la plataforma invirtió en la implementación de un proceso de comprobación que se hizo más visible luego del 2020. Así lo recuerda Roberto Moreano, docente de Periodismo de la UDLA y experto en periodismo digital.
Esa inversión, explica Moreano, se evidenció en distintas aristas como en la capacitación de organizaciones de ‘fast checking’ y en intervención de controladores de contenidos. Las advertencias a manera de contexto que ahora se observan en algunas publicaciones de medios, también se aplicaron.