Corría el año 2016, y el problema de las fake news no dejaba respirar a Mark Zuckerberg, CEO de Meta (entonces llamada Facebook). El joven empresario recibió toda la presión mediática y, además, continuos cuestionamientos del aparato jurídico norteamericano. El caso Cambridge Analytica, las acusaciones de interferencia rusa en las elecciones y luego la primera victoria aplastante de Donald Trump plantearon serias dudas. Menlo Park, sede de las oficinas de Facebook, temblaba en sus cimientos. Por primera vez se debatió la cuestión de la influencia de la plataforma en el panorama político. Los legisladores estadounidenses exigieron a la empresa «proteger la democracia». Era cuestión de tiempo que Zuckerberg compareciera ante el Senado. Lo hizo en 2018.
El dueño de Facebook, con todas las tácticas de relaciones públicas, se defendió. Uno de sus argumentos era que la empresa, tras esa crisis de reputación, había creado la Verificadores de datos de terceroso verificadores de datos independientes, para abordar la información errónea en sus plataformas.
La historia de los verificadores de datos independientes en Facebook
Implementado primero en Estados Unidos y luego en el resto del mundo, el proyecto pareció funcionar. Hasta el momento, según sus propios datos, en él participan activamente 116 organizaciones internacionales. De hecho, el año pasado, en el contexto de las elecciones parlamentarias de la Unión Europea, Meta comunicó la efectividad de su sistema de etiquetado. “Entre julio y diciembre de 2023, por ejemplo, casi 68 millones de publicaciones en Facebook e Instagram tenían etiquetas de verificación de datos. «Cuando algo se etiqueta como falso o engañoso, el 95% de las personas no hacen clic en el contenido».
Todo cambió drásticamente hoy, 7 de enero, cuando Mark Zuckerberg anunció el fin del programa en Estados Unidos. Es sólo cuestión de tiempo que la iniciativa desaparezca en América Latina y el resto del mundo, vulnerando a organizaciones de noticias independientes que dependen, en mayor o menor medida, de ese financiamiento. Los afectados serán, por ejemplo, Animal Políticoen México; Comprobadoen Argentina; Agencia Lupacualquiera Años del destinoen Brasil, y maldita sea.esen España. ¿Por qué cambiar algo que estaba funcionando, según la propia empresa?
¿Cómo funciona el Programa Meta Verificador Independiente?
Yo era supervisor editorial de El Sabueso, de Animal Político, cuando Meta se acercó a nosotros para iniciar el proyecto. Para ser parte debías sumarte a la certificación de la Instituto Poynteruna organización internacional financiada por la Red Internacional de Verificación de Fact-checking (IFCN), que establece las reglas editoriales para la verificación de la información con un código de principios altamente riguroso y transparente. Meta confió en esta red para el proyecto y también tenía sus propias exigencias. Entre ellos: no se puede negar el discurso político o cualquier tipo de contenido que catalogue como opinión. Las declaraciones de Andrés Manuel López Obrador (AMLO), por ejemplo, no pueden ser cuestionadas, pero sí la desinformación sobre la primera caravana de migrantes, que atravesó México en el primer año del sexenio de AMLO (2018) y que fortaleció un discurso racista. , podría. antiinmigrante.
Las “noticias” que se desmintieron fueron fotografías o videos fuera de contexto, como el que decía falsamente que un grupo de migrantes había secuestrado una camioneta en Chiapas. También mentiras sobre presuntos robos de niños en México y otros países latinoamericanos. Luego llegó la pandemia de COVID-19 y los fact-checkers independientes tomaron un papel protagónico al desmentir, con los datos disponibles, ideas como “beber lejía elimina el virus” y “las redes 5G tuvieron que ver con la pandemia”.
Los medios verificadores argumentaron por qué algo era falso y, posteriormente, la herramienta de Facebook no eliminó el contenido original, sino que añadió una etiqueta como “Falso: verificado por Animal Político”, o AFP, o alguna de las organizaciones de la red. . Meta aseguró que una vez que una publicación recibiera la etiqueta, su alcance se redujera drásticamente. «Sabemos que este programa está funcionando y que los usuarios encuentran valor en las etiquetas después de que un verificador las califica», se lee en una publicación meta oficial. La empresa de Zuckerberg siempre dijo que no sería un “árbitro de la verdad”, y por eso no eliminó las publicaciones originales, mostrando confianza en las organizaciones IFCN que hicieron este trabajo.
Este cambio de 180 grados responde a la segunda victoria de Donald Trump en las urnas y a métodos competidores, como las Community Notes de X, que implementó Elon Musk tras comprar Twitter. Meta decidió no apostar más ni gastar dinero en su programa. Ahora, aspira a que sean los propios usuarios de Facebook e Instagram quienes decidan qué contenido es desinformación o no.