Cómo trabaja la red Facebook a fin de evitar que la usen para alterar votos
La empresa Facebook dispuso en sus oficinas de Buenos Aires y de la ciudad californiana de Menlo Park dos centros de operaciones en los que unos 45 especialistas monitorearán en tiempo real la conversación sobre las elecciones presidenciales del próximo domingo, con el objetivo de evitar que posteos en esa red social e Instagram se utilicen para alterar el voto de las personas.
Expertos de equipos de mercado, comunicaciones, políticas públicas, legales y "muchos ingenieros" conforman esta iniciativa multidisciplinaria de "respuesta rápida" que, desde los dos extremos del continente, busca actuar sobre aquellos mensajes que circulan en las plataformas de Facebook y que puedan tener un efecto en el mundo real.
"Trabajamos a lo largo del último año para evitar posibles abusos durante las elecciones en nuestras plataformas, y nuestros Centros de Operaciones en Argentina y Estados Unidos forman parte de ese esfuerzo, donde decenas de especialistas se coordinan para dar una respuesta rápida a cualquier incidente hasta el fin de la votación", precisó a Télam Marcos Tourinho, gerente de Elecciones de Facebook para América Latina.
La lógica detrás de este "war room", como lo llaman en la empresa, es tener montado "como si fuera una gran guardia de una redacción periodística durante un momento de crisis política" para estar atentos a lo que pueda suceder, porque "nunca sabés por dónde salta el conejo", graficó una fuente de la red social en diálogo con Télam.
La iniciativa, que se da por primera vez en la Argentina, recoge experiencias previas que la red social más grande del mundo llevó adelante en comicios recientes en los Estados Unidos, Brasil y la Unión Europea.
La puesta en funcionamiento de estos centros puede leerse como resultado de la presión pública internacional sobre la empresa por el rol que se le atribuyó de haber funcionado como cadena de distribución de noticias falsas y campañas de desinformación, particularmente en la elección estadounidense que en 2016 llevó a Donald Trump a la Casa Blanca.
También marca un cambio en la concepción del CEO de Facebook, Mark Zuckerberg, quien tras aquellas elecciones sostuvo que pensar que las noticias falsas que circularon en sus plataformas pudieron haber influido en los resultados era "una idea bastante loca".
Los equipos en los Centros de Operaciones realizan el mismo trabajo de revisión que se hace diariamente de forma rutinaria, aunque "muy concentrados en dar respuestas rápidas en un momento crítico", subrayó una fuente de la empresa que participa en esta experiencia.
La idea es mantener un mecanismo coordinado para evitar que este tipo de contenidos "estén flotando por cinco horas hasta que se acabe la elección" y decidir en cuestión de minutos si tales posteos se bajan o se dejan publicados, agregó.
Estos contenidos podrían ser, por ejemplo, llamados concretos a la violencia o algún tipo de discurso que incite al odio y que pueda llegar a generar algún tipo de disturbio en la vida real.
O mensajes que pudieran tener la intención de alterar el voto, "como podría pasar si alguien postea que hay gente armada en tal escuela", lo que quizás haría a más de uno desistir de ir a votar por temor.
Durante la campaña electoral para las presidenciales de Brasil en 2018 Facebook removió fotos manipuladas de candidatos que tenían sus números de identificación (similares a las listas en Argentina) cambiados, con la intención de confundir a los votantes.
"Miles de piezas" fueron eliminadas en esos comicios porque las normas comunitarias de la red social -reglas que determinan lo que se puede publicar y lo que no- no permiten ninguna acción, imagen, declaración o similar que pretenda suprimir o modificar el voto, detalló la compañía.
Estos posteos eliminados no necesariamente son del todo diferentes: puede pasar que en muchos casos se trate del mismo, pero reproducido de maneras diferentes o con alteraciones.