Poco antes de que Sophie Zhang perdiera el acceso a los sistemas de Facebook, publicó un mensaje final en el foro interno de la empresa, una tradición de despedida en Facebook conocida como "publicación de insignia".
"Oficialmente, soy un [científico de datos] de bajo nivel que está siendo despedido hoy por desempeño deficiente", comenzaba la publicación. "En la práctica, en los dos años y medio que he pasado en Facebook, he ... encontrado múltiples intentos descarados de gobiernos nacionales extranjeros de abusar de nuestra plataforma a gran escala para engañar a su propia ciudadanía y provocar noticias internacionales en múltiples ocasiones". En el transcurso de 7.800 palabras mordaces, Zhang describió el fracaso de Facebook para combatir las campañas de manipulación política similar a lo que había hecho Rusia en las elecciones estadounidenses de 2016. "Simplemente no nos importaba lo suficiente como para detenerlos", escribió. "Sé que ya tengo las manos manchadas de sangre".
Zhang sabía que esta no era una historia que Facebook quería que ella contara, así que cuando presionó publicar, también lanzó un sitio web protegido con contraseña con una copia del memo y proporcionó el enlace y la contraseña a los empleados de Facebook. Facebook no solo eliminó temporalmente la publicación internamente, la compañía también se comunicó con el servicio de alojamiento y el registrador de dominios de Zhang y obligó a su sitio web a desconectarse. Ahora, con las elecciones estadounidenses terminadas y un nuevo presidente asumido, Zhang se presenta para contar toda la historia de manera oficial. (Los extractos de su memorando fueron publicados por primera vez en septiembre por BuzzFeed News).
"Lo que hemos visto es que varios presidentes nacionales creen que esta actividad es lo suficientemente valiosa para sus ambiciones autocráticas que sienten la necesidad de hacerlo tan descaradamente que ni siquiera se molestan en esconderse", dijo Zhang. "Traté de solucionar este problema dentro de Facebook ... Hablé con mi gerente, el gerente de mi gerente, diferentes equipos y todos, hasta un vicepresidente de la empresa, en gran detalle. Intenté repetidamente que la gente arreglara las cosas ... Me ofrecí a quedarme gratis después de que me despidieran y me dijeron que no. Esperaba que, cuando hice mi puesto de partida, pudiera convencer a la gente de cambiar las cosas, pero no es así ".
Ella argumenta que Facebook está permitiendo que su propio interés interfiera con su responsabilidad de proteger la democracia, y que el público y los reguladores deben saber lo que está sucediendo para brindar supervisión. "No se puede encontrar el objetivo de la actividad no auténtica", dijo. "No se puede arreglar algo a menos que se sepa que existe". Una portavoz de Facebook, Liz Bourgeois, dijo: “Estamos fundamentalmente en desacuerdo con la caracterización de la Sra. Zhang de nuestras prioridades y esfuerzos para erradicar el abuso en nuestra plataforma.
“Buscamos agresivamente el abuso en todo el mundo y tenemos equipos especializados enfocados en este trabajo. Como resultado, hemos eliminado más de 100 redes de comportamiento no auténtico coordinado. Aproximadamente la mitad de ellos eran redes nacionales que operaban en países de todo el mundo, incluidos los de América Latina, Oriente Medio y África del Norte, y en la región de Asia Pacífico. Combatir el comportamiento no auténtico coordinado es nuestra prioridad. También estamos abordando los problemas del spam y la participación falsa. Investigamos cada problema antes de tomar medidas o hacer afirmaciones públicas sobre ellos ".
Facebook no cuestionó las afirmaciones fácticas de Zhang sobre su tiempo en la empresa.
DETRÁS DE "LIKE FALSIFICACIÓN"
Zhang había estado trabajando para Facebook durante unos seis meses cuando se dio cuenta de que Juan Orlando Hernández, el presidente de Honduras, estaba acumulando una gran cantidad de me gusta falsos en el contenido que publicó para sus 500.000 seguidores en Facebook. Durante un período de seis semanas, de junio a julio de 2018, las publicaciones de Hernández en Facebook recibieron me gusta de 59.100 usuarios, más del 78% de los cuales no eran personas reales.
El falso compromiso de Hernández se destacó no solo por su volumen, sino por una aparente innovación en la forma en que lo adquirió. La mayoría de los `` me gusta '' falsos en Facebook provienen de cuentas de usuario falsas o comprometidas, pero Hernández estaba recibiendo miles de `` me gusta '' de páginas de Facebook (perfiles de Facebook para empresas, organizaciones o figuras públicas) que se habían configurado para parecerse a cuentas de usuario, con nombres, imágenes de perfil y títulos de trabajo. Un individuo era el administrador de cientos de esas páginas falsas, así como de las páginas oficiales tanto de Hernández como de su difunta hermana, quien se había desempeñado como ministra de Comunicaciones.
Sentado detrás de una pantalla de computadora, el administrador podía publicar una publicación sobre lo bien que Hernández estaba haciendo su trabajo en la página de Facebook del presidente, luego usar sus cientos de páginas ficticias para hacer que la publicación pareciera popular, el equivalente digital de viajar en autobús en una multitud falsa para un discurso. Zhang había sido contratado en enero para trabajar en un equipo relativamente nuevo dedicado a combatir el "compromiso falso": me gusta, comentarios, acciones y reacciones de cuentas no auténticas o comprometidas. Además de distorsionar la percepción del público sobre la popularidad de un contenido, la participación falsa puede influir en el rendimiento de ese contenido en el importantísimo algoritmo de suministro de noticias; es una especie de moneda falsa en el mercado de atención de Facebook.
La gran mayoría de la participación falsa en Facebook aparece en publicaciones o páginas de personas, empresas o marcas y parece tener una motivación comercial. Pero Zhang descubrió que también se estaba utilizando en lo que Facebook llamó objetivos "cívicos", es decir, políticos. El ejemplo más flagrante fue el de Hernández, que estaba recibiendo el 90% de todos los compromisos cívicos falsos conocidos en Honduras en agosto de 2018.
Hernández, nacionalista de derecha que apoyó el golpe militar de Honduras en 2009, fue elegido presidente en 2013. Su reelección en 2017 es ampliamente vista como fraudulenta, y su segundo mandato ha estado marcado por denuncias de abusos contra los derechos humanos y corrupción desenfrenada. Los fiscales federales de Estados Unidos han nombrado a Hernández como co-conspirador en múltiples casos de tráfico de drogas. No ha sido acusado de ningún delito y ha negado haber actuado mal.
Hernández no respondió a las consultas enviadas a su oficial de prensa, abogado y ministro de Transparencia.
Las tácticas que impulsaron a Hernández en línea fueron similares a las que había hecho la Agencia de Investigación de Internet de Rusia durante las elecciones estadounidenses de 2016, cuando creó cuentas de Facebook que pretendían ser estadounidenses y las utilizó para manipular a las personas e influir en los debates políticos en Facebook. Facebook había creado un nombre para esto - "comportamiento no auténtico coordinado" (CIB) - con el fin de prohibirlo.
Pero Facebook inicialmente se resistió a llamar CIB a la actividad hondureña, en parte porque el uso de las páginas de la red para crear personas falsas y un compromiso falso cayó en una laguna seria en las reglas de la empresa. Las políticas de Facebook para garantizar la autenticidad se centran en las cuentas: los usuarios solo pueden tener una cuenta y esta debe utilizar su nombre "real". Pero Facebook no tiene tal regla para las páginas, que pueden realizar muchos de los mismos compromisos que las cuentas, incluidos dar me gusta, compartir y comentar.
Zhang asumió que una vez que alertara a las personas adecuadas sobre su descubrimiento, se investigaría la red de Honduras y se cerraría la laguna legal de las páginas falsas. Pero rápidamente quedó claro que nadie estaba interesado en asumir la responsabilidad de vigilar los abusos del presidente de una nación pobre con solo 4,5 millones de usuarios de Facebook. El mensaje que recibió de todos los rincones, incluso de la inteligencia de amenazas, el pequeño y elitista equipo de investigadores responsables de descubrir las campañas de la CIB, fue que los abusos eran malos, pero los recursos eran escasos y, sin ninguna presión externa, Honduras simplemente no era un prioridad.
"No corresponde a la inteligencia de amenazas investigar un compromiso falso", le dijo a Zhang un investigador de ese equipo. Katie Harbath, la entonces directora de políticas públicas de Facebook para las elecciones globales, expresó su interés en una "forma escalonada de buscar esto y actuar en otras páginas de políticos", pero señaló que era poco probable que el caso recibiera mucha atención fuera de Honduras, y que no lo hizo. "Me siento muy fuerte" al respecto. Otros ejecutivos y gerentes a quienes Zhang informó fueron Samidh Chakrabarti, el entonces jefe de integridad cívica; David Agranovich, líder de disrupción de amenazas globales; y Rosen, vicepresidente de integridad.
"No creo que Honduras esté muy presente en la mente de la gente aquí", le dijo a Zhang un gerente del equipo de integridad cívica en un chat.
Frustrada e impaciente después de meses de inacción, Zhang tomó sus preocupaciones en forma semipública, dentro de los límites de la plataforma de comunicación interna de la empresa. A fines de marzo de 2019, publicó una publicación en un grupo del "equipo central de integridad electoral" de la compañía en la que señalaba que Hernández era "el único presidente nacional que abusaba de Facebook de manera directa, activa y constante para explotar el compromiso falso para sí mismo" y que la empresa conocía el problema desde hacía meses sin hacer nada.
El puesto logró atraer la preocupación de un investigador del equipo de inteligencia de amenazas, pero en abril se produjo una nueva demora cuando la gerencia suspendió temporalmente las investigaciones de los casos de CIB que no involucraban la interferencia de un gobierno extranjero. En junio, el investigador comenzó a trabajar en el caso y rápidamente confirmó los hallazgos de Zhang: había una gran red de CIB en Honduras trabajando para promover a Hernández que estaba vinculada al propio presidente "Esta campaña ha impulsado de manera persistente a un probable presidente ilegítimo en un ARC [país en riesgo]", escribió el investigador en un informe que destaca su probable "impacto IRL [en la vida real]". Las cuentas y las páginas involucradas se establecieron en 2016 y 2017, antes de la reelección disputada de Hernández, señaló el investigador.
El 25 de julio de 2019, casi un año después de que Zhang reportara la red a Facebook, la compañía anunció que estaba eliminando 181 cuentas y 1.488 páginas involucradas en “actividades no auténticas coordinadas y enfocadas a nivel nacional en Honduras”. La campaña estaba "vinculada a personas que administran las redes sociales para el gobierno de Honduras" y había gastado más de $ 23,000 en anuncios de Facebook, dijo Facebook.
Agranovich, el líder global de interrupción de amenazas, elogió a Zhang por su papel en el derribo, escribiendo en un canal de comentarios oficial: “Estas interrupciones eliminaron las redes en Facebook que usaban nuestros servicios para suprimir la expresión democrática, apuntar a usuarios inocentes en nuestra plataforma y habilitar la clandestinidad conflicto geopolítico. Este es uno de los trabajos más importantes en Facebook, y no podríamos haber realizado ninguna de estas eliminaciones sin sus contribuciones ".
En privado, agregó: "El caso de Honduras nunca habría sucedido sin su continua defensa ... Significa que hemos creado un precedente de que el arquetipo de páginas como perfiles es un comportamiento no auténtico".
"NADIE PUEDE ESTAR DE ACUERDO EN QUÉ HACER"
Zhang se sintió fortalecida por su éxito con el derribo de Honduras y creía que el “precedente” del que hablaba Agranovich despejaría el camino para derribos más rápidos en el futuro.
Al día siguiente, presentó una escalada dentro del sistema de gestión de tareas de Facebook para alertar al equipo de inteligencia de amenazas sobre una red de cuentas falsas que apoya a un líder político en Albania. En agosto, descubrió y presentó escaladas para redes sospechosas en Azerbaiyán, México, Argentina e Italia. Durante el otoño y el invierno, agregó redes en Filipinas, Afganistán, Corea del Sur, Bolivia, Ecuador, Irak, Túnez, Turquía, Taiwán, Paraguay, El Salvador, India, República Dominicana, Indonesia, Ucrania, Polonia y Mongolia.
"La mayor parte del tiempo se sentía como intentar vaciar el océano con un cuentagotas", le dijo Zhang a The Guardian.
Las redes a menudo no cumplieron con los criterios cambiantes de Facebook para ser priorizados para las eliminaciones de CIB, que son investigadas por inteligencia de amenazas y anunciadas públicamente, pero aún así violan las políticas de Facebook. Las redes de cuentas falsas se trataron mediante el "control de puntos" de identidad, un proceso mediante el cual un usuario debe proporcionar una prueba de su identidad o su cuenta está bloqueada. La táctica es una forma efectiva de deshacerse de las cuentas no auténticas, aunque hizo poco para abordar el abuso de Page que se llevó a cabo mediante cuentas auténticas. También podría llevarlo a cabo el personal de "operaciones de la comunidad" de Facebook, que superaba en gran medida a los investigadores de inteligencia de amenazas.
Fue a través de la búsqueda de estos casos que Zhang entró en contacto repetido con la burocracia política de Facebook. Parte del personal de políticas de Facebook actúa como una especie de rama legislativa en la aproximación de Facebook a un gobierno global, elaborando las reglas y asesorando al personal de operaciones de la comunidad que las hace cumplir; otros se parecen más a un cuerpo diplomático privatizado, que cuenta con oficinas en todo el mundo para servir de enlace con empresas locales, grupos de la sociedad civil, reguladores gubernamentales y políticos. El personal de políticas también puede proporcionar experiencia en el idioma, la historia y el contexto político de un país o región determinados para informar las decisiones tomadas en la sede de Facebook en Silicon Valley.
La respuesta del equipo de políticas a los casos que descubrió Zhang varió ampliamente. El personal de políticas presionó para que las redes de cuentas falsas en Corea del Sur, Taiwán, Ucrania e Italia fueran investigadas rápidamente, mientras permitían que otras languidecieran durante meses sin acción. "Se sintió un poco como la reacción después de cada tiroteo masivo", dijo Zhang. "La gente está de acuerdo en que es malo, pero nadie puede ponerse de acuerdo sobre qué hacer con él ... así que son solo pensamientos y oraciones".
A veces, Facebook permitió que su propio interés entrara en discusiones sobre la aplicación de las reglas.
En 2019, algunos miembros del personal de Facebook sopesaron dar a conocer el hecho de que un político de la oposición en Filipinas estaba recibiendo un compromiso falso con guión de baja calidad, a pesar de no saber si el político estaba involucrado en la adquisición de me gusta falsos. La empresa tenía "incentivos estratégicos para publicitar", dijo un investigador, ya que el político había sido crítico con Facebook. "Estamos recibiendo críticas de los partidarios de Duterte con los recientes derribos, y podría ser útil anunciar que tenemos otro derribo que involucra a otros candidatos", agregó un gerente de políticas públicas.
No se tomó ninguna medida después de que Zhang señaló que era posible que Duterte o sus partidarios estuvieran intentando "incriminar" al político de la oposición comprando me gusta falsos para que parezcan corruptos. Pero discusiones como esta se encuentran entre las razones por las que Zhang ahora argumenta que Facebook necesita crear una separación entre el personal responsable de hacer cumplir las reglas de Facebook y los responsables de mantener buenas relaciones con los funcionarios del gobierno.
Ella sospecha que el conflicto de intereses inherente al departamento de políticas explica por qué decidió mantener la laguna legal en las reglas de Facebook sobre el uso de páginas falsas. En 2019, el equipo aceptó la propuesta de Zhang de prohibir el uso de páginas no auténticas para crear un compromiso falso. Sin embargo, una propuesta separada de Zhang para castigar a los abusadores más prolíficos prohibiendo sus cuentas personales fue rechazada, y el personal de políticas citó la incomodidad de tomar medidas contra personas conectadas a cuentas de alto perfil, como el administrador de Page para el presidente de Honduras.
La falta de un mecanismo de aplicación sigue siendo una laguna en las políticas de Facebook; incluso si la empresa elimina docenas de páginas falsas, no hay nada que impida que un usuario con una cuenta auténtica cree docenas de páginas nuevas al día siguiente. "Si la gente comienza a darse cuenta de que hacemos excepciones para los administradores de Page de presidentes o partidos políticos, estos operadores pueden eventualmente darse cuenta de eso y ejecutar deliberadamente su CIB fuera de los canales más oficiales", dijo a Zhang un investigador del equipo de integridad cívica con conmiseración después de su propuesta fue rechazada.
ENCONTRAR "LA PRIORIZACIÓN CORRECTA"
Incluso cuando Zhang descubrió nuevas operaciones de influencia, regresó una antigua. En octubre de 2019, descubrió que la red de Honduras se estaba reconstituyendo y que había poco apetito por parte de la inteligencia de amenazas para eliminarla nuevamente. Facebook dice que monitorea las redes CIB en busca de esfuerzos para regresar utilizando métodos manuales y automatizados, y que "continuamente" elimina nuevas páginas y cuentas conectadas a las redes.
Cuando Zhang se quejó de la falta de acción en otra publicación interna en diciembre, recibió una respuesta de Rosen que fue ejemplar de cómo Facebook justificó ignorar los abusos en países pequeños o pobres que no habían logrado atraer la atención de la prensa: refiriéndose a la miríada de marcos de priorización de la empresa. .
Facebook se había "movido más lento de lo que nos gustaría debido a la priorización" en el caso de Honduras, escribió Rosen. "Es un fastidio que haya vuelto y estoy emocionado de aprender de esto y comprender mejor lo que tenemos que hacer de manera sistemática", agregó. Pero también la reprendió por hacer una denuncia pública, diciendo: “Mi preocupación es que temas como este pueden socavar a las personas que se levantan por la mañana y hacen todo lo posible para tratar de averiguar cómo gastar el tiempo y la energía finitos que tenemos. todos tienen y ponen su corazón y su alma en ello ".
Rosen se había unido a Facebook en 2013, cuando la empresa adquirió su startup, Onavo, una empresa de análisis web móvil que Facebook utilizaría para rastrear el uso de aplicaciones rivales. En Facebook, Rosen dirigió el proyecto Internet.org y fue vicepresidente de crecimiento antes de ser nombrado vicepresidente de integridad, supervisando los esfuerzos de seguridad, integridad y protección de la empresa.
Tras el despido de Zhang y la publicación de su publicación de despedida por BuzzFeed News, Rosen minimizó la importancia de los abusos que había descubierto y escribió en Twitter: "Con el debido respeto, lo que describe son me gusta falsos, que eliminamos de forma rutinaria mediante la detección automática. Como cualquier equipo de la industria o el gobierno, damos prioridad a detener las amenazas más urgentes y dañinas a nivel mundial. Me gusta falsos no es uno de ellos ".
Pero Zhang había hablado de su trabajo, que no se limitaba a me gusta falsos, con Rosen en múltiples ocasiones. En abril de 2019, después de que ella le informara en privado sobre la situación de Honduras, él la animó a ceñirse a las prioridades establecidas por la gerencia, diciendo: “Tenemos literalmente cientos o miles de tipos de abuso (seguridad laboral en la integridad, ¡eh!)… Eso es por qué deberíamos empezar desde el final (países principales, áreas de máxima prioridad, factores que impulsan la prevalencia, etc.) e intentar avanzar un poco hacia abajo ".
En diciembre de 2019, en una conversación privada que siguió a la reincidencia de Honduras, Zhang le dijo a Rosen que le habían informado que la inteligencia de amenazas solo priorizaría campañas en "los EE. UU. / Europa occidental y adversarios extranjeros como Rusia / Irán / etc.", un marco Rosen respaldó, diciendo: "Creo que esa es la priorización correcta".
Zhang respondió: “Entiendo que EE. UU., Europa occidental, etc. es importante, pero para una empresa con recursos efectivamente ilimitados, no entiendo por qué esto no puede estar en la hoja de ruta para nadie ... Un gerente de respuesta estratégica me dijo que el mundo fuera de EE. UU. / Europa era básicamente como el salvaje oeste conmigo como dictador a tiempo parcial en mi tiempo libre. Consideró que era un desarrollo positivo porque, según su conocimiento, nadie lo cubrió antes de enterarse del trabajo que estaba haciendo ".
Rosen respondió: "Ojalá los recursos fueran ilimitados". En ese momento, la compañía estaba a punto de reportar ganancias operativas anuales de $ 23,9 mil millones sobre $ 70,7 mil millones en ingresos. Tenía 54.860 millones de dólares en efectivo a la mano.
"LIMITAR EL MEME QUE NO PODEMOS CONTROLAR FACEBOOK"
En Facebook, todas las métricas de priorización se fueron por la ventana en el momento en que la prensa o el público en general se enteró de algo.
En septiembre de 2018, por ejemplo, Zhang alertó al equipo de políticas que Alejandro Murat Hinojosa, el gobernador de Oaxaca, México, estaba recibiendo cantidades sustanciales de compromiso falso. No se hizo nada hasta el 7 de enero de 2019, cuando el equipo de inteligencia de amenazas recibió un borrador de un artículo del DFRLab del Atlantic Council que exponía me gusta sospechosos de cuentas de Facebook del sur de Asia en las páginas de Murat. De repente, los me gusta falsos se consideraron una escalada de alta prioridad, y se contrató a Zhang para eliminarlos.
Sin embargo, no se hizo ningún esfuerzo por investigar la fuente del compromiso falso ni para abordar el problema más amplio del compromiso falso en la política mexicana. En agosto de 2019, Zhang presentó tareas de escalada para redes sospechosas de cuentas que apoyan a políticos locales en siete estados mexicanos; en diciembre de 2019, actualizó la tarea para incluir un total de 18 redes que actúan sobre políticos locales y estatales, incluida una que nuevamente apoya a Murat. Las redes no se priorizaron y se dejaron en funcionamiento hasta agosto de 2020, cuando, 360 días después del informe de Zhang, finalmente se comprobaron más de 5.000 cuentas falsas.
Si la actividad no auténtica atrae la atención de la prensa o del público es un mal indicador de cuán grave es, argumenta Zhang.
Durante las elecciones generales del Reino Unido de 2019, el público se alarmó por oleadas de comentarios idénticos y de apoyo en la página de Facebook de Boris Johnson. Zhang fue arrastrado a múltiples escaladas de "alta prioridad" para investigar los comentarios, que no provenían de los presuntos "bots rusos", sino que eran el resultado de partidarios del Brexit en la vida real que se hacían pasar por bots rusos para engañar a los votantes laboristas. .
El mismo Rosen alteró una vez una política de Facebook para evitar un incendio de relaciones públicas. El 7 de septiembre de 2018, dos días antes de las elecciones generales de Suecia, Facebook recibió un aviso de un próximo artículo del Atlantic Council DFRLab que planteaba preguntas sobre los niveles desproporcionados de participación con el partido de extrema derecha Alternativa para Suecia (AfS). AfS, un grupo marginal sin escaños en el parlamento, de alguna manera estaba adquiriendo casi tantos me gusta de Facebook en su contenido como el partido político más grande de Suecia.
Se le pidió a Zhang que investigara y descubrió que, si bien la actividad de AfS estaba coordinada, no era falsa; no violó ninguna de las políticas de la empresa. Sin embargo, Rosen presionó para tomar medidas contra sus cuentas de activistas, argumentando en un hilo de correo electrónico a los ejecutivos Joel Kaplan, Monika Bickert, Nathaniel Gleicher y Rachel Whetstone: “Aunque llegamos tarde aquí, todavía parece mejor hacer algo y hablar de ello que no hacer nada. Si pensamos que es lo correcto ".
Varios ejecutivos respondieron negativamente, señalando que estaba proponiendo crear una nueva política contra un comportamiento que Facebook había alentado a los usuarios a tomar (compartir publicaciones en grupos de Facebook) y aplicarla horas antes de que comenzara la votación en una elección nacional. Rosen los anuló e implementó la nueva política. Whetstone elaboró un plan de comunicaciones en caso de que la prensa hiciera alguna pregunta. Los "objetivos" declarados del plan incluían "Limitar el meme de que somos lentos para detectar el uso indebido, y que no podemos controlar Facebook" y "Limitar el meme de que no podemos controlar nuestros sistemas, o somos demasiado lentos para detectar estos diferentes tipos de abusos". ”.
CÓMO EL ABUSO GENERALIZADO "CAE A TRAVÉS DE LAS GRIETAS"
De todos los casos de comportamiento poco auténtico que descubrió Zhang, el que más le preocupaba, y que más tiempo tardó en eliminar, fue el de Azerbaiyán. Era uno de los más grandes que había visto, y claramente se estaba utilizando para apuntalar un régimen autoritario con un historial atroz en materia de derechos humanos.
La red azerbaiyana usó la misma táctica que se vio en Honduras: miles de páginas de Facebook configuradas para parecerse a cuentas de usuario, pero en lugar de crear me gusta falsos, las páginas se usaron para acosar. Durante un período de 90 días en 2019, produjo aproximadamente 2,1 millones de comentarios negativos y hostigadores en las páginas de Facebook de líderes de la oposición y medios de comunicación independientes, acusándolos de ser traidores y elogiando al líder autocrático del país, el presidente Ilham Aliyev, y su partido gobernante. , el YAP.
Facebook no empleó a un miembro del personal dedicado a las políticas ni a un especialista en el mercado para Azerbaiyán, y ni sus equipos de políticas de Europa del Este ni del Medio Oriente se responsabilizaron por ello. Finalmente, Zhang descubrió que se suponía que el equipo de políticas de Turquía cubriría la ex república soviética, pero ninguno de ellos hablaba azerí ni tenía experiencia en el país. En agosto de 2020, Facebook no tenía empleados de operaciones a tiempo completo o por contrato que se supiera que hablaran azerí, lo que dejaba que el personal usara Google Translate para tratar de comprender la naturaleza del abuso.
Facebook tardó hasta diciembre de 2019 en asignar a alguien para que investigara la campaña de acoso, y hasta enero de 2020 para que comenzara esa investigación. A principios de febrero, el investigador había establecido que la campaña estaba "claramente relacionada con el partido gobernante YAP". Pero un mes después, sin explicación, el investigador cambió el nivel de prioridad en la escalada de "alto" a "bajo". Una vez más, Zhang había descubierto una operación de influencia de un gobierno no democrático contra su propio pueblo, y una vez más Facebook estaba demorando. (El YAP no respondió a las consultas de The Guardian).
Zhang volvió a presionar internamente para que se priorizara el caso de Azerbaiyán. "El liderazgo me ha dicho directamente que debería ignorar estos casos porque si tienen un impacto, eventualmente recibiremos críticas de relaciones públicas y motivaremos un cambio", dijo durante una presentación en una cumbre interna de 2020 centrada en temas de integridad cívica, según sus notas. "La suposición es que si un caso no recibe la atención de los medios, no representa ningún riesgo social ... ¿Cuál es nuestra responsabilidad cuando el riesgo social difiere del riesgo de relaciones públicas?"
En agosto de 2020, tras la noticia de que Aliyev estaba tomando medidas enérgicas contra los líderes de la oposición y los periodistas, Zhang volvió a llevar su caso al grupo interno de “discusiones sobre integridad electoral”. "Desafortunadamente, Facebook se ha vuelto cómplice por inacción en esta represión autoritaria", escribió. "Aunque vinculamos de manera concluyente esta red a elementos del gobierno a principios de febrero, y hemos recopilado una amplia evidencia de su naturaleza violadora, se tomó la decisión efectiva de no priorizarla, haciendo la vista gorda".
La publicación pública interna ayudó a impulsar una respuesta real, con un investigador en integridad cívica que declaró la campaña de acoso "una de las peores cosas que he visto" y prometió "gastar algo de capital político" para ver que se tomen medidas. La inteligencia de amenazas retomó la escalada, y un investigador le explicó a Zhang que "probablemente se había olvidado".
A fines de agosto, la inteligencia sobre amenazas había encontrado "pruebas sólidas" de la participación del YAP y se estaba preparando para establecer el alcance completo de la red. Sin embargo, Zhang no estaría en Facebook para ver el eventual anuncio de CIB y la eliminación de 589 cuentas de Facebook, 7.665 páginas y 437 cuentas de Instagram vinculadas a la Unión Juvenil del YAP el 8 de octubre.
Fue despedida por bajo desempeño a mediados de agosto de 2020, como resultado de que pasó demasiado tiempo concentrada en desarraigar el compromiso cívico falso y no tuvo suficiente tiempo en las prioridades descritas por la gerencia. Su salud mental y su desempeño laboral habían sufrido severamente bajo la presión de intentar hacer ambas cosas y el estrés de la pandemia de coronavirus.
"No debería haber sido mi trabajo, pero al final del día, yo era la única que estaba tomando decisiones con respecto a estos casos", le dijo a The Guardian. “Si una red fue eliminada o no, se basó efectivamente en cuánto elegí impulsarla, cuánto elegí gritarle a otras personas al respecto. "Todavía tengo problemas para dormir por la noche, a veces", agregó. "Fue muy abrumador y frustrante porque, francamente, nunca debería haber tenido tanta responsabilidad y poder".
En su último día, revisó la lista de tareas pendientes que había presentado sobre redes aún activas de cuentas no auténticas, ejecutando consultas y dejando notas para el personal que esperaba que retomara su trabajo después de su partida. Había 200 cuentas sospechosas que seguían impulsando a un político en Bolivia, registró; 100 en Ecuador, 500 en Brasil, 700 en Ucrania, 1,700 en Irak, 4,000 en India y más de 10,000 en México.
Luego hizo una actualización final al archivo sobre Honduras, escribiendo: “Cuando salgo de la empresa hoy, hice un barrido final en Honduras y encontré lo que parecen ser ~ 130 usuarios reincidentes todavía activos en el presidente [Juan Orlando Hernández ]… Me doy cuenta de que esto no se priorizará ni se abordará, pero deseo proporcionar una actualización para que esté completo independientemente ".
Poco antes de que Sophie Zhang perdiera el acceso a los sistemas de Facebook, publicó un mensaje final en el foro interno de la empresa, una tradición de despedida en Facebook conocida como "publicación de insignia".
"Oficialmente, soy un [científico de datos] de bajo nivel que está siendo despedido hoy por desempeño deficiente", comenzaba la publicación. "En la práctica, en los dos años y medio que he pasado en Facebook, he ... encontrado múltiples intentos descarados de gobiernos nacionales extranjeros de abusar de nuestra plataforma a gran escala para engañar a su propia ciudadanía y provocar noticias internacionales en múltiples ocasiones". En el transcurso de 7.800 palabras mordaces, Zhang describió el fracaso de Facebook para combatir las campañas de manipulación política similar a lo que había hecho Rusia en las elecciones estadounidenses de 2016. "Simplemente no nos importaba lo suficiente como para detenerlos", escribió. "Sé que ya tengo las manos manchadas de sangre".
Zhang sabía que esta no era una historia que Facebook quería que ella contara, así que cuando presionó publicar, también lanzó un sitio web protegido con contraseña con una copia del memo y proporcionó el enlace y la contraseña a los empleados de Facebook. Facebook no solo eliminó temporalmente la publicación internamente, la compañía también se comunicó con el servicio de alojamiento y el registrador de dominios de Zhang y obligó a su sitio web a desconectarse. Ahora, con las elecciones estadounidenses terminadas y un nuevo presidente asumido, Zhang se presenta para contar toda la historia de manera oficial. (Los extractos de su memorando fueron publicados por primera vez en septiembre por BuzzFeed News).
"Lo que hemos visto es que varios presidentes nacionales creen que esta actividad es lo suficientemente valiosa para sus ambiciones autocráticas que sienten la necesidad de hacerlo tan descaradamente que ni siquiera se molestan en esconderse", dijo Zhang. "Traté de solucionar este problema dentro de Facebook ... Hablé con mi gerente, el gerente de mi gerente, diferentes equipos y todos, hasta un vicepresidente de la empresa, en gran detalle. Intenté repetidamente que la gente arreglara las cosas ... Me ofrecí a quedarme gratis después de que me despidieran y me dijeron que no. Esperaba que, cuando hice mi puesto de partida, pudiera convencer a la gente de cambiar las cosas, pero no es así ".
Ella argumenta que Facebook está permitiendo que su propio interés interfiera con su responsabilidad de proteger la democracia, y que el público y los reguladores deben saber lo que está sucediendo para brindar supervisión. "No se puede encontrar el objetivo de la actividad no auténtica", dijo. "No se puede arreglar algo a menos que se sepa que existe". Una portavoz de Facebook, Liz Bourgeois, dijo: “Estamos fundamentalmente en desacuerdo con la caracterización de la Sra. Zhang de nuestras prioridades y esfuerzos para erradicar el abuso en nuestra plataforma.
“Buscamos agresivamente el abuso en todo el mundo y tenemos equipos especializados enfocados en este trabajo. Como resultado, hemos eliminado más de 100 redes de comportamiento no auténtico coordinado. Aproximadamente la mitad de ellos eran redes nacionales que operaban en países de todo el mundo, incluidos los de América Latina, Oriente Medio y África del Norte, y en la región de Asia Pacífico. Combatir el comportamiento no auténtico coordinado es nuestra prioridad. También estamos abordando los problemas del spam y la participación falsa. Investigamos cada problema antes de tomar medidas o hacer afirmaciones públicas sobre ellos ".
Facebook no cuestionó las afirmaciones fácticas de Zhang sobre su tiempo en la empresa.
DETRÁS DE "LIKE FALSIFICACIÓN"
Zhang había estado trabajando para Facebook durante unos seis meses cuando se dio cuenta de que Juan Orlando Hernández, el presidente de Honduras, estaba acumulando una gran cantidad de me gusta falsos en el contenido que publicó para sus 500.000 seguidores en Facebook. Durante un período de seis semanas, de junio a julio de 2018, las publicaciones de Hernández en Facebook recibieron me gusta de 59.100 usuarios, más del 78% de los cuales no eran personas reales.
El falso compromiso de Hernández se destacó no solo por su volumen, sino por una aparente innovación en la forma en que lo adquirió. La mayoría de los `` me gusta '' falsos en Facebook provienen de cuentas de usuario falsas o comprometidas, pero Hernández estaba recibiendo miles de `` me gusta '' de páginas de Facebook (perfiles de Facebook para empresas, organizaciones o figuras públicas) que se habían configurado para parecerse a cuentas de usuario, con nombres, imágenes de perfil y títulos de trabajo. Un individuo era el administrador de cientos de esas páginas falsas, así como de las páginas oficiales tanto de Hernández como de su difunta hermana, quien se había desempeñado como ministra de Comunicaciones.
Sentado detrás de una pantalla de computadora, el administrador podía publicar una publicación sobre lo bien que Hernández estaba haciendo su trabajo en la página de Facebook del presidente, luego usar sus cientos de páginas ficticias para hacer que la publicación pareciera popular, el equivalente digital de viajar en autobús en una multitud falsa para un discurso. Zhang había sido contratado en enero para trabajar en un equipo relativamente nuevo dedicado a combatir el "compromiso falso": me gusta, comentarios, acciones y reacciones de cuentas no auténticas o comprometidas. Además de distorsionar la percepción del público sobre la popularidad de un contenido, la participación falsa puede influir en el rendimiento de ese contenido en el importantísimo algoritmo de suministro de noticias; es una especie de moneda falsa en el mercado de atención de Facebook.
La gran mayoría de la participación falsa en Facebook aparece en publicaciones o páginas de personas, empresas o marcas y parece tener una motivación comercial. Pero Zhang descubrió que también se estaba utilizando en lo que Facebook llamó objetivos "cívicos", es decir, políticos. El ejemplo más flagrante fue el de Hernández, que estaba recibiendo el 90% de todos los compromisos cívicos falsos conocidos en Honduras en agosto de 2018.
Hernández, nacionalista de derecha que apoyó el golpe militar de Honduras en 2009, fue elegido presidente en 2013. Su reelección en 2017 es ampliamente vista como fraudulenta, y su segundo mandato ha estado marcado por denuncias de abusos contra los derechos humanos y corrupción desenfrenada. Los fiscales federales de Estados Unidos han nombrado a Hernández como co-conspirador en múltiples casos de tráfico de drogas. No ha sido acusado de ningún delito y ha negado haber actuado mal.
Hernández no respondió a las consultas enviadas a su oficial de prensa, abogado y ministro de Transparencia.
Las tácticas que impulsaron a Hernández en línea fueron similares a las que había hecho la Agencia de Investigación de Internet de Rusia durante las elecciones estadounidenses de 2016, cuando creó cuentas de Facebook que pretendían ser estadounidenses y las utilizó para manipular a las personas e influir en los debates políticos en Facebook. Facebook había creado un nombre para esto - "comportamiento no auténtico coordinado" (CIB) - con el fin de prohibirlo.
Pero Facebook inicialmente se resistió a llamar CIB a la actividad hondureña, en parte porque el uso de las páginas de la red para crear personas falsas y un compromiso falso cayó en una laguna seria en las reglas de la empresa. Las políticas de Facebook para garantizar la autenticidad se centran en las cuentas: los usuarios solo pueden tener una cuenta y esta debe utilizar su nombre "real". Pero Facebook no tiene tal regla para las páginas, que pueden realizar muchos de los mismos compromisos que las cuentas, incluidos dar me gusta, compartir y comentar.
Zhang asumió que una vez que alertara a las personas adecuadas sobre su descubrimiento, se investigaría la red de Honduras y se cerraría la laguna legal de las páginas falsas. Pero rápidamente quedó claro que nadie estaba interesado en asumir la responsabilidad de vigilar los abusos del presidente de una nación pobre con solo 4,5 millones de usuarios de Facebook. El mensaje que recibió de todos los rincones, incluso de la inteligencia de amenazas, el pequeño y elitista equipo de investigadores responsables de descubrir las campañas de la CIB, fue que los abusos eran malos, pero los recursos eran escasos y, sin ninguna presión externa, Honduras simplemente no era un prioridad.
"No corresponde a la inteligencia de amenazas investigar un compromiso falso", le dijo a Zhang un investigador de ese equipo. Katie Harbath, la entonces directora de políticas públicas de Facebook para las elecciones globales, expresó su interés en una "forma escalonada de buscar esto y actuar en otras páginas de políticos", pero señaló que era poco probable que el caso recibiera mucha atención fuera de Honduras, y que no lo hizo. "Me siento muy fuerte" al respecto. Otros ejecutivos y gerentes a quienes Zhang informó fueron Samidh Chakrabarti, el entonces jefe de integridad cívica; David Agranovich, líder de disrupción de amenazas globales; y Rosen, vicepresidente de integridad.
"No creo que Honduras esté muy presente en la mente de la gente aquí", le dijo a Zhang un gerente del equipo de integridad cívica en un chat.
Frustrada e impaciente después de meses de inacción, Zhang tomó sus preocupaciones en forma semipública, dentro de los límites de la plataforma de comunicación interna de la empresa. A fines de marzo de 2019, publicó una publicación en un grupo del "equipo central de integridad electoral" de la compañía en la que señalaba que Hernández era "el único presidente nacional que abusaba de Facebook de manera directa, activa y constante para explotar el compromiso falso para sí mismo" y que la empresa conocía el problema desde hacía meses sin hacer nada.
El puesto logró atraer la preocupación de un investigador del equipo de inteligencia de amenazas, pero en abril se produjo una nueva demora cuando la gerencia suspendió temporalmente las investigaciones de los casos de CIB que no involucraban la interferencia de un gobierno extranjero. En junio, el investigador comenzó a trabajar en el caso y rápidamente confirmó los hallazgos de Zhang: había una gran red de CIB en Honduras trabajando para promover a Hernández que estaba vinculada al propio presidente "Esta campaña ha impulsado de manera persistente a un probable presidente ilegítimo en un ARC [país en riesgo]", escribió el investigador en un informe que destaca su probable "impacto IRL [en la vida real]". Las cuentas y las páginas involucradas se establecieron en 2016 y 2017, antes de la reelección disputada de Hernández, señaló el investigador.
El 25 de julio de 2019, casi un año después de que Zhang reportara la red a Facebook, la compañía anunció que estaba eliminando 181 cuentas y 1.488 páginas involucradas en “actividades no auténticas coordinadas y enfocadas a nivel nacional en Honduras”. La campaña estaba "vinculada a personas que administran las redes sociales para el gobierno de Honduras" y había gastado más de $ 23,000 en anuncios de Facebook, dijo Facebook.
Agranovich, el líder global de interrupción de amenazas, elogió a Zhang por su papel en el derribo, escribiendo en un canal de comentarios oficial: “Estas interrupciones eliminaron las redes en Facebook que usaban nuestros servicios para suprimir la expresión democrática, apuntar a usuarios inocentes en nuestra plataforma y habilitar la clandestinidad conflicto geopolítico. Este es uno de los trabajos más importantes en Facebook, y no podríamos haber realizado ninguna de estas eliminaciones sin sus contribuciones ".
En privado, agregó: "El caso de Honduras nunca habría sucedido sin su continua defensa ... Significa que hemos creado un precedente de que el arquetipo de páginas como perfiles es un comportamiento no auténtico".
"NADIE PUEDE ESTAR DE ACUERDO EN QUÉ HACER"
Zhang se sintió fortalecida por su éxito con el derribo de Honduras y creía que el “precedente” del que hablaba Agranovich despejaría el camino para derribos más rápidos en el futuro.
Al día siguiente, presentó una escalada dentro del sistema de gestión de tareas de Facebook para alertar al equipo de inteligencia de amenazas sobre una red de cuentas falsas que apoya a un líder político en Albania. En agosto, descubrió y presentó escaladas para redes sospechosas en Azerbaiyán, México, Argentina e Italia. Durante el otoño y el invierno, agregó redes en Filipinas, Afganistán, Corea del Sur, Bolivia, Ecuador, Irak, Túnez, Turquía, Taiwán, Paraguay, El Salvador, India, República Dominicana, Indonesia, Ucrania, Polonia y Mongolia.
"La mayor parte del tiempo se sentía como intentar vaciar el océano con un cuentagotas", le dijo Zhang a The Guardian.
Las redes a menudo no cumplieron con los criterios cambiantes de Facebook para ser priorizados para las eliminaciones de CIB, que son investigadas por inteligencia de amenazas y anunciadas públicamente, pero aún así violan las políticas de Facebook. Las redes de cuentas falsas se trataron mediante el "control de puntos" de identidad, un proceso mediante el cual un usuario debe proporcionar una prueba de su identidad o su cuenta está bloqueada. La táctica es una forma efectiva de deshacerse de las cuentas no auténticas, aunque hizo poco para abordar el abuso de Page que se llevó a cabo mediante cuentas auténticas. También podría llevarlo a cabo el personal de "operaciones de la comunidad" de Facebook, que superaba en gran medida a los investigadores de inteligencia de amenazas.
Fue a través de la búsqueda de estos casos que Zhang entró en contacto repetido con la burocracia política de Facebook. Parte del personal de políticas de Facebook actúa como una especie de rama legislativa en la aproximación de Facebook a un gobierno global, elaborando las reglas y asesorando al personal de operaciones de la comunidad que las hace cumplir; otros se parecen más a un cuerpo diplomático privatizado, que cuenta con oficinas en todo el mundo para servir de enlace con empresas locales, grupos de la sociedad civil, reguladores gubernamentales y políticos. El personal de políticas también puede proporcionar experiencia en el idioma, la historia y el contexto político de un país o región determinados para informar las decisiones tomadas en la sede de Facebook en Silicon Valley.
La respuesta del equipo de políticas a los casos que descubrió Zhang varió ampliamente. El personal de políticas presionó para que las redes de cuentas falsas en Corea del Sur, Taiwán, Ucrania e Italia fueran investigadas rápidamente, mientras permitían que otras languidecieran durante meses sin acción. "Se sintió un poco como la reacción después de cada tiroteo masivo", dijo Zhang. "La gente está de acuerdo en que es malo, pero nadie puede ponerse de acuerdo sobre qué hacer con él ... así que son solo pensamientos y oraciones".
A veces, Facebook permitió que su propio interés entrara en discusiones sobre la aplicación de las reglas.
En 2019, algunos miembros del personal de Facebook sopesaron dar a conocer el hecho de que un político de la oposición en Filipinas estaba recibiendo un compromiso falso con guión de baja calidad, a pesar de no saber si el político estaba involucrado en la adquisición de me gusta falsos. La empresa tenía "incentivos estratégicos para publicitar", dijo un investigador, ya que el político había sido crítico con Facebook. "Estamos recibiendo críticas de los partidarios de Duterte con los recientes derribos, y podría ser útil anunciar que tenemos otro derribo que involucra a otros candidatos", agregó un gerente de políticas públicas.
No se tomó ninguna medida después de que Zhang señaló que era posible que Duterte o sus partidarios estuvieran intentando "incriminar" al político de la oposición comprando me gusta falsos para que parezcan corruptos. Pero discusiones como esta se encuentran entre las razones por las que Zhang ahora argumenta que Facebook necesita crear una separación entre el personal responsable de hacer cumplir las reglas de Facebook y los responsables de mantener buenas relaciones con los funcionarios del gobierno.
Ella sospecha que el conflicto de intereses inherente al departamento de políticas explica por qué decidió mantener la laguna legal en las reglas de Facebook sobre el uso de páginas falsas. En 2019, el equipo aceptó la propuesta de Zhang de prohibir el uso de páginas no auténticas para crear un compromiso falso. Sin embargo, una propuesta separada de Zhang para castigar a los abusadores más prolíficos prohibiendo sus cuentas personales fue rechazada, y el personal de políticas citó la incomodidad de tomar medidas contra personas conectadas a cuentas de alto perfil, como el administrador de Page para el presidente de Honduras.
La falta de un mecanismo de aplicación sigue siendo una laguna en las políticas de Facebook; incluso si la empresa elimina docenas de páginas falsas, no hay nada que impida que un usuario con una cuenta auténtica cree docenas de páginas nuevas al día siguiente. "Si la gente comienza a darse cuenta de que hacemos excepciones para los administradores de Page de presidentes o partidos políticos, estos operadores pueden eventualmente darse cuenta de eso y ejecutar deliberadamente su CIB fuera de los canales más oficiales", dijo a Zhang un investigador del equipo de integridad cívica con conmiseración después de su propuesta fue rechazada.
ENCONTRAR "LA PRIORIZACIÓN CORRECTA"
Incluso cuando Zhang descubrió nuevas operaciones de influencia, regresó una antigua. En octubre de 2019, descubrió que la red de Honduras se estaba reconstituyendo y que había poco apetito por parte de la inteligencia de amenazas para eliminarla nuevamente. Facebook dice que monitorea las redes CIB en busca de esfuerzos para regresar utilizando métodos manuales y automatizados, y que "continuamente" elimina nuevas páginas y cuentas conectadas a las redes.
Cuando Zhang se quejó de la falta de acción en otra publicación interna en diciembre, recibió una respuesta de Rosen que fue ejemplar de cómo Facebook justificó ignorar los abusos en países pequeños o pobres que no habían logrado atraer la atención de la prensa: refiriéndose a la miríada de marcos de priorización de la empresa. .
Facebook se había "movido más lento de lo que nos gustaría debido a la priorización" en el caso de Honduras, escribió Rosen. "Es un fastidio que haya vuelto y estoy emocionado de aprender de esto y comprender mejor lo que tenemos que hacer de manera sistemática", agregó. Pero también la reprendió por hacer una denuncia pública, diciendo: “Mi preocupación es que temas como este pueden socavar a las personas que se levantan por la mañana y hacen todo lo posible para tratar de averiguar cómo gastar el tiempo y la energía finitos que tenemos. todos tienen y ponen su corazón y su alma en ello ".
Rosen se había unido a Facebook en 2013, cuando la empresa adquirió su startup, Onavo, una empresa de análisis web móvil que Facebook utilizaría para rastrear el uso de aplicaciones rivales. En Facebook, Rosen dirigió el proyecto Internet.org y fue vicepresidente de crecimiento antes de ser nombrado vicepresidente de integridad, supervisando los esfuerzos de seguridad, integridad y protección de la empresa.
Tras el despido de Zhang y la publicación de su publicación de despedida por BuzzFeed News, Rosen minimizó la importancia de los abusos que había descubierto y escribió en Twitter: "Con el debido respeto, lo que describe son me gusta falsos, que eliminamos de forma rutinaria mediante la detección automática. Como cualquier equipo de la industria o el gobierno, damos prioridad a detener las amenazas más urgentes y dañinas a nivel mundial. Me gusta falsos no es uno de ellos ".
Pero Zhang había hablado de su trabajo, que no se limitaba a me gusta falsos, con Rosen en múltiples ocasiones. En abril de 2019, después de que ella le informara en privado sobre la situación de Honduras, él la animó a ceñirse a las prioridades establecidas por la gerencia, diciendo: “Tenemos literalmente cientos o miles de tipos de abuso (seguridad laboral en la integridad, ¡eh!)… Eso es por qué deberíamos empezar desde el final (países principales, áreas de máxima prioridad, factores que impulsan la prevalencia, etc.) e intentar avanzar un poco hacia abajo ".
En diciembre de 2019, en una conversación privada que siguió a la reincidencia de Honduras, Zhang le dijo a Rosen que le habían informado que la inteligencia de amenazas solo priorizaría campañas en "los EE. UU. / Europa occidental y adversarios extranjeros como Rusia / Irán / etc.", un marco Rosen respaldó, diciendo: "Creo que esa es la priorización correcta".
Zhang respondió: “Entiendo que EE. UU., Europa occidental, etc. es importante, pero para una empresa con recursos efectivamente ilimitados, no entiendo por qué esto no puede estar en la hoja de ruta para nadie ... Un gerente de respuesta estratégica me dijo que el mundo fuera de EE. UU. / Europa era básicamente como el salvaje oeste conmigo como dictador a tiempo parcial en mi tiempo libre. Consideró que era un desarrollo positivo porque, según su conocimiento, nadie lo cubrió antes de enterarse del trabajo que estaba haciendo ".
Rosen respondió: "Ojalá los recursos fueran ilimitados". En ese momento, la compañía estaba a punto de reportar ganancias operativas anuales de $ 23,9 mil millones sobre $ 70,7 mil millones en ingresos. Tenía 54.860 millones de dólares en efectivo a la mano.
"LIMITAR EL MEME QUE NO PODEMOS CONTROLAR FACEBOOK"
En Facebook, todas las métricas de priorización se fueron por la ventana en el momento en que la prensa o el público en general se enteró de algo.
En septiembre de 2018, por ejemplo, Zhang alertó al equipo de políticas que Alejandro Murat Hinojosa, el gobernador de Oaxaca, México, estaba recibiendo cantidades sustanciales de compromiso falso. No se hizo nada hasta el 7 de enero de 2019, cuando el equipo de inteligencia de amenazas recibió un borrador de un artículo del DFRLab del Atlantic Council que exponía me gusta sospechosos de cuentas de Facebook del sur de Asia en las páginas de Murat. De repente, los me gusta falsos se consideraron una escalada de alta prioridad, y se contrató a Zhang para eliminarlos.
Sin embargo, no se hizo ningún esfuerzo por investigar la fuente del compromiso falso ni para abordar el problema más amplio del compromiso falso en la política mexicana. En agosto de 2019, Zhang presentó tareas de escalada para redes sospechosas de cuentas que apoyan a políticos locales en siete estados mexicanos; en diciembre de 2019, actualizó la tarea para incluir un total de 18 redes que actúan sobre políticos locales y estatales, incluida una que nuevamente apoya a Murat. Las redes no se priorizaron y se dejaron en funcionamiento hasta agosto de 2020, cuando, 360 días después del informe de Zhang, finalmente se comprobaron más de 5.000 cuentas falsas.
Si la actividad no auténtica atrae la atención de la prensa o del público es un mal indicador de cuán grave es, argumenta Zhang.
Durante las elecciones generales del Reino Unido de 2019, el público se alarmó por oleadas de comentarios idénticos y de apoyo en la página de Facebook de Boris Johnson. Zhang fue arrastrado a múltiples escaladas de "alta prioridad" para investigar los comentarios, que no provenían de los presuntos "bots rusos", sino que eran el resultado de partidarios del Brexit en la vida real que se hacían pasar por bots rusos para engañar a los votantes laboristas. .
El mismo Rosen alteró una vez una política de Facebook para evitar un incendio de relaciones públicas. El 7 de septiembre de 2018, dos días antes de las elecciones generales de Suecia, Facebook recibió un aviso de un próximo artículo del Atlantic Council DFRLab que planteaba preguntas sobre los niveles desproporcionados de participación con el partido de extrema derecha Alternativa para Suecia (AfS). AfS, un grupo marginal sin escaños en el parlamento, de alguna manera estaba adquiriendo casi tantos me gusta de Facebook en su contenido como el partido político más grande de Suecia.
Se le pidió a Zhang que investigara y descubrió que, si bien la actividad de AfS estaba coordinada, no era falsa; no violó ninguna de las políticas de la empresa. Sin embargo, Rosen presionó para tomar medidas contra sus cuentas de activistas, argumentando en un hilo de correo electrónico a los ejecutivos Joel Kaplan, Monika Bickert, Nathaniel Gleicher y Rachel Whetstone: “Aunque llegamos tarde aquí, todavía parece mejor hacer algo y hablar de ello que no hacer nada. Si pensamos que es lo correcto ".
Varios ejecutivos respondieron negativamente, señalando que estaba proponiendo crear una nueva política contra un comportamiento que Facebook había alentado a los usuarios a tomar (compartir publicaciones en grupos de Facebook) y aplicarla horas antes de que comenzara la votación en una elección nacional. Rosen los anuló e implementó la nueva política. Whetstone elaboró un plan de comunicaciones en caso de que la prensa hiciera alguna pregunta. Los "objetivos" declarados del plan incluían "Limitar el meme de que somos lentos para detectar el uso indebido, y que no podemos controlar Facebook" y "Limitar el meme de que no podemos controlar nuestros sistemas, o somos demasiado lentos para detectar estos diferentes tipos de abusos". ”.
CÓMO EL ABUSO GENERALIZADO "CAE A TRAVÉS DE LAS GRIETAS"
De todos los casos de comportamiento poco auténtico que descubrió Zhang, el que más le preocupaba, y que más tiempo tardó en eliminar, fue el de Azerbaiyán. Era uno de los más grandes que había visto, y claramente se estaba utilizando para apuntalar un régimen autoritario con un historial atroz en materia de derechos humanos.
La red azerbaiyana usó la misma táctica que se vio en Honduras: miles de páginas de Facebook configuradas para parecerse a cuentas de usuario, pero en lugar de crear me gusta falsos, las páginas se usaron para acosar. Durante un período de 90 días en 2019, produjo aproximadamente 2,1 millones de comentarios negativos y hostigadores en las páginas de Facebook de líderes de la oposición y medios de comunicación independientes, acusándolos de ser traidores y elogiando al líder autocrático del país, el presidente Ilham Aliyev, y su partido gobernante. , el YAP.
Facebook no empleó a un miembro del personal dedicado a las políticas ni a un especialista en el mercado para Azerbaiyán, y ni sus equipos de políticas de Europa del Este ni del Medio Oriente se responsabilizaron por ello. Finalmente, Zhang descubrió que se suponía que el equipo de políticas de Turquía cubriría la ex república soviética, pero ninguno de ellos hablaba azerí ni tenía experiencia en el país. En agosto de 2020, Facebook no tenía empleados de operaciones a tiempo completo o por contrato que se supiera que hablaran azerí, lo que dejaba que el personal usara Google Translate para tratar de comprender la naturaleza del abuso.
Facebook tardó hasta diciembre de 2019 en asignar a alguien para que investigara la campaña de acoso, y hasta enero de 2020 para que comenzara esa investigación. A principios de febrero, el investigador había establecido que la campaña estaba "claramente relacionada con el partido gobernante YAP". Pero un mes después, sin explicación, el investigador cambió el nivel de prioridad en la escalada de "alto" a "bajo". Una vez más, Zhang había descubierto una operación de influencia de un gobierno no democrático contra su propio pueblo, y una vez más Facebook estaba demorando. (El YAP no respondió a las consultas de The Guardian).
Zhang volvió a presionar internamente para que se priorizara el caso de Azerbaiyán. "El liderazgo me ha dicho directamente que debería ignorar estos casos porque si tienen un impacto, eventualmente recibiremos críticas de relaciones públicas y motivaremos un cambio", dijo durante una presentación en una cumbre interna de 2020 centrada en temas de integridad cívica, según sus notas. "La suposición es que si un caso no recibe la atención de los medios, no representa ningún riesgo social ... ¿Cuál es nuestra responsabilidad cuando el riesgo social difiere del riesgo de relaciones públicas?"
En agosto de 2020, tras la noticia de que Aliyev estaba tomando medidas enérgicas contra los líderes de la oposición y los periodistas, Zhang volvió a llevar su caso al grupo interno de “discusiones sobre integridad electoral”. "Desafortunadamente, Facebook se ha vuelto cómplice por inacción en esta represión autoritaria", escribió. "Aunque vinculamos de manera concluyente esta red a elementos del gobierno a principios de febrero, y hemos recopilado una amplia evidencia de su naturaleza violadora, se tomó la decisión efectiva de no priorizarla, haciendo la vista gorda".
La publicación pública interna ayudó a impulsar una respuesta real, con un investigador en integridad cívica que declaró la campaña de acoso "una de las peores cosas que he visto" y prometió "gastar algo de capital político" para ver que se tomen medidas. La inteligencia de amenazas retomó la escalada, y un investigador le explicó a Zhang que "probablemente se había olvidado".
A fines de agosto, la inteligencia sobre amenazas había encontrado "pruebas sólidas" de la participación del YAP y se estaba preparando para establecer el alcance completo de la red. Sin embargo, Zhang no estaría en Facebook para ver el eventual anuncio de CIB y la eliminación de 589 cuentas de Facebook, 7.665 páginas y 437 cuentas de Instagram vinculadas a la Unión Juvenil del YAP el 8 de octubre.
Fue despedida por bajo desempeño a mediados de agosto de 2020, como resultado de que pasó demasiado tiempo concentrada en desarraigar el compromiso cívico falso y no tuvo suficiente tiempo en las prioridades descritas por la gerencia. Su salud mental y su desempeño laboral habían sufrido severamente bajo la presión de intentar hacer ambas cosas y el estrés de la pandemia de coronavirus.
"No debería haber sido mi trabajo, pero al final del día, yo era la única que estaba tomando decisiones con respecto a estos casos", le dijo a The Guardian. “Si una red fue eliminada o no, se basó efectivamente en cuánto elegí impulsarla, cuánto elegí gritarle a otras personas al respecto. "Todavía tengo problemas para dormir por la noche, a veces", agregó. "Fue muy abrumador y frustrante porque, francamente, nunca debería haber tenido tanta responsabilidad y poder".
En su último día, revisó la lista de tareas pendientes que había presentado sobre redes aún activas de cuentas no auténticas, ejecutando consultas y dejando notas para el personal que esperaba que retomara su trabajo después de su partida. Había 200 cuentas sospechosas que seguían impulsando a un político en Bolivia, registró; 100 en Ecuador, 500 en Brasil, 700 en Ucrania, 1,700 en Irak, 4,000 en India y más de 10,000 en México.
Luego hizo una actualización final al archivo sobre Honduras, escribiendo: “Cuando salgo de la empresa hoy, hice un barrido final en Honduras y encontré lo que parecen ser ~ 130 usuarios reincidentes todavía activos en el presidente [Juan Orlando Hernández ]… Me doy cuenta de que esto no se priorizará ni se abordará, pero deseo proporcionar una actualización para que esté completo independientemente ".