Sophie Zhang trabajó durante tres años como analista de datos de Facebook, hasta que fue despedida en el 2020. En su último día, publicó un informe de 7,800 palabras en el foro interno de la empresa, algo común —aunque no su extensión— cuando un empleado se va. En el informe, sacado a la luz primero por Buzzfeed, presentó pruebas de que gobiernos como los de Azerbaiyán y Honduras usaban cuentas falsas para influir en la opinión pública. Y en naciones como Ecuador y la India, Zhang encontró indicios de actividades coordinadas pensadas para manipular la opinión pública, aunque no estaba claro quién estaba detrás de ellas. Facebook, afirmó, no tomó en serio sus hallazgos.
La experiencia vivida hizo que Zhang llegase a una drástica conclusión: “Tango sangre en mis manos”.
PUBLICIDAD
Facebook no cuestiona los hechos mencionados en el informe de Zhang, pero resta importancia a sus conclusiones.
“Tenemos serias diferencias con la descripción que hace la señora Zhang de nuestras prioridades y de nuestros esfuerzos por eliminar los abusos de nuestra plataforma”, expresó Facebook en un comunicado. “Como parte de nuestra batalla contra este tipo de abusos, tenemos equipos especializados que se enfocan en este trabajo y han eliminado más de 150 redes de comportamiento inauténtico coordinado. Aproximadamente la mitad de ellas eran redes domésticas que operaban en América Latina, el Medio Oriente, el norte de África y la región pacífica de Asia”.
PEREGUNTA: ¿Por qué fue despedida por Facebook?
RESPUESTA: Se habla de mí por el trabajo que hice para proteger elecciones. Pareciera algo muy importante, pero en Facebook era una empleada de bajo nivel. Y esa no era mi tarea oficial. Lo hacía en mi tiempo libre, con el conocimiento y la aprobación de los jefes, desde ya. Al principio la compañía apoyaba esta iniciativa. Preo gradualmente perdieron la paciencia conmigo. No estaba rindiendo.
P: En su informe dice que tiene sangre en sus manos. ¿Por qué dice eso?
PUBLICIDAD
R: El que hiciesen algo o no dependía de lo mucho que insistiese yo, del ruido que hiciese.
Sé que tomaron muchas decisiones que se hicieron sentir en los países en los que trabajaban. Estados Unidos está muy afectada por lo que pasó en el 2016 con la manipulación rusa a través de Facebook. Para países como Honduras o Azerbaiyán, esta es su Rusia. Pero no lo hace otra potencia, sino su propio gobierno. Y sin siquiera tratar de ocultarlo.
Hice lo que pude a partir de la información que tenía. Pero soy solo una persona. A veces esperé más de lo debido. Con este nivel de responsabilidad, das lo mejor de ti, pero a veces eso no alcanza.
P: ¿Cómo fue que empezó a hacer ese trabajo?
R: Cuando ingresé a la empresa, igual que tanta gente, estaba muy afectada por lo de Rusia en el 2016. Decidí buscar relaciones entre actividades inauténticas y blancos políticos. Y empecé a encontrar resultados en muchos sitios, sobre todo en lo que llamamos el sur global, en Honduras, Brasil y la India.
Honduras me llamó la atención porque tenía una gran cantidad (de comportamientos inauténticos) comparado con los demás. Comprendí que era una actividad muy poco sofisticada. Bots, literalmente. Y me di cuenta de que era básicamente una “granja de trolls” manejada abiertamente por un empleado de la presidencia de Honduras. Y me pareció algo horrible.
P: ¿Qué hizo usted?
R: Lo hablé a nivel interno. Básicamente todo el mundo admitió que era algo malo. Nadie quiere defender este tipo de actividades, pero la gente no se ponía de acuerdo en torno a quién tenía que lidiar con eso.
Yo traté desesperadamente de encontrar alguien que se interesase. Hablé con mi jefe y con su jefe. Hablé con los encargados de inteligencia. Con muchos equipos abocados a la integridad. Me tomó un año hacer que pasase algo.
P: Usted dice que hay una lista de países prioritarios. ¿Qué pasa con los países que no están en esa lista?
R: No hay una regla fija. Facebook interviene en países pequeños. Pero en general lo hace en reacción a denuncias de afuera: Información de grupos de oposición, de ONGs, investigaciones periodísticas, informes de la CIA, etc. Sin embargo, en estos casos nadie de afuera se quejaba.
P: Dados los recursos que tiene Facebook, ¿por qué no puede priorizar todos los países?
R: Por un lado, estas cosas toman tiempo. Pero sospecho que, si realmente creían que era algo importante, hubieran tomado medidas que no han tomado. Hubieran preparado mejor los equipos de integridad. Y ciertamente no me hubieran despedido a mí.
P: ¿La gente que sigue en Facebook trata de corregir esto?
R: Como todos, son gente común, que quiere un trabajo de 9 a 6 y que al final del día quiere irse a su casa y dormir bien.
Además, hay una selección natural. Si piensas que Facebook es perverso, no vas a trabajar allí.
Aunque hay mucha gente que quiere mejorar las cosas. Yo fue clara cuando me uní a Facebook. No creo que Facebook ayuda a crear un mundo mejor. Y les dije que quería cambiar eso.
P: ¿Quién hace el trabajo que hacía usted?
R: No sé. Yo era la única que trataba de detectar estos comportamientos por mi cuenta, sin esperar que alguien nos dijese lo que estaba pasando. Y la razón por la que detecté tantas cosas con tanta facilidad es que están allí, a plena vista.
P: Facebook dice que está eliminando muchas cuentas inauténticas y trató de restar mérito a sus denuncias.
R: Es una respuesta típica de Facebook. En realidad, no están respondiendo a la pregunta. Supongamos que su esposa le dice, “¿lavaste los platos ayer?” y usted responde, “les daba prioridad a los platos. Quería asegurarme de que están limpios. No quiero que haya platos sucios”. Es una respuesta que tiene sentido, pero que realmente no responde nada.