Por primera vez, y bajo fuerte presión, Facebook reveló datos internos sobre la dimensión y naturaleza de los abusos que ocurren en la red social.
Según esa información publicada, el contenido violento se ha incrementado dramáticamente y los discursos de odio siguen aumentando, pero parece que ahora hay un control más estricto sobre la propaganda terrorista.
PUBLICIDAD
Faltan algunas estadísticas clave, como la frecuencia con la que Facebook elimina algo por equivocación o deja algo que debería ser borrado, o la cantidad total de abusos publicados en la red.
En este último caso, la razón de no publicarlo es sencilla: Facebook simplemente no lo sabe. Pero la red social ofrece estimaciones que ayudan a hacerse una idea de lo que está pasando.
Repunte de violencia
Los datos publicados se refieren a dos periodos de tres meses: el primer trimestre de 2018 y el último de 2017.
Facebook dividió el contenido en varias categorías:
- violencia gráfica
- desnudez de adultos y contenido sexual
- spam
- incitación al odio
- cuentas falsas
Respecto a lo último, la compañía calcula que entre el 3% y el 4% de todos sus usuarios activos son falsos, y dice que ha retirado 583 millones de cuentas falsas entre enero y marzo.
PUBLICIDAD
Las cifras indican que la violencia gráfica aumentó enormemente: un 183% más entre cada periodo de tiempo incluido en el informe.
Facebook eliminó 3,4 millones de piezas, la mayoría de las cuales -el 86%- fueron detectadas por su sistema automatizado.
La automatización también jugó un rol muy importante en la detección de contenido sexual, spam y, sobre todo, terrorismo.
De las 1,9 millones de piezas de contenido extremista eliminadas entre enero y marzo, Facebook dice que detectó un 99,5% antes de que hubieran tenido la oportunidad de circular.
Se espera que estos datos sean acogidos con agrado por los gobiernos, particularmente en Estados Unidos y Reino Unido, quienes pidieron a la red social que dejara de difundir material por parte de grupos como el autodenominado Estado Islámico.
"Están dando los pasos adecuados para definir claramente qué es y qué no es un discurso protegido en su plataforma", le dijo a la BBC Brandie Nonnecke, del Centro para la Investigación de la Tecnología de la Información en el Interés de la Sociedad de la Universidad de California, en Estados Unidos.
Pero advirtió: "Facebook tiene en sus manos mucho trabajo por delante".
- La agotadora rutina de los moderadores de Facebook que deben ver publicaciones de contenido violento
"Salir gritando del armario"
La complejidad de ese trabajo se evidencia a la hora de considerar los discursos de odio, una categoría mucho más difícil de controlar a través de la automatización.
De las 2,5 millones de piezas de contenido que se consideró que incitaban al odio y fueron abordadas, los sistemas automáticos de Facebook detectaron tan solo el 38%. El resto fueron identificadas por personas a través de la función de denuncias de la red social.
La tarea de decidir lo que debe permanecer en la red social y lo que debe ser borrado fue difícil, y la compañía reconoce que su razonamiento no siempre fue el correcto.
"Hay matices, hay contextos que la tecnología todavía no puede resolver", explicó Alex Schultz, director de análisis de datos de la empresa.
"Así que en esos casos nos apoyamos mucho en nuestro equipo de revisión, que toma la decisión final sobre lo que debe hacerse".
Como ejemplo, Schultz dijo que hay palabras que se consideran insultos si se pronuncian para emitir un ataque homofóbico, pero adquieren otro significado cuando son usadas por personas homosexuales.
Por lo tanto, borrar todas las publicaciones con un término en concreto sería una elección equivocada.
"¿Pero cómo puedes saber si soy gay cuando estás revisando mi perfil?", preguntó retóricamente el director de análisis.
"Yo lo puse en la parte superior de mi perfil: salí gritando del armario, soy abiertamente gay".
"Pero no todo el mundo lo es y no tenemos manera de saberlo. Es un problema muy complejo".
Muestras preocupantes
En un intento de descubrir lo que se le pudo haber pasado por alto, la red social llevó a cabo un muestreo aleatorio.
Escogió 10.000 publicaciones de Facebook y tomó nota de la frecuencia con la que habían sido violadas sus políticas.
Los resultados fueron preocupantes.
Según las muestras, hasta 27 publicaciones de cada 10.000 contenían algún tipo de violencia gráfica. Teniendo en cuenta que 1.500 millones de personas usan el servicio cada día, eso podría traducirse en decenas de millones de publicaciones violentas que no se comprueban cada día.
La misma técnica permitió calcular que entre siete y nueve posts de cada 10.000 incluían desnudos de adultos o contenido sexual.
La cantidad de material relacionado con el terrorismo fue demasiado pequeña usando este proceso, dijo Schultz. Y en cuando a los discursos de odio, la compañía carecía de "datos confiables".
"Actualmente, no podemos medir cuán prevalecientes fueron las violaciones a los discursos de odio en Facebook porque cuando les pedimos a nuestros representantes que lo comprobaran, resultó que era muy difícil precisar qué era una incitación al odio".
"Cometemos errores y estamos tratando de hacerlo mejor y tomar medidas".
"Es muy difícil"
Pero Dottie Lux, una organizadora de eventos en San Francisco, EE.UU., que hace campaña en contra de los fallos de Facebook a la hora de incluir a grupos minoritarios, considera que la complejidad de la tarea no es una excusa válida.
"Se me está acabando la simpatía cuando escucho ’Esto es muy difícil’, porque realmente no es algo nuevo", sostiene en declaraciones a la BBC.
"Encuentran tiempo para lanzar aplicaciones de citas, para adjuntar mi cuenta bancaria… pero no para averiguar quiénes son sus usuarios".
Lux, que se describe a sí misma como una "lesbiana judía con una perspectiva judía gay" dijo que confiar en las denuncias de usuarios de Facebook sobre los discursos de odio es básicamente un error porque también se puede utilizar para silenciar a los demás.
"Le dan a personas con malas intenciones la posibilidad de actuar maliciosamente".
Ejército de moderadores
Facebook cuenta con una red de más de 17.000 moderadores, pero la empresa es especialmente discreta a la hora de decir quiénes son.
La firma asegura que trata de cerciorarse de que quienes trabajan en Estados Unidos tengan una buena comprensión de la cultura local y de incidentes en otros países.
Pero Lux siente que la compañía necesita ser más abierta.
"Si contratas personas que no existen en determinados círculos sociales, diferentes culturas, no va a ser efectivo".
"Solo seguirá perpetuando el mismo problema", lamenta.
Desde la popular red social, por su parte, aseguran que están en un proceso de aprendizaje.
"A medida que crecemos y mejoramos, a medida que aprendemos cuál es la forma correcta de hacerlo, perfeccionaremos la metodología", explicó a la BBC el director de gestión de producto de Facebook, Guy Rosen.
"Estaremos abiertos a los cambios y a cómo estamos haciendo las cosas".
Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.