En 2016, Sarah Katz fue una de los cientos de moderadores humanos que trabajan para una agencia de terceros en California. "La agencia fue muy directa sobre qué tipo de contenido veríamos, en términos de qué tan gráfico era, así que no nos quedamos en la oscuridad". Su trabajo consistía en revisar las quejas sobre el contenido inapropiado, según lo señalado por los usuarios de #Facebook. "Nos impidieron gastar alrededor de un minuto por publicación para decidir si era spam y si eliminar el contenido", dijo. "A veces también eliminamos la cuenta asociada. A la gerencia le gustaba que no trabajáramos más de ocho horas por día, y revisábamos un promedio de aproximadamente 8,000 publicaciones por día, por lo que aproximadamente 1,000 publicaciones por hora. Aprendes bastante en el trabajo, específicamente el primer día. Si tuviera que describir el trabajo en una palabra, sería extenuante [VIDEO]"

Imagenes ilegales

"Definitivamente tienes que estar preparado para ver cualquier cosa con solo un clic.

Puedes ser golpeado con cosas realmente rápidas sin previo aviso. La pieza de contenido que me queda es una porción de pornografía infantil. Dos niños, el niño tenía unos 12 años y la niña unos ocho o nueve años, de pie uno frente al otro. No usaban pantalones y se tocaban entre sí. Parecía que un adulto probablemente no estaba frente a la cámara diciéndoles que hacer. Era muy perturbador, sobre todo porque se notaba que era real".

"Muchas de estas publicaciones explícitas circulan. A menudo las veíamos aparecer de aproximadamente seis usuarios diferentes en un día, por lo que era bastante difícil encontrar la fuente original. En ese momento no había nada en el camino de los servicios de asesoramiento. Puede haber hoy, no estoy segura". Sarah dice que probablemente habría tomado consejería si se la hubieran ofrecido. Definitivamente te advierten, pero advertirte y verlo realmente son diferentes. Algunas personas piensan que pueden manejarlo y resulta que no pueden, o en realidad es peor de lo que esperaban".

"Te vuelves bastante insensible a ello con el tiempo. No diría que sea más fácil, pero definitivamente te acostumbras. Obviamente, había mucha pornografía genérica entre adultos que aceptaban, lo cual no era tan perturbador. Hubo algo de bestialidad. Había uno con un caballo que seguía circulando. Hay mucha violencia gráfica, hubo una cuando a una mujer le volaron la cabeza. La mitad de su cuerpo estaba en el suelo y el torso hacia arriba todavía estaba en la silla. La política era más estricta para eliminar la pornografía que para la violencia gráfica".

Noticias falsas

"Creo que Facebook fue atrapado por noticias falsas. En el período previo a las elecciones estadounidenses, parecía muy fuera del radar, al menos en el momento en que yo estaba trabajando allí. Realmente no recuerdo haber escuchado nunca el término 'noticias falsas'. Vimos una gran cantidad de artículos de noticias que estaban circulando e informados por los usuarios, pero no recuerdo que la gerencia nos pidiera que buscáramos artículos de noticias para asegurarnos de que todos los hechos fueran precisos.

Es muy monótono, y realmente te acostumbras a lo que es spam y lo que no. Simplemente se convierte en un montón de clics.

"¿Lo recomendaría? Si pudieras hacer cualquier otra cosa, diría que no".

Facebook responde

La BBC compartió la historia de Sarah con Facebook [VIDEO]. En respuesta, un portavoz de Facebook dijo: "Nuestros revisores desempeñan un papel crucial para hacer de Facebook un entorno seguro y abierto. Este puede ser un trabajo muy desafiante, y queremos asegurarnos de que se sientan debidamente respaldados. Es por eso que ofrecemos capacitación regular, asesoramiento y apoyo psicológico a todos nuestros empleados y a todos los que trabajan para nosotros a través de nuestros socios Aunque usamos inteligencia artificial cuando podemos, ahora hay más de 7.000 personas que revisan el contenido en Facebook, y cuidar de su bienestar es una verdadera prioridad para nosotros". #Moderador