menu
Topo

Retratos

Instantâneos de realidade do Brasil e do mundo

Faxineiros de Facebook: a vida de quem trabalha limpando "sujeira da rede"

Divulgação
Cena do filme "The Cleaners" Imagem: Divulgação

Nina Lemos

Colaboração para Universa

12/07/2018 04h00

“Trabalhar como moderador do Facebook me fez perder a fé na humanidade.” Quem fala isso é Luiza, nome fictício, uma paulistana que mora em Berlim. Por um ano, ela trabalhou como “faxineiro virtual” da rede social. Sim, isso existe. A maioria do “lixo virtual” produzido no Brasil, por exemplo, é limpada na Europa.

Sabe aquelas mensagens que são bloqueadas todos os dias na rede por terem ódio, imagens de maltrato a animais, pornografia. Ou, simplesmente, mamilos? Tudo que não se encaixa na política interna da empresa não desaparece do nada. O lado sujo do Facebook precisa ser limpado (pelo menos em parte). E isso acontece em centros de moderação espalhados pelo mundo.

Veja também 

Nesses centros, milhares de funcionários passam os dias olhando mensagens e apertando duas teclas: delete ou ignore; esta faz com que o conteúdo permaneça na rede social.

Pedofilia e suicídio

Casos de estresse e trauma estão entre os efeitos colaterais desse tipo de trabalho.

Um recente documentário alemão chamado “The Cleaners” (Os Faxineiros), dos diretores Hans Block e Moritz Riesewiec, lançado em março, investigou a rotina de cinco funcionários de um centro de moderação em Manila, nas Filipinas. Ali, entre sons de "apaga" e "ignora”, funcionários contam que já chegaram a moderar 25 mil fotos por dia. Uma ex-empregada conta que nunca mais conseguiu esquecer a imagem de uma criança fazendo sexo oral em um adulto.

Algumas imagens de violência, acompanhadas do som de “delete”, “ignore”, faz com que o filme seja quase um documentário de terror.

Um caso no filme é especialmente assustador. Um funcionário, que fala em off, conta que um colega se matou. Esse homem trabalhava justamente examinando casos de suicídio e automutilação. Segundo o documentário, a empresa era terceirizada e “abafou o caso.”

Nem todas as experiências são tão radicais. Luiza se acostumou a passar dias vendo fotos de pornografia e armas sem se abalar muito emocionalmente. Em geral, avaliava cerca de 1.500 fotos e vídeos por dia.

Apesar de nunca ter, por exemplo, chorado no trabalho, lembra de ver uma colega largar o computador aos prantos depois de ver um caso de maltrato a animais.

“Violência contra animais e pedofilia geralmente são as coisas que mais mexem com as pessoas. Quem tem filho e cobre a área de pedofilia fica muito atordoado”, conta.

Não por acaso, na empresa, um psicólogo e um assistente social estão disponíveis para conversar com os funcionários.

Há um tempo, a repórter ouviu essa frase de uma amiga que trabalha como moderadora de um país do Oriente Médio. “Hoje eu vi uma cabeça ser arrancada”. Ela contou que teve apoio dos colegas e superiores para lidar com o choque.

Trabalho terceirizado

O Facebook não informa ao certo onde ficam seus campi de “limpeza” no mundo. Mas, segundo o jornal alemão "The Local", o de Berlim é um dos maiores, com mais de 500 funcionários.

Trata-se de um escritório parecido com um call center, terceirizado pelo Facebook, e que pertence a uma empresa alemã. Os escritórios ocupam andares de três prédios estilo fábrica descolada. É lá que os “faxineiros virtuais” decidem o que deve ser deletado e o que pode continuar. Segundo os relatos, é também ali que a maioria das mensagens produzidas no Brasil e que não se encaixa nas políticas do Facebook vai parar, assim como conteúdos produzidos na Europa e no Oriente Médio.

Nina Lemos
O Facebook não informa ao certo onde ficam seus campus de “limpeza. Mas, segundo o jornal alemão "The Local", o de Berlim é um dos maiores, com mais de 500 funcionários Imagem: Nina Lemos

Como isso funciona?

Segundo Luiza, os faxineiros recebem mensagens aleatórias. Os computadores já são capazes de peneirar as imagens e palavras que não se encaixam nas políticas do Facebook. Mas a maioria delas precisa de um “olhar humano” de checagem.

“Seu trabalho não é inventar nada, é apenas seguir as guidelines. E, com ele, você vai treinando o computador. Isso quer dizer que parte do trabalho é fazer com que ele se torne dispensável em alguns anos”. 

Liga da justiça

Nem todo mundo aguenta o ritmo. “Fiz três semanas de treinamento e desisti. Além de pagar mal (o salário mínimo da Alemanha é equivalente a R$ 5 mil), esse é um trabalho que pode causar danos para sempre”, diz Mário, nome também fictício, um brasileiro de 45 anos, radicado em Berlim.

Durante esse treinamento, ele diz, você é apresentado a política das empresas. “Comecei a questionar algumas coisas. Como, por exemplo, por que fotos de crianças portando armas são liberadas e obras de arte de corpos nus são proibidos. Mas não existe lugar para questionamentos. Você tem que seguir o que está escrito e pronto”.

No início do treinamento, ele diz, chegou a se entusiasmar. “Eles colocam na nossa cabeça que estamos mudando o mundo, fazendo uma coisa boa, que é deixar a rede com um conteúdo mais legal para as pessoas. Acreditei. Fiquei me sentindo um integrante da liga da justiça, pensando: “olha, que coisa boa eu estou fazendo para o mundo!". 

Bastaram três semanas para que ela pensasse diferente. “Vi que não era nada daquilo. Como o Facebook pode, por exemplo, decidir se uma obra de arte pode ser vista pelas pessoas ou não? No fim, achei que era uma manipulação tão grande, que até eu tinha sido manipulado”.

Luiza, ao largar o emprego, deletou sua conta no Facebook. “O que me angustiava mais era ver grupos onde as pessoas criam outras identidades com fotos falsas, casam entre elas, criam toda uma vida virtual. Tudo isso é deprimente". Outra lição aprendida por ela: “é preciso viver mais tempo off-line.”

Outro lado

O Facebook foi procurado pela reportagem da Universa para confirmar dados, como o número dos funcionários envolvidos na operação de “limpeza” e quantos centros de moderação existem. A empresa enviou a seguinte nota, assinada pelo Facebook Brasil:

“No Facebook, temos Padrões da Comunidade que descrevem o que é e o que não é permitido na plataforma e os publicamos para que todos possam ler. O fato é que alguns comportamentos negativos que existem off-line, infelizmente, às vezes chegam à nossa plataforma, e por isso nossa equipe de Operações da Comunidade analisa conteúdo que é reportado e os compara com esses Padrões da Comunidade. Se o conteúdo denunciado viola nossos Padrões da Comunidade, nós o retiramos; caso contrário, deixamos o conteúdo na plataforma.

Temos uma combinação de funcionários em tempo integral, prestadores de serviços e fornecedores para desempenhar esse importante papel globalmente, 24 horas por dia, 7 dias por semana e em mais de 50 idiomas. Também estamos aumentando nossas equipes focadas em segurança e proteção, incluindo equipes de revisão de conteúdo, para 20.000 colaboradores como parte de nosso investimento na empresa. O número inclui, mas não se limita, a nossos revisores de conteúdo, e também inclui o crescimento das equipes de engenharia, ciência de dados, produtos, gerenciamento de programas e engenharia de dados.

Valorizamos o trabalho difícil que nossos revisores de conteúdo fazem e estamos comprometidos em apoiá-los. É por isso que temos programas robustos de treinamento e resiliência como suporte. Reconhecemos que esse trabalho pode ser difícil, e é por isso que toda pessoa que revisa conteúdo no Facebook recebe suporte psicológico e recursos de bem-estar.”