top of page
Foto do escritorRodrigo Souza

Facebook gasta US$ 500 milhões por ano para remover conteúdo pornográfico da plataforma

Atualizado: 12 de set. de 2021

Mesmo sendo perturbador e funcionários correrem o risco de desenvolver problemas psiquiátricos pela exposição ao conteúdo, empresa aceita o serviço pelo dinheiro. Mas até quando?

Facebook gasta US$ 500 milhões por ano para remover conteúdo pornográfico da plataforma
Imagem: Unsplash

Em 2007, um acordo com o estado de Nova York exigiu que o Facebook removesse postagens pornográficas dentro de 24 horas.


No início, o Facebook encarregou seus próprios funcionários do trabalho - mas eles foram rapidamente sobrecarregados e a empresa recorreu à automação e à terceirização.


A solução que o Facebook encontrou foi pagar US$ 500 milhões por ano à Accenture para moderar o conteúdo em suas plataformas.


Hoje, 90% do conteúdo sinalizado como pornográfico é removido pela inteligência artificial da empresa terceirizada... enquanto os outros 10% recai sobre moderadores humanos.


O site The Hustle publicou uma matéria detalhando como o trabalho mudou o rumo da empresa.



A Accenture assumiu o trabalho quando o Facebook saiu de seu parceiro original de moderação de conteúdo.


O escopo do acordo aumentou rapidamente:


A equipe de moderação cresceu de 300 para 3k trabalhadores entre 2015 e 2016, e agora está em 5,8 mil trabalhadores.


A Accenture agora emprega moderadores em 8 escritórios que abrangem as Filipinas, Índia, Malásia, Polônia, Irlanda e EUA.


Facebook tem várias razões para cultivar trabalho de moderação...


Entre eles:


Escalabilidade: Utilizar mão-de-obra contratada permite que o Facebook amplie seus esforços globalmente o mais rápido possível.


Custo: Os trabalhadores contratados são muito mais baratos do que os funcionários do Facebook (que têm ganhos anuais medianos de US$ 240 mil)

Talvez a maior razão, porém, seja a natureza do trabalho.


Moderadores podem visualizar até 700 posts por turno, e o conteúdo pode ser perturbador.


Uma exposição do The Verge em 2019 destacou exemplos dos moderadores de conteúdo tóxico, incluindo vídeos de assassinatos e crueldade animal.


Como resultado, muitos moderadores sofreram problemas de saúde mental com o trabalho. O Facebook pagou recentemente um acordo de US$ 52 milhões cobrindo mais de 11 mil moderadores que sofreram de TEPT no trabalho.


Então por que a Accenture está fazendo isso?


Uma razão é o dinheiro. Espera-se que a moderação de conteúdo digital seja uma indústria de US$ 8,8 bilhões até o próximo ano, e a Accenture está atualmente sacando US$ 500 milhões por ano apenas do Facebook.


A outra é a exposição ao Vale do Silício, que a Accenture estava carente antes de assumir o trabalho. O tempo dirá se a empresa continuará a sentir que o peso do trabalho sujo do Facebook vale a pena.



Comments


Últimas notícias

Publique uma notícia

bottom of page