Estudo explica bem por que moderação de conteúdo do Facebook falha tanto
O Facebook precisa dar mais atenção à sua estratégia de moderação de conteúdo e parar de terceirizar o serviço. É o que conclui um relatório da Universidade de Nova York (NYU), divulgado neste final de semana.
De acordo com o estudo, o setor deveria funcionar dentro da empresa, recebendo os devidos recursos, e ter equipes em países atravessando situações sociopolíticas delicadas. Só assim é possível combater a desinformação, as fake news e outros conteúdos prejudiciais que circulam na plataforma.
Algumas das ações sugeridas no relatório são: maior número de moderadores e melhores condições de trabalho —incluindo assistência física e mental— para os moderadores, que lidam com informações perturbadoras e traumáticas todos os dias.
Moderação insuficiente
O estudo estima que usuários e o sistema de inteligência artificial sinalizam mais de 3 milhões de postagens suspeitas diariamente. A empresa reporta uma taxa de falha de moderação de 10%, o que resulta em 300 mil conteúdos erroneamente moderados todos os dias.
"Esses números parecem substanciais, mas, observando o volume do que diariamente é disseminado nos sites e aplicativos, eles são grosseiramente inadequados", disse o autor do estudo, Paul Barrett.
O Facebook se uniu a 60 organizações jornalísticas para implementar o "fact-checking" (checagem dos fatos), mas as demandas enviadas a esses grupos também estão bem acima da capacidade de verificação.
Para enfatizar o papel central dos moderadores, Barrett propõe o seguinte cenário:
Imagine como seriam as redes sociais sem ninguém removendo as postagens mais pesadas. Facebook, Twitter e YouTube (do Google) seriam inundados não apenas por spams, mas por conteúdos de bullying, neonazismo, terrorismo e pedofilia. Diante desse caos, a maior parte dos usuários abandonaria as plataformas, seguidos pelos anunciantes
Apesar de sua importância, os moderadores têm sido marginalizados, diz o relatório. Como eles também estão fisicamente distantes, o Facebook costuma falhar em reconhecer a gravidade dos conteúdos revisados.
São exemplos disso Mianmar, onde forças pró-governo usaram a plataforma para disseminar propaganda genocida; e as eleições dos EUA de 2016, quando grupos russos disseminaram desinformação e mensagens de ódio para influenciar o público.
Mas por que isso acontece? Basicamente, para gastar menos. Moderadores terceirizados atuando em países subdesenvolvidos custam menos do que funcionários em tempo integral no Vale do Silício, com escritório físico e benefícios. Barrett, que entrevistou diversos ex-moderadores durante o estudo, acredita que as pessoas são a chave para o sucesso da moderação.
As soluções
Ele sugere oito passos para solucionar o problema:
- Levar o setor de moderação para dentro da empresa, com melhor remuneração
- Dobrar o número de moderadores de conteúdo
- Nomear um executivo qualificado para supervisionar o serviço
- Investir mais em moderação em "países de risco", principalmente na Ásia e na África, com times falando na língua local
- Oferecer atendimento médico no ambiente de trabalho
- Patrocinar pesquisas acadêmicas sobre os riscos de saúde da moderação de conteúdo
- Apoiar regulações governamentais sobre conteúdos prejudiciais
- Expandir o volume de 'fact-checking' para combater a desinformação
Temporariamente, em resposta às fake news e golpes relacionados ao coronavírus, o executivo-chefe Mark Zuckerberg levou a moderação de conteúdo de algumas categorias sensíveis para dentro do Facebook.
Durante o período de home office, em que precisou confiar mais na inteligência artificial, a empresa também reconheceu as limitações dos algoritmos que sinalizam conteúdos ofensivos.
Um longo caminho
A reputação do Facebook vem se degradando nos últimos anos. Esta recomendação chega em um momento delicado, após tuítes do presidente norte-americano Donald Trump que incitaram violência policial contra manifestantes pela morte de George Floyd, terem sido marcados como potencialmente perigosos.
Problemas assim são persistentes na empresa. Barrett disse que a moderação é fundamental para manter o Facebook, mas foi relegada a um papel secundário, com prestadores de serviço mal pagos e espalhados por mais de 20 locais.
Mas, todas as grandes plataformas de redes sociais sofrem do mesmo mal. O Facebook tem cerca de 15 mil moderadores de conteúdo, a maior parte deles terceirizados; o YouTube/Google tem 10 mil; e o Twitter tem 1.500; de acordo com o relatório.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.