Três razões pelas quais a Meta terá dificuldades com a verificação comunitária de fatos

No início deste mês, Mark Zuckerberg anunciou que a Meta reduzirá seus esforços de moderação de conteúdo e eliminará a verificação de fatos nos EUA. Para Zuckerberg, a medida se assemelha a uma abordagem mais “democrática” adotada pela X (antigo Twitter), chamada de Community Notes, e reverte proteções que, segundo ele, foram desenvolvidas apenas em resposta à pressão da mídia e do governo.

O anúncio vem alarmando diversas pessoas, e com razão. A Meta deixou um rastro de controvérsias que incluem, desde a moderação excessiva de imagens de mulheres amamentando até a moderação insuficiente de discursos de ódio em Mianmar, o que contribuiu para o genocídio dos muçulmanos rohingya. Enquanto isso, acabar com a verificação profissional de fatos cria o potencial para que desinformação e ódio se espalhem sem controle.

Convocar voluntários foi a forma como a moderação começou na Internet, muito antes dos gigantes das redes sociais perceberem que esforços centralizados eram necessários. E a moderação por voluntários pode ser bem-sucedida, o que permite o desenvolvimento de regulamentações personalizadas alinhadas às necessidades de comunidades específicas. No entanto, sem um compromisso significativo e supervisão da Meta, um sistema assim não conseguirá lidar com a quantidade de conteúdo compartilhado nas plataformas da empresa — nem com a rapidez com que isso ocorre. De fato, ainda não se sabe ao certo quão bem isso funciona na X, que é usada por 21% dos americanos (as plataformas da Meta são significativamente mais populares — o Facebook, sozinho, é usado por 70% dos americanos, segundo o Pew).

O Community Notes, que começou em 2021 como Birdwatch, é um sistema de moderação conduzido pela comunidade na X que permite que usuários inscritos no programa adicionem contexto às postagens. Ter usuários comuns realizando verificação pública de fatos é relativamente novo, e os resultados até agora têm sido mistos. Por exemplo, pesquisadores descobriram que os participantes tendem a contestar conteúdos com os quais discordam politicamente e que sinalizar conteúdos como falsos não reduz o engajamento, mas também constataram que as notas geralmente são precisas e podem ajudar a diminuir a propagação de postagens enganosas.

Eu sou um moderador comunitário que pesquisa a supervisão por comunidade. Aqui está o que aprendi sobre as limitações da dependência de voluntários para moderação — e o que a Meta precisa fazer para ter sucesso:

1. O sistema deixará passar falsidades e pode amplificar conteúdo de ódio

Há um risco real, nesse estilo de moderação, de que apenas postagens sobre assuntos amplamente conhecidos sejam sinalizadas de forma oportuna — ou sequer sinalizadas. Considere como uma postagem com a imagem de um cogumelo amanita phalloides (chapéu-da-morte) e a legenda “Saboroso” poderia ser tratada em uma moderação ao estilo Community Notes. Se um especialista em micologia não ver a postagem, ou a visualizar somente depois que ela já foi amplamente compartilhada, ela pode não ser sinalizada como “Venenoso, não coma” — pelo menos não até que seja tarde demais. Temas mais esotéricos serão mal moderados. Isso pode ter impactos sérios tanto para indivíduos (que podem acabar comendo um cogumelo venenoso) quanto para a sociedade (caso uma notícia falsa se espalhe amplamente).

Um fato é que as Community Notes da X não são visíveis aos leitores quando são adicionadas. Uma nota se torna visível para a base de usuários mais ampla apenas quando um número suficiente de colaboradores concorda que ela é precisa por meio de votos. E nem todos os votos contam. Se uma nota for avaliada apenas por pessoas que tendem a concordar entre si, ela não aparecerá. A X não torna uma nota visível até que haja consenso entre pessoas que, em avaliações anteriores, discordaram. Essa é uma tentativa de reduzir o viés, mas não é infalível. Ainda depende das opiniões das pessoas sobre uma nota e não de informações concretas na maioria das vezes, o que é necessário é expertise.

Eu modero uma comunidade no Reddit chamada r/AskHistorians. Trata-se de um site de história pública com mais de 2 milhões de membros e é moderado de forma muito rigorosa. Vemos pessoas errando os fatos o tempo todo. Às vezes, esses erros são simples. Mas, em outras ocasiões, há conteúdo de ódio que exige a intervenção de especialistas para ser reconhecido. Certa vez, uma pergunta contendo um sutil apelo à negação do Holocausto escapou da revisão por horas e acabou acumulando centenas de votos positivos antes de ser identificada por um especialista da nossa equipe. Centenas de pessoas — provavelmente com padrões de votação muito diferentes e opiniões bastante divergentes sobre muitos tópicos — não apenas não perceberam a natureza problemática do conteúdo, mas escolheram promovê-lo por meio de votos positivos. Isso também acontece com respostas a perguntas. Pessoas que não são especialistas em história podem votar positivamente em respostas desatualizadas, que soam plausíveis, mas que na verdade não estão corretas. Por outro lado, votarão negativamente em boas respostas se estas refletirem pontos de vista difíceis de aceitar.

A comunidade r/AskHistorians funciona porque a maioria dos seus moderadores são especialistas naquilo que opinam. Se a Meta deseja que seu programa no estilo Community Notes funcione, ela deve garantir que as pessoas com o conhecimento necessário para fazer avaliações vejam as postagens e que essa expertise seja considerada na votação, especialmente quando há um desalinhamento entre o entendimento comum e o conhecimento especializado.

2. Não funcionará sem voluntários bem apoiados

Os moderadores de conteúdo pagos da Meta revisam o pior do pior — incluindo gore, abuso, e exploração sexual, e outros tipos de violência. Como resultado, muitos deles sofreram traumas severos, levando a processos judiciais e esforços de sindicalização. Quando a Meta reduzir os recursos de seus esforços centralizados de moderação, caberá cada vez mais aos voluntários não remunerados manter a plataforma segura.

Os moderadores comunitários não têm um trabalho fácil. Além de serem expostos a conteúdos horríveis, eles também frequentemente sofrem assédio e abuso por serem membros identificáveis de suas comunidades — algo que experimentamos diariamente no r/AskHistorians.

No entanto, os moderadores comunitários moderam apenas o que conseguem suportar. Por exemplo, embora eu gerencie rotineiramente discursos de ódio e linguagem violenta, como moderador de uma comunidade baseada em texto, raramente sou exposto a imagens violentas. Moderadores comunitários também trabalham em equipe. Se eu acabar sendo exposto a algo que considero perturbador ou se alguém estiver sendo abusivo, meus colegas assumem e oferecem suporte emocional. Eu também me importo profundamente com a comunidade que modero. Em suma, o cuidado com a comunidade, com os colegas de apoio e a autosseleção ajudam a manter o moral dos moderadores voluntários relativamente alto.

Não está claro como o novo sistema de supervisão da Meta será estruturado. Se os voluntários escolherem quais conteúdos sinalizar, isso replicará o problema da X, no qual o partidarismo afeta quais postagens são sinalizadas e como? Também não se sabe que tipo de suporte a plataforma oferecerá. Se os voluntários forem expostos a conteúdos que acham perturbadores, será que a Meta — a empresa que atualmente está sendo processada por prejudicar a saúde mental de seus moderadores pagos — oferecerá auxílio social e psicológico? Para ter sucesso, a empresa precisará garantir que os voluntários tenham acesso a tais recursos e que possam escolher o tipo de conteúdo que moderam (ao mesmo tempo em que assegura que essa autoseleção não influencie indevidamente as notas).

Mini Banner - Assine a MIT Technology Review

3. Não pode funcionar sem proteções e salvaguardas

As comunidades online podem prosperar quando são geridas por pessoas que realmente se importam com elas. No entanto, os voluntários não podem fazer tudo sozinhos. A moderação não se resume apenas a tomar decisões sobre o que é “verdadeiro” ou “falso”. Trata-se também de identificar e responder a outros tipos de conteúdo prejudicial. A decisão de Zuckerberg vem acompanhada de outras mudanças em seus padrões comunitários que enfraquecem, em particular, as regras sobre conteúdo de ódio. A moderação comunitária faz parte de um ecossistema mais amplo, e torna-se significativamente mais difícil de realizar quando esse ecossistema é contaminado por conteúdo tóxico.

Comecei a moderar o r/AskHistorians em 2020 como parte de um projeto de pesquisa para aprender mais sobre as experiências nos bastidores dos moderadores voluntários. Enquanto o Reddit havia começado a enfrentar alguns dos casos mais extremos de ódio em sua plataforma, banindo ocasionalmente comunidades inteiras, muitas comunidades que promoviam misoginia, racismo e todas as outras formas de intolerância foram permitidas a prosperar e crescer. Como resultado, minhas primeiras anotações de campo estão repletas de exemplos de discursos de ódio extremos, bem como de assédio e abuso direcionados aos moderadores. Era difícil acompanhar.

Mas, em meados de 2020, algo aconteceu. Após uma declaração medíocre sobre racismo proferida pelo CEO Steve Huffman, os moderadores do site fecharam suas comunidades em protesto. E, para seus créditos, a plataforma ouviu. O Reddit atualizou seus padrões comunitários para proibir explicitamente o discurso de ódio e começou a aplicar essa política de forma mais ativa. Embora o ódio ainda seja um problema no Reddit, vejo muito menos agora do que via em 2020 e 2021. A moderação comunitária precisa de um apoio robusto, pois os voluntários não conseguem fazer tudo sozinhos. É apenas uma das ferramentas disponíveis.

Se a Meta deseja garantir que seus usuários se previnam contra golpes, exploração e manipulação, além (é claro) do discurso de ódio, ela não pode depender exclusivamente da verificação de fatos pela comunidade.

No entanto, manter a base de usuários segura não é o que essa decisão pretende fazer. Trata-se de um movimento político para conquistar o favor da nova administração. A Meta poderia criar o programa perfeito de verificação de fatos comunitária, mas, como essa decisão vem acompanhada do enfraquecimento de suas práticas de moderação mais amplas, as coisas tendem a piorar para seus usuários.

O post Três razões pelas quais a Meta terá dificuldades com a verificação comunitária de fatos apareceu primeiro em MIT Technology Review – Brasil.

Mais Matérias

Pesquisar...