Notas da comunidade aumentam a confiança na verificação de fatos nas redes sociais

Imagem via Unsplash

doi.org/10.31219/osf.io/ydc42
Credibilidade: 989
#Twitter 

A verificação de fatos por crowdsourcing é melhor para reduzir a desinformação do que a moderação de conteúdo.

Depois que Elon Musk comprou o Twitter (agora X) na primavera de 2022, a empresa de mídia social se livrou de muitos de seus moderadores dos bastidores, cortou o sistema pelo qual os usuários poderiam sinalizar tweets para revisão e aumentaram um sistema diferente para combater a desinformação – uma forma de crowdsourcing chamada Notas da Comunidade.

Uma onda de indignação seguiu essas mudanças. Mas o recurso de notas da comunidade tem o benefício da transparência e mostra mérito científico e médico. E uma nova revisão acadêmica sugere que está funcionando – menos para questões científicas.

Os investigadores que estudam as redes sociais ainda têm sérias preocupações sobre o discurso de ódio desenfreado e os incitamentos à violência – onde as pessoas podem reagir instantânea e acaloradamente de uma forma que não é adequada às Notas da Comunidade.

E em 2023 tornou-se proibitivamente caro para os investigadores obter os dados de que necessitavam para estudar estes problemas persistentes.

Mas o principal autor deste novo estudo, o cientista comportamental John Ayers, da Universidade da Califórnia, em San Diego, disse que os dados nas Community Notes eram fáceis de obter.

E para discutir questões fatuais em áreas como a ciência e a saúde, os cientistas sociais recomendaram uma abordagem de crowdsourcing, citando estudos que demonstram o poder da inteligência coletiva.

Vários estudos compararam o crowdsourcing com verificadores de fatos profissionais e descobriram que o crowdsourcing funcionou igualmente bem ao avaliar a precisão das notícias.

Agora, Ayers e outros investigadores analisaram especificamente a precisão das Notas da Comunidade de X, usando a questão controversa das vacinas Covid-19 como caso de teste.

Os resultados, publicados recentemente no Journal of the American Medical Association, mostraram que as notas eram quase sempre precisas e geralmente citavam fontes de alta qualidade.

O Community Notes conta com voluntários para sinalizar postagens enganosas e, em seguida, adicionar comentários corretivos completos com links para artigos científicos ou fontes de mídia.

Outros usuários podem votar no valor das notas (um recurso muito usado no Reddit).

O antigo sistema dependia de verificadores de fatos cuja identidade e credenciais científicas eram desconhecidas.

Eles poderiam retirar postagens que considerassem desinformação, banir usuários ou usar a técnica mais dissimulada de “proibições ocultas”, pela qual as postagens dos usuários eram ocultadas sem o seu conhecimento.

Moderadores de conteúdo empregados por empresas de mídia social também foram atacados por agirem muito lentamente e por não conseguirem remover conteúdo de ódio ou violento.

Pode ser impossível para qualquer empresa de mídia social acompanhar, e é por isso que é importante explorar outras abordagens.

O novo sistema não é perfeito, mas parece bastante preciso.

No estudo JAMA, os investigadores analisaram uma amostra de 205 Notas da Comunidade sobre vacinas contra a Covid-19.

Eles concordaram que as informações geradas pelos usuários eram precisas em 96% das vezes e que as fontes citadas eram de alta qualidade em 87% das vezes.

Embora apenas uma pequena fração das postagens enganosas tenha sido sinalizada, aquelas que receberam notas anexadas estavam entre as mais virais, disse o autor principal, Ayers.

O psicólogo Sacha Altay, que não esteve envolvido na nova investigação, disse que as pessoas tendem a subestimar o poder da inteligência coletiva, que se revelou surpreendentemente boa para prever e avaliar informação – desde que um número suficiente de pessoas participe.

A percepção pública da desinformação nas redes sociais é muitas vezes distorcida por preconceitos políticos, indignação e auto-ilusão.

No ano passado, um grupo de investigadores da Universidade de Oxford suscitou uma reflexão muito necessária com um estudo intitulado “As pessoas acreditam que a desinformação é uma ameaça porque presumem que os outros são ingénuos”.

Por outras palavras, as pessoas mais indignadas com as notícias falsas não estão preocupadas em serem enganadas; eles estão preocupados que os outros fiquem.

Mas tendemos a superestimar nossos próprios níveis de discernimento.

Durante a pandemia, verificadores de fatos e moderadores rotularam muitas declarações subjectivas como desinformação, especialmente aquelas que julgavam várias atividades como “seguras”.

Mas não existe uma definição científica de seguro – e é por isso que as pessoas podiam conversar durante meses sobre se era seguro permitir que as crianças voltassem à escola ou se reunissem sem máscaras.

Muito do que foi rotulado como desinformação era apenas opinião minoritária.

O antigo sistema de censura do Twitter baseava-se na suposição de que as pessoas ignoram as vacinas ou fazem escolhas erradas porque estão expostas à desinformação.

Mas outra possibilidade é que a falta de confiança seja o verdadeiro problema – as pessoas perdem a confiança nas autoridades de saúde ou não conseguem encontrar a informação que pretendem, e isso faz com que procurem fontes marginais.

Se for esse o caso, a censura poderia criar mais desconfiança ao sufocar a discussão aberta sobre tópicos importantes.

É claro que as pessoas geralmente não se retratam como “pró-censura”, mesmo que seja isso que esteja acontecendo.

Os conservadores são mais propensos a aceitar a censura de materiais que consideram indecentes, enquanto os liberais são mais propensos a tolerar a censura de informações que consideram prejudiciais.


Publicado em 23/05/2024 16h25

Artigo original:

Estudo original: