Mark Zuckerberg, fundador e CEO da Meta, anunciou mudanças significativas na forma como a empresa enfrenta a desinformação no Facebook, Instagram e Threads. Em vez de contar com verificadores independentes de fatos, a Meta adotará o modelo das “Community Notes” da plataforma X (antiga Twitter), de Elon Musk. Esse sistema de contribuições colaborativas permite que os usuários sinalizem conteúdos que considerem questionáveis.
Zuckerberg afirmou que essas mudanças promovem a “livre expressão”, mas especialistas alertam que ele pode estar cedendo à pressão política de direita, o que poderia permitir a disseminação de discurso de ódio e mentiras nas plataformas da Meta.
Pesquisas sobre a dinâmica de grupos em redes sociais reforçam a preocupação desses especialistas.
Embora, à primeira vista, as Community Notes pareçam democráticas e baseadas na liberdade de expressão e decisões coletivas, especialistas destacam que sistemas colaborativos como Wikipedia, Metaculus e PredictIt, embora imperfeitos, frequentemente conseguem capturar a sabedoria das multidões, onde o julgamento coletivo pode superar até mesmo especialistas.
Pesquisas indicam que grupos diversos que compartilham julgamentos independentes podem ser surpreendentemente eficazes em discernir a verdade. No entanto, essa eficácia raramente enfrenta os desafios dos algoritmos das redes sociais.
Muitas pessoas usam plataformas como o Facebook para obter notícias, o que aumenta o risco de exposição a desinformação e fontes tendenciosas. Confiar nos próprios usuários das redes sociais para fiscalizar a precisão da informação pode polarizar ainda mais as plataformas e amplificar vozes extremistas.
Dois comportamentos grupais levantam preocupações específicas:
- Viés de grupo interno/externo: A tendência psicológica de nos classificarmos e classificarmos os outros em grupos distintos.
- Acrofilia (amor aos extremos): A atração por opiniões e posições extremas.
Viés de grupo interno/externo
Os seres humanos possuem um viés em como avaliam informações. As pessoas têm maior probabilidade de confiar e lembrar informações de seu grupo interno — aqueles que compartilham suas identidades — enquanto desconfiam de informações de grupos externos. Esse viés cria bolhas de eco, onde pessoas com ideias semelhantes reforçam crenças compartilhadas, independentemente da precisão.
Pode parecer racional confiar mais em família, amigos ou colegas do que em estranhos. No entanto, fontes do grupo interno frequentemente possuem perspectivas e experiências similares, oferecendo poucas informações novas. Já os membros do grupo externo são mais propensos a fornecer pontos de vista diversificados, essenciais para a sabedoria das multidões.
Entretanto, muita discordância entre grupos pode impedir que a verificação colaborativa de fatos ocorra. Muitas Community Notes no X (antigo Twitter), como aquelas relacionadas às vacinas contra COVID, provavelmente nunca foram exibidas publicamente porque os usuários discordaram entre si. O benefício da verificação de fatos por terceiros era fornecer uma fonte externa objetiva, sem depender de um amplo consenso entre os usuários.
Pior ainda, esses sistemas podem ser manipulados por grupos bem organizados com agendas políticas. Por exemplo, nacionalistas chineses supostamente montaram uma campanha para editar entradas da Wikipédia relacionadas às relações China-Taiwan, tornando-as mais favoráveis à China.
Polarização política e acrofilia
De fato, a política intensifica essas dinâmicas. Nos Estados Unidos, a identidade política está cada vez mais dominando a forma como as pessoas definem seus grupos sociais.
Grupos políticos têm motivação para definir “a verdade” de maneira que favoreça seus interesses e desvantagem seus oponentes. É fácil imaginar como esforços organizados para disseminar mentiras politicamente motivadas e desacreditar verdades inconvenientes podem corromper a sabedoria das multidões nas Community Notes da Meta.
As redes sociais agravam esse problema por meio da acrofilia, ou preferência pelo extremo. Pesquisas mostram que as pessoas tendem a interagir com postagens ligeiramente mais extremas do que suas próprias opiniões.
Essas postagens mais extremas geralmente são negativas em vez de positivas. Psicólogos já sabem há décadas que o negativo é mais envolvente do que o positivo. O ser humano é predisposto a prestar mais atenção a experiências e informações negativas.
Nas redes sociais, isso significa que postagens negativas — sobre violência, desastres e crises — recebem mais atenção, frequentemente em detrimento de conteúdos neutros ou positivos.
Indivíduos que expressam opiniões extremas e negativas ganham status dentro de seus grupos, atraindo mais seguidores e amplificando sua influência. Com o tempo, as pessoas passam a considerar essas opiniões extremas como normais, movendo gradualmente suas próprias visões para extremos.
Um estudo recente de 2,7 milhões de postagens no Facebook e Twitter mostrou que mensagens contendo palavras como “ódio”, “ataque” e “destruir” eram compartilhadas e curtidas em taxas mais altas do que quase qualquer outro conteúdo. Isso sugere que as redes sociais não apenas estão amplificando visões extremas, mas também fomentando uma cultura de ódio ao grupo externo, minando a colaboração e a confiança necessárias para que um sistema como as Community Notes funcione.
O caminho a seguir
A combinação de viés de negatividade, viés de grupo interno/externo e acrofilia intensifica um dos maiores desafios de nosso tempo: a polarização. Essa polarização normaliza visões extremas, prejudicando o potencial de um entendimento compartilhado entre diferentes grupos.
As melhores soluções, que examino em meu próximo livro, The Collective Edge, começam com a diversificação das fontes de informação. Em primeiro lugar, as pessoas precisam interagir e colaborar com diferentes grupos para superar as barreiras de desconfiança. Em segundo lugar, é essencial buscar informações em múltiplas fontes confiáveis de notícias e informações, e não apenas nas redes sociais.
Contudo, os algoritmos das redes sociais frequentemente criam bolhas de eco, prendendo a atenção das pessoas e dificultando essas soluções. Para que as Community Notes funcionem, seria necessário que esses algoritmos priorizassem fontes confiáveis e diversas.
Embora as Community Notes possam teoricamente aproveitar a sabedoria das multidões, seu sucesso depende de superar essas vulnerabilidades psicológicas. Aumentar a conscientização sobre esses vieses pode ajudar a projetar sistemas melhores ou capacitar os usuários a usar as Community Notes para promover o diálogo entre grupos divergentes. Somente assim as plataformas podem se aproximar de resolver o problema da desinformação.
Texto traduzido do artigo The dynamics that polarise us on social media are about to get worse, de Colin M. Fisher, publicado por The Conversation sob a licença Creative Commons Attribution 3.0. Leia o original em: The Conversation.