News

A dinâmica que nos polariza nas redes sociais está prestes a ficar muito pior

O fundador e CEO da Meta, Mark Zuckerberg, anunciou grandes mudanças na forma como a empresa aborda a desinformação no Facebook, Instagram e Threads. Em vez de depender de verificadores de fatos independentes, o Meta agora irá emular o X de Elon Musk (antigo Twitter) no uso de “notas da comunidade”. Essas contribuições de crowdsourcing permitem que os usuários sinalizem conteúdo que consideram questionável.

Zuckerberg afirmou que essas mudanças promovem a “liberdade de expressão”. Mas alguns especialistas temo que ele esteja se curvando à pressão política da direita e que efetivamente permitirá que um dilúvio de discursos de ódio e mentiras se espalhe nas plataformas Meta.

Pesquisas sobre a dinâmica de grupo das mídias sociais sugerem que esses especialistas têm razão.

À primeira vista, as notas comunitárias podem parecer democráticas, reflectindo valores de liberdade de expressão e decisões colectivas. Sistemas crowdsourced como Wikipedia, Metaculus e PredictIt, embora imperfeitos, muitas vezes conseguem aproveitar o sabedoria das multidões — onde o julgamento colectivo de muitos pode por vezes superar até mesmo os especialistas.

Pesquisa mostra que diversos grupos que reúnem julgamentos e estimativas independentes podem ser surpreendentemente eficazes no discernimento da verdade. No entanto, multidões sábias raramente têm de lidar com algoritmos de redes sociais.

Muitas pessoas dependem de plataformas como o Facebook para obter notícias, arriscando-se a ficar expostas à desinformação e a fontes tendenciosas. Depender dos utilizadores das redes sociais para policiar a precisão das informações poderia polarizar ainda mais as plataformas e amplificar vozes extremistas.

Duas tendências baseadas em grupo – a nossa necessidade psicológica de classificar a nós mesmos e aos outros em grupos – são particularmente preocupantes: o preconceito dentro/fora do grupo e a acrofilia (amor pelos extremos).

VIÉS INGROUP / OUTGROUP

Os humanos são tendenciosos na forma como avaliam as informações. As pessoas são mais propensas a confiar e lembrar informações de seu grupo interno – aqueles que compartilham suas identidades – enquanto desconfiam de informações de grupos externos percebidos. Este preconceito leva a câmaras de eco, onde pessoas com ideias semelhantes reforçam crenças partilhadas, independentemente da precisão.

Pode parecer racional confiar na família, amigos ou colegas em detrimento de estranhos. Mas as fontes do grupo muitas vezes mantêm perspectivas e experiências semelhantesoferecendo poucas informações novas. Os membros do grupo externo, por outro lado, são mais propensos a fornecer pontos de vista diversos. Essa diversidade é crítico à sabedoria das multidões.

Mas demasiadas divergências entre grupos podem impedir a ocorrência da verificação dos factos pela comunidade. Muitas notas da comunidade no X (antigo Twitter), como aquelas relacionadas às vacinas COVID, provavelmente foram nunca mostrado publicamente porque os usuários discordavam uns dos outros. O benefício da verificação de factos por terceiros foi fornecer uma fonte externa objetiva, em vez de necessitar de um acordo generalizado dos utilizadores de uma rede.

Pior ainda, tais sistemas são vulneráveis ​​à manipulação por grupos bem organizados com agendas políticas. Por exemplo, os nacionalistas chineses supostamente montou uma campanha para editar entradas da Wikipedia relacionadas às relações China-Taiwan para serem mais favoráveis ​​​​à China.

POLARIZAÇÃO POLÍTICA E ACROFILIA

Na verdade, a política intensifica essas dinâmicas. Nos EUA, a identidade política domina cada vez mais como as pessoas definem seus grupos sociais.

Os grupos políticos são motivados a definir “a verdade” de formas que os beneficiem e prejudiquem os seus oponentes políticos. É fácil ver como os esforços organizados para espalhar mentiras com motivação política e desacreditar verdades inconvenientes poderiam corromper a sabedoria das multidões nas notas da comunidade de Meta.

As redes sociais aceleram este problema através de um fenómeno chamado acrofilia, ou uma preferência pelo extremo. Pesquisa mostra que as pessoas tendem a se envolver com postagens um pouco mais extremas do que suas próprias opiniões.

É mais provável que essas postagens cada vez mais extremas sejam negativas do que positivas. Os psicólogos sabem há décadas que ruim é mais envolvente do que bom. Estamos programados para prestar mais atenção às experiências e informações negativas do que às positivas.

Nas redes sociais, isto significa que as publicações negativas – sobre violência, catástrofes e crises – recebem mais atenção, muitas vezes à custa de conteúdos mais neutros ou positivos.

Aqueles que expressam estas opiniões extremas e negativas ganham estatuto dentro dos seus grupos, atraindo mais seguidores e amplificando a sua influência. Com o tempo, as pessoas passam a considerar normais essas visões negativas um pouco mais extremadas, movendo lentamente suas próprias opiniões em direção aos pólos.

Um estudo recente de 2,7 milhões de postagens no Facebook e no Twitter descobriu que mensagens contendo palavras como “ódio”, “atacar” e “destruir” foram compartilhadas e curtidas em taxas mais altas do que quase qualquer outro conteúdo. Isto sugere que a mídia social não está apenas amplificando opiniões extremadas – é fomentando uma cultura de ódio fora do grupo isso prejudica a colaboração e a confiança necessárias para que um sistema como as notas comunitárias funcione.

O CAMINHO A SEGUIR

A combinação de preconceitos de negatividade, preconceitos dentro/fora do grupo e acrofilia sobrecarrega um dos maiores desafios do nosso tempo: a polarização. Através da polarização, as visões extremas tornam-se normalizadas, minando o potencial de compreensão partilhada entre grupos divididos.

As melhores soluções, que examino em meu próximo livro, The Collective Edgecomece por diversificar as nossas fontes de informação. Primeiro, as pessoas precisam de se envolver — e colaborar entre — diferentes grupos para quebrar as barreiras da desconfiança. Em segundo lugar, devem procurar informações em vários meios de comunicação e notícias fiáveis, e não apenas nas redes sociais.

No entanto, os algoritmos das redes sociais muitas vezes funcionam contra estas soluções, criando câmaras de eco e prendendo a atenção das pessoas. Para que as notas da comunidade funcionassem, estes algoritmos precisariam priorizar fontes de informação diversas e confiáveis.

Embora as notas da comunidade possam, teoricamente, aproveitar a sabedoria das multidões, o seu sucesso depende da superação destas vulnerabilidades psicológicas. Talvez uma maior consciência destes preconceitos possa ajudar-nos a conceber sistemas melhores — ou capacitar os utilizadores a utilizar notas da comunidade para promover o diálogo entre divisões. Só então as plataformas poderão aproximar-se da resolução do problema da desinformação.

(Autor: Colin M. FisherProfessor Associado de Organizações e Inovação e autor de “The Collective Edge: Unlocking the Secret Power of Groups”, UCL)

(Declaração de divulgação: Colin M. Fisher não trabalha, presta consultoria, possui ações ou recebe financiamento de qualquer empresa ou organização que se beneficiaria com este artigo e não revelou nenhuma afiliação relevante além de sua nomeação acadêmica)

Este artigo foi republicado de A conversa sob uma licença Creative Commons. Leia o artigo original.

(Exceto a manchete, esta história não foi editada pela equipe da NDTV e é publicada a partir de um feed distribuído.)


Source

Related Articles

Back to top button