Reduzir a visibilidade de conteúdo polarizador nas redes sociais pode diminuir consideravelmente a animosidade partidária. Para chegar a essa conclusão, meus colegas e eu desenvolvemos um método que nos permite alterar a ordem de exibição das publicações dos usuários , algo que antes só as empresas de redes sociais podiam fazer.
Reordenar os feeds das redes sociais para reduzir a exposição a publicações que expressam atitudes antidemocráticas e animosidade partidária afetou as emoções das pessoas e suas visões sobre pessoas com opiniões políticas opostas.
Sou cientista da computação e estudo computação social, inteligência artificial e a web. Como apenas as plataformas de mídia social podem modificar seus algoritmos, desenvolvemos e lançamos uma ferramenta web de código aberto que nos permite reclassificar os feeds de participantes que consentem com a publicação no X, antigo Twitter, em tempo real.
Com base em teorias das ciências sociais, utilizamos um modelo linguístico abrangente para identificar publicações com potencial para polarizar as pessoas, como aquelas que incitam à violência política ou pedem a prisão de membros do partido opositor. Essas publicações não foram removidas; simplesmente foram classificadas em posições inferiores, exigindo que os usuários rolassem a página para visualizá-las. Isso reduziu a quantidade de publicações desse tipo que os usuários viam.
Realizamos este experimento durante 10 dias nas semanas que antecederam a eleição presidencial dos EUA de 2024. Descobrimos que reduzir a exposição a conteúdo polarizador melhorou consideravelmente os sentimentos dos participantes em relação a pessoas do partido oposto e reduziu suas emoções negativas ao navegar em seus feeds. É importante ressaltar que esses efeitos foram semelhantes entre todos os grupos políticos, sugerindo que a intervenção beneficia os usuários independentemente de sua filiação partidária.
Por que isso importa
Um equívoco comum é que as pessoas precisam escolher entre dois extremos: algoritmos baseados em engajamento ou feeds puramente cronológicos. Na realidade, existe um amplo espectro de abordagens intermediárias, dependendo da sua otimização.
Os algoritmos de feeds são geralmente otimizados para capturar sua atenção e, como resultado, têm um impacto significativo em suas atitudes, humor e percepções dos outros . Por esse motivo, há uma necessidade urgente de estruturas que permitam que pesquisadores independentes testem novas abordagens em condições realistas.
Nosso trabalho oferece um caminho a seguir, mostrando como os pesquisadores podem estudar e prototipar algoritmos alternativos em larga escala, e demonstra que, graças a grandes modelos de linguagem, as plataformas finalmente possuem os meios técnicos para detectar conteúdo polarizador que pode afetar as atitudes democráticas de seus usuários.
Que outras pesquisas estão sendo realizadas nesta área?
Testar o impacto de algoritmos alternativos de feeds em plataformas em produção é difícil, e esse tipo de estudo só aumentou em número recentemente.
Por exemplo, uma colaboração recente entre acadêmicos e a Meta descobriu que mudar o feed algorítmico para um formato cronológico não foi suficiente para demonstrar um impacto na polarização. Um esforço relacionado, o Prosocial Ranking Challenge, liderado por pesquisadores da Universidade da Califórnia, Berkeley, explora alternativas de classificação em múltiplas plataformas para promover resultados sociais benéficos.
Ao mesmo tempo, o progresso no desenvolvimento de grandes modelos de linguagem possibilita maneiras mais ricas de modelar como as pessoas pensam, sentem e interagem umas com as outras. Observamos um interesse crescente em dar aos usuários mais controle, permitindo que eles decidam quais princípios devem guiar o que veem em seus feeds – por exemplo, a biblioteca Alexandria de valores pluralistas e o sistema de reclassificação de feeds Bonsai . Plataformas de mídia social, incluindo Bluesky e X , também estão seguindo essa direção.
O que vem a seguir?
Este estudo representa nosso primeiro passo rumo à criação de algoritmos que levem em consideração seu potencial impacto social. Muitas questões permanecem em aberto.
Conteúdo de nossos parceiros
Planejamos investigar os efeitos a longo prazo dessas intervenções e testar novos objetivos de classificação para abordar outros riscos ao bem-estar online, como saúde mental e satisfação com a vida. Trabalhos futuros explorarão como equilibrar múltiplos objetivos, como contexto cultural, valores pessoais e controle do usuário, para criar espaços online que melhor apoiem a interação social e cívica saudável.
O Resumo de Pesquisa é uma breve análise de trabalhos acadêmicos interessantes.
Tiziano Piccardi , Professor Assistente de Ciência da Computação, Universidade Johns Hopkins.
Este artigo foi republicado do The Conversation sob uma licença Creative Commons. Leia o artigo original .








