SODP logo

    Declassare i contenuti polarizzanti abbassa la temperatura emotiva sui social media – Nuova ricerca

    Ridurre la visibilità dei contenuti polarizzanti nei feed dei social media può ridurre sensibilmente l'animosità partitica. Per arrivare a questa conclusione, io e i miei colleghi abbiamo sviluppato un metodo che permette..
    Aggiornato il: 9 dicembre 2025
    Tiziano Piccardi

    Creato da

    Tiziano Piccardi

    La conversazione

    Verificato da

    La conversazione

    Tiziano Piccardi

    Modificato da

    Tiziano Piccardi

    Ridurre la visibilità dei contenuti polarizzanti nei feed dei social media può ridurre sensibilmente l'animosità partitica. Per arrivare a questa conclusione, io e i miei colleghi abbiamo sviluppato un metodo che ci ha permesso di modificare la classificazione dei feed degli utenti , cosa che in precedenza era possibile solo alle aziende di social media.

    La riclassificazione dei feed dei social media per ridurre l'esposizione a post che esprimono atteggiamenti antidemocratici e animosità partitica ha influenzato le emozioni delle persone e le loro opinioni su persone con idee politiche opposte.

    Sono un informatico che studia social computing, intelligenza artificiale e web. Poiché solo le piattaforme di social media possono modificare i propri algoritmi, abbiamo sviluppato e rilasciato uno strumento web open source che ci ha permesso di riclassificare in tempo reale i feed dei partecipanti consenzienti su X, precedentemente Twitter.

    Basandoci sulla teoria delle scienze sociali, abbiamo utilizzato un modello linguistico di grandi dimensioni per identificare i post che avrebbero potuto polarizzare le persone, come quelli che incitavano alla violenza politica o chiedevano l'incarcerazione di membri del partito opposto. Questi post non sono stati rimossi; sono stati semplicemente posizionati più in basso, costringendo gli utenti a scorrere ulteriormente per vederli. Questo ha ridotto il numero di post di questo tipo visualizzati dagli utenti.

    Abbiamo condotto questo esperimento per 10 giorni nelle settimane precedenti le elezioni presidenziali statunitensi del 2024. Abbiamo scoperto che ridurre l'esposizione a contenuti polarizzanti ha migliorato in modo misurabile i sentimenti dei partecipanti verso le persone del partito opposto e ha ridotto le loro emozioni negative durante lo scorrimento del feed. È importante notare che questi effetti sono stati simili indipendentemente dall'affiliazione politica, il che suggerisce che l'intervento apporta benefici agli utenti indipendentemente dal loro partito politico.

    Perché è importante

    Un errore comune è pensare che le persone debbano scegliere tra due estremi: algoritmi basati sull'engagement o feed puramente cronologici. In realtà, esiste un ampio spettro di approcci intermedi, a seconda dello scopo per cui sono ottimizzati.

    Gli algoritmi di feed sono in genere ottimizzati per catturare l'attenzione e, di conseguenza, hanno un impatto significativo sui nostri atteggiamenti, stati d'animo e percezioni degli altri . Per questo motivo, c'è un urgente bisogno di framework che consentano ai ricercatori indipendenti di testare nuovi approcci in condizioni realistiche.

    Il nostro lavoro offre una strada da seguire, mostrando come i ricercatori possono studiare e prototipare algoritmi alternativi su larga scala e dimostrando che, grazie a modelli linguistici di grandi dimensioni, le piattaforme dispongono finalmente dei mezzi tecnici per rilevare contenuti polarizzanti che possono influenzare gli atteggiamenti democratici dei loro utenti.

    Quali altre ricerche vengono condotte in questo campo?

    Testare l'impatto di algoritmi di feed alternativi sulle piattaforme live è difficile e solo di recente il numero di studi di questo tipo è aumentato.

    Ad esempio, una recente collaborazione tra accademici e Meta ha scoperto che modificare il feed algoritmico in uno cronologico non era sufficiente a dimostrare un impatto sulla polarizzazione. Un progetto correlato, la Prosocial Ranking Challenge, condotto da ricercatori dell'Università della California, Berkeley, esplora alternative di ranking su più piattaforme per promuovere risultati sociali positivi.

    Allo stesso tempo, i progressi nello sviluppo di modelli linguistici di grandi dimensioni consentono di modellare in modo più completo il modo in cui le persone pensano, sentono e interagiscono con gli altri. Stiamo assistendo a un crescente interesse nel dare agli utenti un maggiore controllo, consentendo loro di decidere quali principi debbano guidare ciò che vedono nei loro feed, ad esempio la biblioteca di valori pluralistici di Alexandria e il sistema di riclassificazione dei feed Bonsai Anche le piattaforme di social media, tra cui Bluesky e X

    Cosa c'è il prossimo

    Questo studio rappresenta il nostro primo passo verso la progettazione di algoritmi consapevoli del loro potenziale impatto sociale. Molti interrogativi rimangono aperti.

    Intendiamo studiare gli effetti a lungo termine di questi interventi e testare nuovi obiettivi di ranking per affrontare altri rischi per il benessere online, come la salute mentale e la soddisfazione di vita. I lavori futuri esploreranno come bilanciare più obiettivi, come il contesto culturale, i valori personali e il controllo dell'utente, per creare spazi online che supportino meglio una sana interazione sociale e civica.

    Il brief di ricerca è una breve visione del lavoro accademico interessante.

    Tiziano Piccardi , Professore Associato di Informatica, Johns Hopkins University.

    Questo articolo è ripubblicato da The Conversation con licenza Creative Commons. Leggi l' articolo originale .

    0
    Mi piacerebbe i tuoi pensieri, per favore commenta. X