SODP logo

    Herabstufung polarisierender Inhalte senkt die emotionale Temperatur in sozialen Medien – Neue Forschungsergebnisse

    Die Reduzierung der Sichtbarkeit polarisierender Inhalte in Social-Media-Feeds kann nachweislich die parteipolitische Feindseligkeit verringern. Um zu diesem Ergebnis zu gelangen, entwickelten meine Kollegen und ich eine Methode, die es ermöglichte…
    Aktualisiert am: 9. Dezember 2025
    Tiziano Piccardi

    Erstellt von

    Tiziano Piccardi

    Die Unterhaltung

    Faktencheck durch

    Die Unterhaltung

    Tiziano Piccardi

    Herausgegeben von

    Tiziano Piccardi

    Die Reduzierung der Sichtbarkeit polarisierender Inhalte in Social-Media-Feeds kann parteipolitische Feindseligkeiten messbar verringern. Um zu diesem Ergebnis zu gelangen, entwickelten meine Kollegen und ich eine Methode, die es uns ermöglichte, die Reihenfolge der Feeds von Nutzern zu verändern – etwas, das zuvor nur den Social-Media-Unternehmen selbst möglich war.

    Die Neuordnung der Social-Media-Feeds, um die Sichtbarkeit von Beiträgen mit antidemokratischen Ansichten und parteipolitischer Feindseligkeit zu verringern, beeinflusste die Emotionen der Menschen und ihre Ansichten über Menschen mit gegensätzlichen politischen Ansichten.

    Ich bin Informatiker und forsche zu Social Computing, künstlicher Intelligenz und dem Web. Da nur Social-Media-Plattformen ihre Algorithmen ändern können, haben wir ein Open-Source-Webtool entwickelt und veröffentlicht, mit dem wir die Feeds von Nutzern, die ihre Einwilligung gegeben haben, auf X (ehemals Twitter) in Echtzeit neu sortieren konnten.

    Auf Grundlage sozialwissenschaftlicher Theorien nutzten wir ein umfangreiches Sprachmodell, um Beiträge zu identifizieren, die potenziell polarisierend wirken, beispielsweise solche, die zu politischer Gewalt aufrufen oder die Inhaftierung von Mitgliedern der gegnerischen Partei fordern. Diese Beiträge wurden nicht entfernt, sondern lediglich weiter unten in der Liste angezeigt, sodass Nutzer weiter scrollen mussten, um sie zu sehen. Dadurch wurde die Anzahl der Beiträge, die Nutzern angezeigt wurden, reduziert.

    Wir führten dieses Experiment zehn Tage lang in den Wochen vor der US-Präsidentschaftswahl 2024 durch. Dabei stellten wir fest, dass eine Reduzierung des Konsums polarisierender Inhalte die Gefühle der Teilnehmenden gegenüber Personen der gegnerischen Partei messbar verbesserte und ihre negativen Emotionen beim Scrollen durch ihren Feed verringerte. Wichtig ist, dass diese Effekte unabhängig von der politischen Zugehörigkeit ähnlich waren, was darauf hindeutet, dass die Maßnahme allen Nutzern unabhängig von ihrer Parteizugehörigkeit zugutekommt.

    Warum es wichtig ist

    Ein weit verbreiteter Irrglaube ist, dass man sich zwischen zwei Extremen entscheiden müsse: interaktionsbasierten Algorithmen oder rein chronologischen Feeds. Tatsächlich gibt es ein breites Spektrum an Zwischenlösungen, je nachdem, wofür sie optimiert sind.

    Feed-Algorithmen sind typischerweise darauf optimiert, Ihre Aufmerksamkeit zu erregen, und haben daher einen erheblichen Einfluss auf Ihre Einstellungen, Stimmungen und Ihre Wahrnehmung anderer . Aus diesem Grund besteht ein dringender Bedarf an Frameworks, die es unabhängigen Forschern ermöglichen, neue Ansätze unter realistischen Bedingungen zu testen.

    Unsere Arbeit bietet einen Weg nach vorn, indem sie zeigt, wie Forscher alternative Algorithmen in großem Umfang untersuchen und prototypisch entwickeln können, und sie beweist, dass Plattformen dank großer Sprachmodelle endlich über die technischen Mittel verfügen, um polarisierende Inhalte zu erkennen, die die demokratische Einstellung ihrer Nutzer beeinflussen können.

    Welche weiteren Forschungen werden in diesem Bereich durchgeführt?

    Die Untersuchung der Auswirkungen alternativer Feed-Algorithmen auf Live-Plattformen ist schwierig, und solche Studien haben erst in jüngster Zeit zugenommen.

    kürzlich durchgeführte Zusammenarbeit beispielsweise , dass die Umstellung des algorithmischen Feeds auf einen chronologischen Feed nicht ausreichte, um einen Einfluss auf die Polarisierung nachzuweisen. Ein verwandtes Projekt, die Prosocial Ranking Challenge unter der Leitung von Forschern der University of California, Berkeley, untersucht Ranking-Alternativen auf verschiedenen Plattformen, um positive soziale Ergebnisse zu fördern.

    Gleichzeitig ermöglicht der Fortschritt in der Entwicklung großer Sprachmodelle differenziertere Ansätze zur Modellierung menschlichen Denkens, Fühlens und Handelns. Wir beobachten ein wachsendes Interesse daran, Nutzern mehr Kontrolle zu geben und ihnen die Möglichkeit zu bieten, selbst zu bestimmen, welche Prinzipien die Inhalte ihrer Feeds bestimmen sollen – beispielsweise die Alexandria-Bibliothek pluralistischer Werte und das Bonsai-Feed-Reranking-System . Auch Social-Media-Plattformen wie Bluesky und X schlagen diesen Weg ein.

    Was kommt als Nächstes?

    Diese Studie stellt unseren ersten Schritt hin zur Entwicklung von Algorithmen dar, die sich ihrer potenziellen sozialen Auswirkungen bewusst sind. Viele Fragen bleiben jedoch offen.

    Wir planen, die Langzeitwirkungen dieser Interventionen zu untersuchen und neue Ranking-Ziele zu testen, um weitere Risiken für das Online-Wohlbefinden, wie beispielsweise psychische Gesundheit und Lebenszufriedenheit, anzugehen. Zukünftige Arbeiten werden erforschen, wie sich verschiedene Ziele, wie kultureller Kontext, persönliche Werte und Nutzerkontrolle, in Einklang bringen lassen, um Online-Räume zu schaffen, die eine gesunde soziale und bürgerschaftliche Interaktion besser fördern.

    Der Forschungsbericht ist eine kurze Zusammenfassung interessanter wissenschaftlicher Arbeiten.

    Tiziano Piccardi , Assistenzprofessor für Informatik an der Johns Hopkins University.

    Dieser Artikel wurde mit freundlicher Genehmigung von The Conversation unter einer Creative-Commons-Lizenz erneut veröffentlicht. Lesen Sie den Originalartikel .

    0
    Würde mich über Ihre Gedanken freuen, bitte kommentieren Sie. X