Apps für soziale Medien präsentieren Teenagern regelmäßig algorithmisch ausgewählte Inhalte, die oft als „für dich“ beschrieben werden, was implizit suggeriert, dass die kuratierten Inhalte nicht nur „für dich“, sondern auch „über dich“ sind – ein Spiegel, der wichtige Signale über die Person, die du bist, reflektiert.
Alle Social-Media-Nutzer sind diesen Signalen ausgesetzt, doch Forscher wissen, dass Jugendliche sich in einer besonders formbaren Phase der Persönlichkeitsentwicklung befinden. Wissenschaftler haben begonnen nachzuweisen, dass Technologie generationenprägende Auswirkungen – nicht nur in Bezug auf kulturelle Ansichten, Verhalten und Privatsphäre, sondern auch hinsichtlich der Persönlichkeitsentwicklung derjenigen, die mit sozialen Medien aufwachsen.
Die Häufigkeit der „Für dich“-Nachricht wirft wichtige Fragen nach dem Einfluss dieser Algorithmen auf die Selbstwahrnehmung und die Weltsicht von Teenagern sowie nach der schleichenden Aushöhlung ihrer Privatsphäre auf, die sie im Austausch für diese Sichtweise in Kauf nehmen.
Teenager mögen ihr algorithmisches Spiegelbild
Inspiriert von diesen Fragen stellten meine Kollegen John Seberger und Afsaneh Razi von der Drexel University und ich uns die Frage: Wie navigieren Teenager in diesem algorithmisch generierten Umfeld, und wie erkennen sie sich selbst in dem Spiegel, den es ihnen präsentiert?
In unserer qualitativen Interviewstudie mit Jugendlichen im Alter von 13 bis 17 Jahren stellten wir fest, dass personalisierte algorithmische Inhalte tatsächlich das zu präsentieren scheinen, was Jugendliche als ein zuverlässiges Spiegelbild ihrer selbst interpretieren , und dass ihnen die Erfahrung, diese soziale Medienreflexion zu sehen, sehr gefällt.
Die Jugendlichen, mit denen wir gesprochen haben, gaben an, dass sie ein soziales Netzwerk bevorzugen, das vollständig auf sie zugeschnitten ist und das widerspiegelt, womit sie übereinstimmen, was sie sehen möchten und somit, wer sie sind.
Wenn ich nach etwas suche, das mir wichtig ist, wird es als einer der Top-Beiträge angezeigt und es werden mir Leute wie ich angezeigt, die eine nette Diskussion führen.
Es stellte sich heraus, dass die von uns befragten Jugendlichen der Ansicht sind, dass die Algorithmen sozialer Medien wie TikTok mittlerweile so gut sind, dass sie ihr eigenes Spiegelbild in den sozialen Medien als ziemlich genau wahrnehmen. So sehr, dass Jugendliche Abweichungen von ihrem Selbstbild schnell als Anomalien abtun – beispielsweise als Folge unbeabsichtigter Interaktion mit älteren Inhalten oder einfach als technischen Fehler.
Irgendwann habe ich etwas über diese Sendung gesehen, vielleicht auf TikTok, und habe damit interagiert, ohne es wirklich zu merken.
Wenn personalisierte Inhalte nicht mit ihrem Selbstbild übereinstimmen oder ihnen nicht zusagen, scrollen die von uns befragten Jugendlichen einfach weiter und hoffen, sie nie wiederzusehen. Selbst wenn diese wahrgenommenen Abweichungen in Form von extrem hypermaskulinen oder „anstößigen“ Inhalten auftreten, schreiben die Jugendlichen dies weder bestimmten Eigenschaften ihrer Person zu, noch suchen sie nach einer Erklärung in ihrem eigenen Verhalten. Laut den Jugendlichen in unseren Interviews regt die Spiegelung in den sozialen Medien sie nicht zu mehr Selbstreflexion an und stellt ihr Selbstbild nicht infrage.
Eine Sache hat uns überrascht: Jugendliche wissen zwar, dass die Inhalte ihres „Für dich“-Feeds von ihren Scrollgewohnheiten in sozialen Medien geprägt sind, aber sie sind sich größtenteils nicht bewusst oder kümmern sich nicht darum, dass diese appübergreifend erfassten Daten zu ihrem Selbstbild beitragen. Trotzdem sehen sie ihren „Für dich“-Feed nicht als Bedrohung für ihr Selbstbild, geschweige denn als Gefahr für ihre Identität – und überhaupt keinen Grund zur Sorge.
Identitätsgestaltung
Die Identitätsforschung hat einen langen Weg zurückgelegt, seit der Soziologe Erving Goffman 1959 die Theorie der „ Selbstdarstellung “ vorschlug. Er ging davon aus, dass Menschen ihre Identität durch soziales Verhalten steuern, um ein Gleichgewicht zwischen ihrer Selbstwahrnehmung und der Fremdwahrnehmung zu wahren.
Als Goffman seine Theorie erstmals vorstellte, gab es noch keine Social-Media-Oberfläche, die ein einfaches Spiegelbild des Selbst aus der Perspektive anderer hätte bieten können. Die Menschen waren gezwungen, ihr eigenes Mosaikbild aus vielfältigen Quellen, Begegnungen und Eindrücken zu erschaffen. In den letzten Jahren haben sich Empfehlungsalgorithmen der sozialen Medien in diese nunmehr dreiseitige Aushandlung zwischen Individuum, Öffentlichkeit und Social-Media-Algorithmus eingebracht.
Die „Für dich“-Angebote schaffen einen privat-öffentlichen Raum, in dem Jugendliche auf einen – wie sie finden – weitgehend zutreffenden Test ihres Selbstbildes zugreifen können. Gleichzeitig geben sie an, dass sie diesen Test problemlos ignorieren können, falls er ihrem Selbstbild zu widersprechen scheint.
Der Pakt, den Teenager mit sozialen Medien eingehen – der Austausch persönlicher Daten und der Verzicht auf Privatsphäre, um Zugang zu diesem algorithmischen Spiegelbild zu erhalten – erscheint ihnen wie ein gutes Geschäft. Sie geben sich selbstbewusst als fähig aus, empfohlene Inhalte auszublenden oder zu überspringen, die ihrem Selbstbild zu widersprechen scheinen, doch die Forschung zeigt etwas anderes .
Tatsächlich haben sie sich als äußerst anfällig für Selbstbildverzerrungen und andere psychische Probleme , die auf Algorithmen sozialer Medien beruhen, welche explizit darauf ausgelegt sind, Überempfindlichkeiten, Fixierungen und Dysmorphie – eine psychische Störung, bei der Menschen sich auf ihr Aussehen fixieren – zu erzeugen und zu belohnen.
Angesichts dessen, was Forscher über das Gehirn von Teenagern und diese Phase der sozialen Entwicklung wissen – und angesichts dessen, was man vernünftigerweise über die Formbarkeit des Selbstbildes auf der Grundlage sozialer Rückmeldungen vermuten kann – irren sich Teenager, wenn sie glauben, dass sie die Risiken für die Selbstidentität durch Algorithmen einfach ignorieren können.
Inhalte unserer Partner
Interventionen
Ein Teil der Lösung könnte darin bestehen, neue Tools zu entwickeln, die unsichere Interaktionen erkennen und gleichzeitig die Privatsphäre schützen. Ein anderer Ansatz ist, Jugendliche dabei zu unterstützen, über die von ihnen erstellten „Datendoppelgänger“ nachzudenken.
Meine Kollegen und ich untersuchen derzeit genauer, wie Jugendliche algorithmische Inhalte erleben und welche Interventionen ihnen helfen können, darüber zu reflektieren. Wir ermutigen Forschende in unserem Bereich, Methoden zu entwickeln, um die Genauigkeit von Algorithmen zu hinterfragen und aufzuzeigen, dass sie Verhalten widerspiegeln und nicht die Realität abbilden. Ein weiterer Lösungsansatz könnte darin bestehen, Jugendlichen Werkzeuge an die Hand zu geben, mit denen sie den Zugriff auf ihre Daten einschränken können, beispielsweise durch das Begrenzen von Cookies, das Anlegen unterschiedlicher Suchprofile und das Deaktivieren des Standorts bei der Nutzung bestimmter Apps.
Wir glauben, dass dies alles Schritte sind, die die Genauigkeit der Algorithmen wahrscheinlich verringern und eine dringend benötigte Reibung zwischen Algorithmus und Individuum erzeugen, auch wenn Teenager mit den Ergebnissen nicht unbedingt zufrieden sind.
Die Kinder miteinbeziehen
Kürzlich führten meine Kollegen und ich einen Workshop für die Generation Z mit Jugendlichen von Encode Justice , einer globalen Organisation von Schülern und Studierenden, die sich für sichere und gerechte KI einsetzt. Ziel war es, besser zu verstehen, wie sie über ihr Leben unter dem Einfluss von Algorithmen und KI denken. Die Generation Z äußerte sich besorgt, aber auch motiviert, ihre Zukunft aktiv mitzugestalten und die negativen Auswirkungen von Algorithmen abzumildern. Ein Teilziel des Workshops war es, auf die Notwendigkeit von jugendgeleiteten Untersuchungen zu Algorithmen und ihren Auswirkungen aufmerksam zu machen und diese zu fördern.
Forscher stehen zudem vor der Herausforderung, dass wir eigentlich nicht wissen, was es bedeutet, die eigene Identität ständig mit einem Algorithmus auszuhandeln. Viele von uns, die Jugendliche untersuchen, sind zu alt, um in einer algorithmisch gesteuerten Welt aufgewachsen zu sein. Für die Jugendlichen, die wir erforschen, gibt es kein „ vor der KI “.
Ich glaube, es ist gefährlich, die Funktionsweise von Algorithmen zu ignorieren. Die Zukunft von Jugendlichen kann eine sein, in der die Gesellschaft die besondere Beziehung zwischen Jugendlichen und sozialen Medien anerkennt. Das bedeutet, sie in die Lösungsfindung einzubeziehen und ihnen gleichzeitig Orientierung zu geben.
Nora McDonald, Assistenzprofessorin für Informationstechnologie an der George Mason University .
Dieser Artikel wurde mit freundlicher Genehmigung von The Conversation unter einer Creative-Commons-Lizenz erneut veröffentlicht. Lesen Sie den Originalartikel .








