Sie sind in Ihren Social-Media-Feeds wahrscheinlich schon auf Bilder gestoßen, die wie eine Mischung aus Fotografien und computergenerierten Grafiken aussehen. Manche sind fantastisch – denken Sie an Shrimp Jesus – und andere wirken auf den ersten Blick glaubwürdig – erinnern Sie sich an das kleine Mädchen, das während einer Überschwemmung in einem Boot einen Welpen umarmt?
Dies sind Beispiele für KI-Schlamperei: Inhalte von geringer bis mittlerer Qualität – Videos, Bilder, Audio, Text oder eine Mischung davon –, die mit KI-Tools erstellt werden, oft ohne Rücksicht auf Genauigkeit. Die Erstellung solcher Inhalte ist schnell, einfach und kostengünstig . Produzenten von KI-Schlamperei platzieren diese typischerweise in sozialen Medien, um die Aufmerksamkeitsökonomie im Internet auszunutzen und so hochwertigeres Material zu verdrängen, das hilfreicher sein könnte.
hat die KI-Schlamperei zugenommen . Wie der Begriff „Schlamperei“ schon sagt, ist das für die Internetnutzer im Allgemeinen nicht gut.
Die vielen Formen des KI-Schlamms
Der Guardian veröffentlichte im Juli 2025 eine Analyse, die untersuchte, wie KI-Schund die YouTube- Kanäle erobert. Die Journalisten fanden heraus, dass neun der 100 am schnellsten wachsenden Kanäle KI-generierte Inhalte wie Zombie-Football und Katzen-Seifenopern bieten.
Hören Sie Spotify? Seien Sie skeptisch gegenüber der neuen Band The Velvet Sundown, die mit einer kreativen Hintergrundgeschichte und abgeleiteten Tracks auf dem Streaming-Dienst erschien. Sie ist KI-generiert.
In vielen Fällen wird KI-Schund eingereicht, der gerade gut genug ist, um die Aufmerksamkeit der Benutzer zu erregen und zu halten, sodass der Einreicher von Plattformen profitieren kann, die Streaming- und auf Ansichtsinhalten basierende Inhalte monetarisieren.
Die einfache Inhaltsgenerierung mit KI ermöglicht es Nutzern, Artikel von geringer Qualität an Publikationen zu senden. Clarkesworld, ein Online-Science-Fiction-Magazin, das Benutzerbeiträge akzeptiert und die Autoren bezahlt, nahm 2024 keine neuen Beiträge mehr an, da es eine Flut an KI-generierten Texten erhielt.
Dies ist nicht der einzige Fall – auch Wikipedia hat mit KI-generierten, minderwertigen Inhalten zu kämpfen, die das gesamte Moderationssystem der Community belasten. Gelingt es der Organisation nicht, diese Inhalte zu entfernen, ist eine wichtige Informationsquelle, auf die die Menschen angewiesen sind, gefährdet.
Schäden durch KI-Schlamm
Auch KI-gesteuerter Unsinn findet seinen Weg in die Medienwelt. Während des Hurrikans Helene führten Gegner von Präsident Joe Biden KI-generierte Bilder eines obdachlosen Kindes mit einem Welpen als Beweis für das angebliche Missmanagement der Regierung bei der Katastrophenhilfe an. Selbst wenn KI-generierte Inhalte offensichtlich sind, können sie dennoch zur Verbreitung von Fehlinformationen genutzt werden, indem man Menschen, die einen kurzen Blick darauf werfen, täuscht.
KI-Schlamperei schadet Künstlern auch, indem sie zu Arbeitsplatz- und finanziellen Verlusten führt und Inhalte echter Schöpfer verdrängt. Die Platzierung dieser minderwertigen, KI-generierten Inhalte wird oft nicht von den Algorithmen erkannt, die den Social-Media-Konsum steuern, und verdrängt ganze Klassen von Schöpfern, die zuvor ihren Lebensunterhalt mit Online-Inhalten verdienten.
Inhalte unserer Partner
Sofern die Funktion aktiviert ist, können Sie schädliche oder problematische Inhalte markieren. Auf einigen Plattformen können Sie den Inhalten Community-Notizen hinzufügen, um Kontext zu bieten. Schädliche Inhalte können Sie melden.
KI zwingt uns nicht nur dazu, uns vor Deepfakes und „unechten“ Social-Media-Konten in Acht zu nehmen, sondern führt auch zu einer Menge Mist, der unsere Medienlandschaft verdirbt. Zumindest gibt es dafür einen einprägsamen Namen.
Adam Nemeroff , stellvertretender Provost für Innovationen in Lernen, Lehren und Technologie, Quinnipiac University.
Dieser Artikel wurde unter einer Creative Commons-Lizenz The Conversation Originalartikel .






