Sie sind in Ihren Social-Media-Feeds wahrscheinlich schon auf Bilder gestoßen, die wie eine Mischung aus Fotos und computergenerierten Grafiken aussehen. Manche sind fantastisch – denken Sie an den Garnelen-Jesus – und manche wirken auf den ersten Blick glaubwürdig – erinnern Sie sich an das kleine Mädchen, das während einer Überschwemmung in einem Boot einen Welpen umklammerte?
Dies sind Beispiele für minderwertige KI-generierte Inhalte – Videos, Bilder, Audio, Texte oder eine Mischung daraus –, die mit KI-Tools erstellt werden, oft ohne Rücksicht auf Genauigkeit. Solche Inhalte lassen sich schnell, einfach und kostengünstig produzieren. Produzenten solcher Inhalte platzieren sie typischerweise in sozialen Medien, um von der hohen Aufmerksamkeit im Internet zu profitieren und verdrängen so qualitativ hochwertigere, potenziell hilfreichere Inhalte.
Die Qualität von KI-gestützten Lösungen hat zugenommen . Wie der Begriff „Qualität“ bereits andeutet, ist das im Allgemeinen nicht gut für Internetnutzer.
Die vielen Formen von KI-Schlamm
Der Guardian veröffentlichte im Juli 2025 eine Analyse, die untersuchte, wie KI-generierte Inhalte die YouTube-Kanäle dominieren . Die Journalisten stellten fest, dass neun der 100 am schnellsten wachsenden Kanäle KI-generierte Inhalte wie Zombie-Fußball und Katzen-Seifenopern anbieten.
Hörst du Spotify? Sei skeptisch gegenüber der neuen Band The Velvet Sundown, die mit einer kreativen Hintergrundgeschichte und abgedroschenen Songs auf dem Streamingdienst aufgetaucht ist. Sie ist KI-generiert.
In vielen Fällen reichen die Leute KI-Schrott ein, der gerade gut genug ist, um die Aufmerksamkeit der Nutzer zu erregen und zu halten, sodass der Einreicher von Plattformen profitieren kann, die Streaming- und ansichtsbasierte Inhalte monetarisieren.
Die einfache Erstellung von Inhalten mithilfe von KI verleitet dazu, minderwertige Artikel bei Publikationen einzureichen. Clarkesworld, ein Online-Science-Fiction-Magazin, das Beiträge von Nutzern entgegennimmt und Autoren bezahlt, stellte 2024 die Annahme neuer Einsendungen ein, da es mit KI-generierten Texten überschwemmt wurde.
Dies sind nicht die einzigen Orte, an denen dies geschieht – selbst Wikipedia hat mit KI-generierten, minderwertigen Inhalten zu kämpfen, die das gesamte Moderationssystem der Community überlasten. Gelingt es der Organisation nicht, diese Inhalte zu entfernen, ist eine wichtige Informationsquelle, auf die sich viele Menschen verlassen, gefährdet.
Schäden durch KI-Schlampigkeit
KI-generierte Fehlinformationen finden zunehmend auch Eingang in die Mediennutzung der Menschen. Während des Hurrikans Helene nutzten Gegner von Präsident Joe Biden KI-generierte Bilder eines vertriebenen Kindes mit einem Welpen als Beweis für das angebliche Versagen der Regierung im Umgang mit der Katastrophe. Selbst wenn Inhalte offensichtlich KI-generiert sind, können sie zur Verbreitung von Fehlinformationen missbraucht werden, indem sie manche Menschen, die sie nur flüchtig betrachten, täuschen.
KI-generierte Inhalte schaden auch Künstlern, indem sie zu Arbeitsplatz- und Einkommensverlusten führen und Inhalte von echten Kreativen verdrängen. Die Platzierung dieser minderwertigen KI-generierten Inhalte wird von den Algorithmen, die den Konsum in sozialen Medien steuern, oft nicht differenziert und verdrängt ganze Gruppen von Kreativen, die zuvor ihren Lebensunterhalt mit Online-Inhalten verdienten.
Inhalte unserer Partner
Wo immer möglich, können Sie schädliche oder problematische Inhalte melden. Auf manchen Plattformen können Sie dem Inhalt Anmerkungen der Community hinzufügen, um Kontext zu liefern. Schädliche Inhalte können Sie melden.
Künstliche Intelligenz zwingt uns nicht nur, wachsam gegenüber Deepfakes und gefälschten Social-Media-Profilen zu sein, sondern führt nun auch zu einer Unmenge an Schund, der unsere Medienlandschaft verschmutzt. Wenigstens gibt es dafür einen einprägsamen Namen.
Adam Nemeroff , stellvertretender Prorektor für Innovationen in Lehre, Lernen und Technologie an der Quinnipiac University.
Dieser Artikel wurde mit freundlicher Genehmigung von The Conversation unter einer Creative-Commons-Lizenz erneut veröffentlicht. Lesen Sie den Originalartikel .








