Die Stimmung gegenüber generativer KI erfährt eine Kurskorrektur im Zuge der Fehltritte von Google und Microsoft bei der Implementierung von LLMs.
Verlage setzen sich nun mit den praktischen Auswirkungen eines Tools auseinander, das im Handumdrehen Unmengen an Texten für Nutzer mit sehr geringer Schreiberfahrung generieren kann. Die Bedenken wachsen Flut von minderwertigen, von KI geschriebenen Geschichten Die Einreichungsstellen werden überflutet. Andere stellen derweil ernsthafte Fragen darüber, woher die KI die Daten bezieht, die sie wiederverwendet.
Schmerzpunkt des Verlags
Peter Bale von INMA weist darauf hin, dass Die Sorge der Verlage ist zweifacher Natur Wenn es um suchmaschinenintegrierte LLMs geht – Attributionen und Zero-Click-Suchen. Verlage sind empört über die Aussicht, dass generative KI Wissen im Web aggregiert, um Konversationsantworten zu erstellen, die nicht angeben, woher diese Informationen stammen. Wie Bale betont, wirft dies einige ernsthafte Fragen zu „Urheberrecht, Bedingungen, Genauigkeit sowie der großen Frage der Zahlung“ auf. Gleichzeitig gibt es echte Bedenken, dass suchintegrierte KI das Problem der Null-Klick-Suche verschärfen wird. Hier erhält der Nutzer seine Antwort von einer Google-Suchfunktion – beispielsweise einem Featured Snippet – ohne auf ein Suchergebnis klicken zu müssen. Wired hat bereits darüber berichtet, wie Bing Der Chatbot konnte hinter die Bezahlschranke von Wirecutter blicken und freien Zugang zu den Inhalten zu gewähren. Wired merkte an, dass Verlage abwägen, „ob sie gegen Microsoft vorgehen sollen“. Der Verkehr steigert den Umsatz. Ja, es ist komplizierter als das, aber nicht viel. Wählen Sie ein Monetarisierungsmodell aus und am Ende des Tages funktioniert es entweder oder nicht, je nachdem, wie viele Personen auf Ihrer Website landen. Es ist etwas mehr als ein Jahr her, dass ich darüber schrieb, wie News Showcase war Googles Antwort auf den globalen regulatorischen Druck, der sowohl es als auch Facebook dazu bewegen soll, für die Verlinkung von Nachrichtenartikeln zu bezahlen. Die Initiative in Europa hat dazu geführt, dass Google nicht nur News-Showcase-Vereinbarungen mit Verlagen abgeschlossen hat (die aufgrund mangelnder Transparenz immer wieder kritisiert wurden), sondern auch ein neues automatisiertes Lizenzierungstool namens „News Showcase“ eingeführt hat Erweiterte Nachrichtenvorschau (ENP) Das Programm ist jetzt Teil der Google Search Console. Am Ende könnten Verlage das Gefühl haben, suchintegrierte LLMs zurückschlagen zu müssen, um ihre Inhalte vor Kannibalisierung zu schützen. Ob dies durch Lobbyarbeit für regulatorische Änderungen oder Klagen geschieht, bleibt abzuwarten. Angesichts des berüchtigten Kampfes der Regierungen, mit technischen Veränderungen Schritt zu halten, sollten Sie sich jedoch nicht wundern, wenn es Jahre dauert, bis wir an dieser Front bedeutende regulatorische Änderungen sehen.KI-Wände
Vor diesem Hintergrund fragte ich: State of Digital Publishing (SODP) Mahendra Choudhary, Leiter der technischen und redaktionellen SEO-Abteilung, erläuterte seine Einschätzung zur möglichen Reaktion von Verlagen. Choudhary vermutete, dass größere Nachrichtenverlage – und irgendwann auch Hosting-Anbieter/sogar Internetdienstanbieter – damit beginnen würden, KI-Bots am Scannen ihrer Websites zu hindern. Choudhary sagte: „Niemand möchte, dass seine Inhalte kostenlos von KI wiederverwendet werden. Nachrichtenverlage werden diese KIs aber entweder für das Crawlen ihrer Daten zur Kasse bitten oder sie von vornherein daran hindern, ihre Seiten zu durchsuchen. Dadurch werden die KI-Ergebnisse überflüssig und frustrierend.“ Er wies darauf hin, dass Google für jedes Ergebnissegment – Suche, Nachrichten, Bilder usw. – mehrere Bots einsetzt und wahrscheinlich Daten all dieser Bots für seinen Bard-AI-Chatbot verwendet. ChatGPT hingegen stützt sich hauptsächlich auf … CCBot. Choudhary sagte: „Schließlich müssen alle KI-Tools, die die Daten scannen, ihre Bot-Namen und den IP-Bereich, den sie zum Scannen des Webs verwenden, offen veröffentlichen, ähnlich wie es Google und andere Suchmaschinen tun. Dies bedeutet, dass Web-Publisher sie blockieren können, wenn sie möchten.“ Er räumte zwar die Wahrscheinlichkeit ein, dass CTRs für diese Websites einen gewissen Rückgang des Traffics erfahren würden, argumentierte jedoch, dass dies wahrscheinlich keine große Auswirkung haben würde. Er bemerkte, dass nach der Einführung von Funktionen, die zu Null-Klick-Suchen führten, „Publisher immer noch Klicks erzielten“.Inhalte unserer Partner








