Le sentiment sur l'IA générative connaît une correction de cap à la suite des faux pas de Google et Microsoft dans la mise en œuvre des LLM.
Les éditeurs s'attaquent désormais aux conséquences concrètes d'un outil capable de générer des quantités considérables de textes en un clin d'œil pour des utilisateurs ayant très peu d'expérience en écriture. Les inquiétudes grandissent quant à… déluge d'histoires écrites par IA de mauvaise qualité Les services de soumission sont submergés. Parallèlement, d'autres s'interrogent sérieusement sur la provenance des données que l'IA réutilise.
Point douloureux de l'éditeur
Peter Bale, de l'INMA, souligne que La préoccupation des éditeurs est double en ce qui concerne les LLM intégrés à la recherche — les attributions et les recherches sans clic. Les éditeurs sont révoltés à l'idée que l'IA générative agrège les connaissances sur le Web pour créer des réponses conversationnelles qui ne citent pas l'origine de ces informations. Comme le souligne Bale, cela soulève de sérieuses questions sur "le droit d'auteur, les conditions, l'exactitude, ainsi que la grande question du paiement". Dans le même temps, on craint vraiment que l'IA intégrée à la recherche n'exacerbe le problème des recherches sans clic. C'est là que l'utilisateur obtient sa réponse à partir d'une fonctionnalité de recherche Google, telle qu'un extrait en vedette, sans avoir à cliquer sur un résultat de recherche. Wired a déjà rapporté comment Bing Le chatbot a pu jeter un coup d'œil derrière le mur payant de Wirecutter et offrir un accès gratuit au contenu. Wired a noté que les éditeurs se demandaient « s’il fallait riposter à Microsoft ». Le trafic génère des revenus. Oui, c'est plus compliqué que ça, mais pas de beaucoup. Choisissez un modèle de monétisation et, en fin de compte, cela fonctionne ou non en fonction du nombre de personnes qui accèdent à votre site. Il y a un peu plus d'un an, j'écrivais sur la façon dont News Showcase était la réponse de Google face aux pressions réglementaires mondiales visant à obliger Facebook et Internet à payer pour créer des liens vers des articles de presse. En Europe, Google a non seulement signé des accords News Showcase avec des éditeurs (accords qui ont fait l'objet de nombreuses critiques concernant leur manque de transparence), mais a également lancé un nouvel outil de gestion automatisée des licences appelé… Aperçus étendus de l'actualité (ENP) Programme qui fait désormais partie de Google Search Console. En fin de compte, les éditeurs peuvent finir par avoir l'impression qu'ils doivent riposter aux LLM intégrés à la recherche afin de protéger leur contenu contre la cannibalisation. Que ce soit par le lobbying pour un changement de réglementation ou des poursuites judiciaires, cela reste à voir. Étant donné la lutte notoire des gouvernements pour se tenir au courant des changements technologiques, ne soyez pas surpris s'il faut des années avant que nous ne voyions des changements réglementaires significatifs sur ce front.AI-Walls
C’est pourquoi j’ai demandé État de l'édition numérique (SODP) Mahendra Choudhary, responsable SEO technique et actualités, a expliqué comment il envisageait la réaction des éditeurs. Il a suggéré que les grands médias d'information — et à terme, les hébergeurs, voire les fournisseurs d'accès à Internet — commenceraient à bloquer l'accès de leurs sites aux robots d'intelligence artificielle. Choudhary a déclaré : « Personne ne souhaite que son contenu soit réutilisé gratuitement par une IA. Or, les éditeurs de presse factureront ces IA pour l’exploration de leurs données ou les empêcheront tout simplement d’explorer leurs sites. Les résultats de l’IA deviendront alors inutiles et frustrants. » Il a souligné que Google dispose de plusieurs robots pour chaque segment de résultats (recherche, actualités, images, etc.) et utilise probablement les données de tous ces robots pour son chatbot Bard AI. ChatGPT, quant à lui, s'appuie principalement sur… CCBot. Choudhary a déclaré : « À terme, tous les outils d'IA qui analysent les données devront publier ouvertement les noms de leurs bots et la plage d'adresses IP qu'ils utilisent pour analyser le Web, comme le font Google et d'autres moteurs de recherche. Cela signifie que les éditeurs Web pourront les bloquer s'ils le souhaitent. » Tout en reconnaissant la probabilité que les CTR de ces sites Web connaissent une baisse du trafic, il a fait valoir qu'il était peu probable que cela fasse une grande brèche. Il a noté qu'après le lancement de fonctionnalités qui entraînaient des recherches sans clic, "les éditeurs gagnaient encore des clics".Contenu de nos partenaires








