Stemningen rundt generativ AI opplever en kurskorreksjon i kjølvannet av Googles og Microsofts feiltrinn i implementeringen av LLM-er.
Utgivere tar nå tak i de praktiske implikasjonene av et verktøy som kan spytte ut massevis av tekst på et blunk for brukere med svært lite skriveerfaring. Bekymringene øker over en flom av lavkvalitets AI-skrevne historier overfylte innleveringsskrankene. Andre stiller i mellomtiden alvorlige spørsmål om hvor AI får dataene den gjenbruker fra.
Utgiverens smertepunkt
INMAs Peter Bale påpeker at bekymringen for utgivere er todelt når det gjelder søkeintegrerte LLM-er – attribusjoner og nullklikk-søk. Utgivere er rasende over utsiktene til at generativ kunstig intelligens kan samle kunnskap på nettet for å lage samtalesvar som ikke oppgir hvor informasjonen kommer fra. Som Bale påpeker, reiser dette noen alvorlige spørsmål om «opphavsrett, vilkår, nøyaktighet, samt det store spørsmålet om betaling». Samtidig er det en reell bekymring for at søkeintegrert AI vil forverre problemet med nullklikksøk. Det er her brukeren får svaret sitt fra en Google-søkefunksjon – for eksempel et fremhevet utdrag – uten å måtte klikke på et søkeresultat. Wired har allerede rapportert om hvordan Bing chatboten kunne kikke bak Wirecutters målte betalingsmur og gi gratis tilgang til innholdet. Wired bemerket at utgivere vurderte «om de skulle slå tilbake mot Microsoft». Trafikk driver inntekter. Ja, det er mer komplisert enn som så, men ikke mye. Velg en inntektsmodell, og til syvende og sist fungerer den enten eller ikke, basert på hvor mange som lander på nettstedet ditt. Det er litt over et år siden jeg skrev om hvordan News Showcase var Googles svar til det globale regulatoriske presset om at både den og Facebook skal betale for å lenke til nyhetsartikler. Fremdriften i Europa har ikke bare ført til at Google signerer News Showcase-avtaler med utgivere (som har blitt møtt med kritikk for mangel på åpenhet), men også lanserer et nytt automatisert lisensieringsverktøy kalt Utvidede nyhetsforhåndsvisninger (ENP) Program, som nå er en del av Google Search Console. Til slutt kan utgivere ende opp med å føle at de må slå tilbake mot søkeintegrerte LLM-er for å beskytte innholdet sitt mot å bli kannibalisert. Om det skjer gjennom lobbyvirksomhet for regelendringer eller søksmål gjenstår å se. Gitt myndighetenes notorisk beryktede kamp for å holde seg oppdatert på teknologiske endringer, bør du imidlertid ikke bli overrasket om det tar år før vi ser noen meningsfulle regulatoriske endringer på denne fronten.AI-vegger
Med dette i tankene spurte jeg Status for digital publisering (SODP) Teknisk og nyhets-SEO-ansvarlig Mahendra Choudhary, hvordan han så for seg at utgivere ville reagere. Choudhary foreslo at større nyhetsutgivere – og på et tidspunkt hostingleverandører/til og med internettleverandører – ville begynne å blokkere AI-boter fra å skanne nettstedet deres. Choudhary sa: «Ingen vil at innholdet deres skal gjenbrukes av AI gratis. Men nyhetsutgivere vil enten ta betalt av disse AI-ene for å gjennomsøke dataene deres, eller forhindre dem i å gjennomsøke nettstedene deres i utgangspunktet. Dette vil gjøre AI-resultatene overflødige og frustrerende.» Han påpekte at Google har flere roboter for hvert resultatsegment – søk, nyheter, bilder osv. – og sannsynligvis bruker data fra alle disse robotene til sin Bard AI-chatbot. ChatGPT, derimot, lener seg hovedsakelig på CCBot. Choudhary sa: «Etter hvert må alle AI-verktøy som skanner dataene åpent publisere robotnavnene sine og IP-adresseområdet de bruker til å skanne nettet, på samme måte som Google og andre søkemotorer gjør. Dette vil bety at nettutgivere kan blokkere dem hvis de ønsker det.» Selv om han erkjente sannsynligheten for at klikkfrekvensene for disse nettstedene ville oppleve en viss nedgang i trafikken, argumenterte han for at det var usannsynlig at det ville gjøre noe særlig ut av det. Han bemerket at etter lanseringen av funksjoner som førte til null klikk-søk, «fikk utgivere fortsatt klikk».Innhold fra våre partnere








