L'idea originale del World Wide Web emerse in un turbinio di riflessioni scientifiche verso la fine della Seconda Guerra Mondiale. Tutto ebbe inizio con un'ipotetica macchina chiamata "memex", proposta dal direttore dell'Ufficio per la Ricerca e lo Sviluppo Scientifico degli Stati Uniti, Vannevar Bush, in un articolo intitolato " As We May Think" , pubblicato sull'Atlantic Monthly nel 1945.
Il memex ci avrebbe aiutato ad accedere a tutta la conoscenza, istantaneamente e dalla nostra scrivania. Aveva un indice consultabile e i documenti erano collegati tra loro dalle "tracce" create dagli utenti quando associavano un documento all'altro. Bush immaginò il memex utilizzando microfiche e fotografie, ma concettualmente era quasi l'Internet moderno.
Il vero valore di questa idea iniziale risiedeva nei link: se si voleva approfondire, c'era un modo semplice e integrato per farlo. Chiunque abbia passato ore a seguire link casuali su Wikipedia e ad apprendere cose che non sapeva potessero interessargli, riconoscerà questo valore. (Naturalmente esiste una pagina di Wikipedia dedicata a questo fenomeno.)
I link hanno reso il web quello che è. Ma mentre le piattaforme dei social media, gli strumenti di intelligenza artificiale generativa e persino i motori di ricerca si impegnano sempre di più per fidelizzare gli utenti sui loro siti o app, l'umile link sta iniziando a sembrare una specie in via di estinzione.
Le leggi dei link
I moderni motori di ricerca sono stati sviluppati all'ombra del memex, ma inizialmente hanno dovuto affrontare problemi legali inaspettati. Agli albori di Internet, non era chiaro se "scansionare" le pagine web per inserirle nell'indice di un motore di ricerca violasse il diritto d'autore.
Non era chiaro se, nel linkare informazioni che avrebbero potuto aiutare qualcuno a costruire una bomba, frodare qualcuno o compiere altre attività illecite, i motori di ricerca o gli host di siti web fossero "editori". Essere editori li renderebbe legalmente responsabili dei contenuti che ospitano o a cui linkano.
La questione del web crawling è stata affrontata attraverso una combinazione di fair use, esenzioni specifiche per paese per il crawling e le disposizioni "safe harbor" del Digital Millennium Copyright Act statunitense . Queste consentono il web crawling a condizione che i motori di ricerca non alterino l'opera originale, non vi creino link, non la utilizzino solo per un periodo di tempo relativamente breve e non traggano profitto dal contenuto originale.
La questione dei contenuti problematici è stata affrontata (almeno nell'influente giurisdizione statunitense) tramite una legge denominata Sezione 230. Questa garantisce l'immunità ai "fornitori o utenti di servizi informatici interattivi" che forniscono informazioni "fornite da un altro fornitore di contenuti".
Senza questa legge, Internet come lo conosciamo non potrebbe esistere , perché è impossibile controllare manualmente ogni pagina collegata o ogni post sui social media per individuare eventuali contenuti illegali.
Questo non significa, però, che Internet sia un Far West completo. La Sezione 230 è stata impugnata con successo per discriminazione illegale , quando un questionario obbligatorio sull'alloggio chiedeva la razza. Più recentemente, un caso intentato contro TikTok ha suggerito che le piattaforme non sono immuni quando i loro algoritmi raccomandano video specifici.
Il contratto sociale del web sta fallendo
Tuttavia, tutte le leggi che hanno creato Internet si sono basate sui link. Il contratto sociale prevede che un motore di ricerca possa "scraping" il tuo sito, o un'azienda di social media possa ospitare i tuoi testi o le tue immagini, a patto che diano credito a te, la persona che li ha creati (o li screditino se stai dando cattivi consigli). Il link non è solo un modo per seguire la tana del Bianconiglio di Wikipedia, è un modo per dare credito e consentire ai creatori di contenuti di trarre profitto dai loro contenuti.
Grandi piattaforme, tra cui Google , Microsoft e OpenAI , hanno sfruttato queste leggi e il contratto sociale che implicano per continuare ad assimilare contenuti su scala industriale.
Tuttavia, la fornitura di link, visualizzazioni e crediti è in calo , poiché l'intelligenza artificiale non collega le sue fonti. Per fare un esempio, gli snippet di notizie forniti dai motori di ricerca e dai social media hanno sostituito gli articoli originali a tal punto che le piattaforme tecnologiche ora devono pagare per questi snippet in Australia e Canada .
Le grandi aziende tecnologiche ritengono importante fidelizzare gli utenti sui propri siti, poiché i clic possono essere monetizzati tramite la vendita di annunci personalizzati.
Un altro problema dell'intelligenza artificiale è che in genere impara di nuovo poco frequentemente e si aggrappa a contenuti obsoleti. Sebbene i più recenti strumenti di ricerca basati sull'intelligenza artificiale affermino di fare meglio su questo fronte, non è chiaro quanto siano efficaci.
E, come per gli estratti di notizie, le grandi aziende sono riluttanti a dare credito e opinioni ad altri. Ci sono buone ragioni, incentrate sulle persone, per cui le aziende di social media e i motori di ricerca vogliono che tu non debba abbandonare il sito. Un valore fondamentale di ChatGPT è fornire informazioni in un'unica forma condensata, in modo da non dover mai cliccare su un link, anche se disponibile.
Diritto d'autore e creatività
Ma mettere da parte i link è una cosa positiva? Molti esperti sostengono di no.
L'utilizzo di contenuti senza citazione costituisce presumibilmente una violazione del copyright . Sostituire artisti e scrittori con l'intelligenza artificiale riduce la creatività nella società .
Riassumere informazioni senza linkare le fonti originali riduce la capacità di verifica dei fatti, è soggetto a pregiudizi e può compromettere l'apprendimento, la riflessione e la creatività supportate dalla consultazione di numerosi documenti. Dopotutto, Wikipedia non sarebbe divertente senza la tana del Bianconiglio, e Internet senza link è solo un libro online scritto da un robot.
Si profila una reazione negativa all'intelligenza artificiale
Quindi, cosa ci riserva il futuro? Ironicamente, gli stessi sistemi di intelligenza artificiale che hanno aggravato il problema dei collegamenti hanno anche aumentato la probabilità che le cose cambino.
Le esenzioni dal copyright applicabili al crawling e al linking sono contestate dai creativi il cui lavoro è stato incorporato nei modelli di intelligenza artificiale. Le modifiche proposte alla Sezione 230 potrebbero significare che le piattaforme digitali sono più sicure per il collegamento al materiale piuttosto che per la sua replica.
Anche noi abbiamo il potere di cambiare: dove ci sono dei link, cliccaci sopra. Non si sa mai dove potrebbe portarti seguire una pista.
Vamsi Kanuri, Professoressa Associata di Marketing, Università di Notre Dame .
Questo articolo è ripubblicato da The Conversation con licenza Creative Commons. Leggi l' articolo originale .





