Il discorso di apertura della scorsa settimana al Google I/O 2023 è riuscito a far scattare nuovi campanelli d'allarme sull'intelligenza artificiale nella comunità editoriale, che non sono convinto fossero giustificati.
Abbiamo ricevuto diversi avvertimenti sui pericoli e le opportunità dell'intelligenza artificiale nei mesi successivi al lancio di ChatGPT. Alcuni editori stanno investendo in team dedicati all'intelligenza artificiale, mentre altri mormorano minacciosamente di intraprendere azioni legali contro gli sviluppatori di intelligenza artificiale per plagio.
Tuttavia, l'aggiornamento di Cathy Edwards, vicepresidente dell'ingegneria di Google, su come Bard avrebbe modellato i risultati di ricerca nel prossimo futuro ha chiaramente toccato un nervo scoperto, tanto che un collaboratore di Forbes lo ha paragonato a una bomba nucleare sganciata sugli editori digitali .
Ho guardato personalmente lo show di Edwards e, spero senza sembrare indifferente, sono molto meno preoccupato. Ti consiglio di prenderti il tempo di guardare il segmento prima di continuare. Dai, non è poi così lungo e aspetterò, promesso.
La capacità di Bard di rispondere a query di ampio respiro "leggendo" articoli in tempo reale ha alimentato il timore che gli utenti di Google non avranno più motivo di cliccare sugli articoli originali. Il paragone che viene fatto è tra Wikipedia e le sue fonti: moltissime persone usano Wikipedia, ma solo una minima parte clicca sulle fonti.
Non accetto questo paragone per diversi motivi. Vorrei usare la presentazione di Edwards per illustrare il mio punto.

Domande ma nessuna risposta?
Leggendo la domanda e la successiva risposta, mi sono subito venute in mente un paio di cose.
C'è una domanda con due fattori influenti. Quale parco è migliore per una famiglia con a) bambini sotto i tre anni e b) un cane? Bard non solo non riesce a rispondere alla domanda, ma nemmeno a uno dei fattori influenti.
La query di ricerca cerca un suggerimento, ma l'IA non ne fornisce nessuno. Cerca invece di considerare i fattori che influenzano la ricerca. Tuttavia, non essendo disponibili informazioni sulle attività per bambini sotto i tre anni, Bard falsifica la sua risposta esaminando attività generiche per bambini. L'IA è in grado di fornire alcune informazioni di base sull'accessibilità dei cani.
Quanto ha risposto questa istantanea alla query di ricerca originale? Molto poco, direi. Ha avviato il processo di definizione dei filtri. Ad esempio, se la famiglia ama il proprio cane e desidera una passeggiata, allora Bryce Canyon è la destinazione giusta. Ma se ama il proprio cane e vuole campeggiare, allora sceglierà Arches.
L'istantanea di Bard è ben lungi dall'essere una risposta definitiva e serve come punto di partenza per il percorso di ricerca. Ciò significa che, man mano che gli utenti utilizzano Bard, saranno in grado di individuare più rapidamente gli articoli che effettivamente contengono il contenuto che desiderano leggere, anziché leggerli superficialmente.
Bard sintetizza le sue risposte basandosi sulle informazioni contenute negli articoli che legge, ma non ha la capacità di estrapolare da lì. E quando l'intelligenza artificiale avrà questa capacità, quanti lettori si fideranno intrinsecamente dei consigli di una macchina su destinazioni turistiche o culinarie? Dopotutto, ci vuole un corpo per capire il mondo .
Contenuti dei nostri partner
Potremmo discutere a lungo del valore per il pubblico e di parametri come la profondità di scorrimento, ma non sono sicuro che ce ne sia bisogno. Queste istantanee generate dall'intelligenza artificiale non sono sufficienti a sostituire una recensione personale e di alta qualità dei parchi naturali, e questo si estende ad altri aspetti del mondo editoriale. Le esperienze personali avranno la meglio sulle macchine dei fatti. Dopotutto, quante famiglie si riuniscono intorno a Wikipedia la sera invece che all'ultimo reality show?
Quindi, cosa significa tutto questo per gli editori? Evolversi o morire, direi. Soddisfare le esigenze del pubblico creando contenuti di alta qualità che l'intelligenza artificiale semplicemente non ha il quadro di riferimento per produrre.








