SODP logo

    Nota dell'editore: la sperimentazione dell'intelligenza artificiale su piccola scala può contribuire ad aumentare il potenziale degli editori

    Con il passare dei mesi, diventa sempre più chiaro che l'intelligenza artificiale generativa non solo è qui per restare, ma avrà anche un profondo impatto sul settore editoriale nel..
    Aggiornato il: 1 dicembre 2025
    Andrea Kemp

    Creato da

    Andrea Kemp

    Vahe Arabian

    Verificato da

    Vahe Arabian

    Andrea Kemp

    Modificato da

    Andrea Kemp

    Con il passare dei mesi, diventa sempre più chiaro che l'intelligenza artificiale generativa non solo è qui per restare, ma avrà anche un profondo impatto sul settore editoriale a lungo termine.

    Sebbene i principali editori stiano sperimentando l'intelligenza artificiale da diversi anni, sembra che ora molti abbiano creato team dedicati per supervisionare le iniziative di intelligenza artificiale all'interno delle loro aziende.

    Questo non dovrebbe allarmare gli editori più piccoli. C'è un motivo per cui i ruoli di ingegneria del prompt sono così elevati : far funzionare l'intelligenza artificiale generativa all'interno di un flusso editoriale non è un'impresa da poco e potrebbe richiedere anni per essere perfezionata.

    il di SODP sta sperimentando l'intelligenza artificiale, seppur in modo estremamente limitato. Siamo ben lontani dal considerare anche solo di utilizzarla come parte del nostro processo di scrittura degli articoli, ma ne intravediamo il potenziale per casi d'uso limitati.

    Non mi addentrerò qui nei dettagli del nostro progetto di intelligenza artificiale, semplicemente perché è ancora lontano dal dare i suoi frutti. Lo terrò per un caso di studio più avanti.

    Per ora, quello che posso dire è che gli editori possono trarre vantaggio dalla sperimentazione su progetti di piccole dimensioni e a basso rischio. Questi progetti hanno il potenziale per fornire informazioni e conoscenze preziose e relativamente poco costose sul funzionamento dell'intelligenza artificiale generativa e sui suoi limiti.

    Ma non c'è bisogno di fidarsi solo della mia parola. Anche Charlie Beckett, direttore del think tank Polis della London School of Economics, incoraggia gli editori a " iniziare a giocare con l'intelligenza artificiale ".

    Capisco perché la sperimentazione con l'intelligenza artificiale possa essere in fondo alla lista delle priorità di alcuni editori. Dopotutto, si parla molto delle sfide che questa tecnologia pone. La violazione del copyright e l'aumento della disinformazione sembrano essere i principali responsabili del momento.

    L'intelligenza artificiale nel mirino

    Il magnate dei media Barry Diller ha esortato gli editori a prendere in considerazione l'idea di citare in giudizio le aziende di intelligenza artificiale per impedire che i loro contenuti vengano "rubati".

    "Se tutte le informazioni del mondo potessero essere risucchiate in queste fauci e poi essenzialmente riconfezionate... non ci sarebbe alcuna pubblicazione, non sarebbe possibile", avrebbe affermato Diller durante il Semafor Media Summit, prima di aggiungere: "Le aziende possono assolutamente intentare causa ai sensi della legge sul copyright"

    I suoi commenti arrivano più o meno nello stesso periodo in cui la società di intelligence sui media Toolkits ha pubblicato il suo rapporto Subscription Publishing Snapshot: Q2 2023 , rivelando che l’intelligenza artificiale generativa “potrebbe ostacolare

    sforzi di sottoscrizione”.

    Il fornitore di analisi ha osservato che gli editori sono stati colti di sorpresa dall'emergere di ChatGPT. Ha aggiunto che il settore era sempre più preoccupato che il pubblico potesse utilizzare Bard di Google e Bing Chat di Microsoft per accedere liberamente a contenuti a pagamento.

    Si tratta di un problema già segnalato dal mio collega Mahendra Choudhary, il quale sosteneva che i grandi editori avrebbero probabilmente iniziato a bloccare l'accesso ai crawler AI per impedire una simile violazione.

    Sebbene il content scraping sia un problema legittimo, sembrano già esserci soluzioni che non dovrebbero essere particolarmente difficili da implementare. Dopotutto, le sfide tecnologiche dovrebbero avere una soluzione tecnologica. 

    Ma questa non è l'unica preoccupazione che circola.

    Controllo dei danni

    Le immagini ritoccate con Photoshop e i video deepfake sono un problema da anni, ma l'avvento dell'intelligenza artificiale generativa semplifica e velocizza notevolmente questo processo. 

    Le immagini false create dall'intelligenza artificiale hanno già iniziato a diffondersi dai social media al grande pubblico e i media sono sempre più preoccupati per le conseguenze.

    Ci saranno sempre delle sfide ogni volta che una nuova tecnologia acquisisce sufficiente popolarità e mi aspetto che ci saranno dei problemi iniziali man mano che i media e il pubblico in generale si adatteranno all'integrazione dell'intelligenza artificiale.

    Detto questo, la disinformazione non è certo un fenomeno nuovo, visto che WhatsApp è stato utilizzato in India per diffondere voci che hanno portato a omicidi di massa nel 2018. In effetti, si potrebbe sostenere che, tra un pubblico sempre più scettico e il desiderio delle pubblicazioni di evitare di essere screditate , le immagini fraudolente rappresentano una minaccia minore di quanto alcuni allarmisti vorrebbero far credere.

    Non sono ingenuamente ottimista sul futuro dell'intelligenza artificiale generativa, ma non credo nemmeno che ci siano motivi per farsi prendere dal panico.

    L'intelligenza artificiale generativa è qui e gli editori devono comprenderla. Ma non sono solo le organizzazioni mediatiche a doverne comprendere l'importanza: anche i singoli individui devono riflettere sulle sue implicazioni per la propria carriera. I datori di lavoro del futuro si aspetteranno che i candidati indichino l'intelligenza artificiale generativa nella sezione competenze del loro CV, proprio come fanno ora con altre competenze software più banali? Spunto di riflessione.