L'invenzione dell'intelligenza artificiale solleva dubbi in tutti i campi, incluso il giornalismo, e i media sintetici stanno peggiorando ulteriormente la situazione. Questa guida si concentra sulla definizione di media sintetici, sulle tecniche e, cosa ancora più sorprendente, sui dubbi che riguardano il giornalismo.
Perché è importante:
Le varie forme di dati che compongono i contenuti delle notizie sono sull'orlo della duplicità, poiché i media sintetici – un algoritmo in grado di manipolare testi, immagini e contenuti audiovisivi – sono attualmente disponibili a chi li cerca. Con questo modello basato sull'intelligenza artificiale, è possibile creare volti e luoghi inesistenti e persino creare un avatar vocale digitale che imita il linguaggio umanoAldana Vales 2019) Immaginate un mondo in cui è piuttosto difficile distinguere tra notizie false e vere, poiché i divulgatori di notizie false possono alterare le "prove" per adattarle ai propri scopi. Ad esempio, nessuno smetterebbe di credere che la Terza Guerra Mondiale sia iniziata se i video di Trump, Putin e Kim che dichiarano guerra venissero diffusi online a livello globale. Sebbene tali notizie possano essere smentite dai governi coinvolti, il panico psicologico ed economico che causerebbero potrebbe essere maggiore dell'effetto di un missile.Scavando più a fondo
I media sintetici possono essere creati tramite tre forme di intelligenza artificiale generativa: reti generative antagoniste (GAN), autoencoder variazionali e reti neurali ricorrenti. Queste GAI vengono utilizzate rispettivamente per la generazione di foto, video e testo. Il termine "generazione" viene utilizzato perché la maggior parte dei contenuti multimediali creati con questi algoritmi non esiste; tuttavia, i media sintetici possono essere utilizzati anche per la duplicazione. Secondo Aldana Vales, "le reti generative antagoniste utilizzano due reti neurali (una rete neurale è un sistema di elaborazione in grado di prevedere e modellare relazioni e schemi complessi) che competono tra loro". La prima e la seconda rete agiscono individualmente come generatore e discriminatore. Il discriminatore supervisiona il generatore, assicurando che nulla venga tralasciato. Dopo alcune revisioni "va e vieni" da parte dei due, il contenuto prodotto assomiglierebbe all'originale. A differenza delle reti generative antagoniste, le reti neurali negli autoencoder variazionali sono chiamate codificatore e decodificatore, poiché la tecnica prevede la compressione e la ricostruzione del contenuto video. "Il decodificatore include una modellazione probabilistica che identifica le probabili differenze tra i due, in modo da poter ricostruire elementi che altrimenti andrebbero persi durante il processo di codifica-decodifica". (Aldana Vales 2019) Le reti neurali ricorrenti funzionano "riconoscendo la struttura di un ampio insieme di testo". Questo è il metodo utilizzato nell'app per la correzione automatica del testo per smartphone. Queste tecniche sono applicate in vari progetti come GauGAN, Faccia a facciae il modello GPT-2. L'applicazione più recente dei media sintetici si trova in Siri o Alexa. Questi assistenti virtuali ora hanno la capacità di "trasformare il testo in audio e imitare il parlato umano". In un articolo del 2017, intitolato "Il porno assistito dall'intelligenza artificiale è qui e siamo tutti fottuti", Vice ha denunciato la circolazione di un falso video porno, il che non rappresenta un problema perché la maggior parte delle trame rappresentate nei film porno sono false (LoL); tranne per il fatto che l'attore aveva il volto di una popolare attrice non pornografica, Gal Gadot (Wonder Woman). Inoltre, nel 2018, su Buzzfeed è circolato "un video che mostrava il presidente Barack Obama parlare dei rischi dei video manipolati". La cosa strana di questo video è che il soggetto generato dall'intelligenza artificiale ha il volto di Obama e la voce di Jordan Peele, grazie ai media sintetici. È in corso una campagna contro il potenziale danno dei media sintetici all'autenticità delle notizie; tuttavia, "Oltre al reporting... le redazioni si stanno concentrando sul rilevamento dei media sintetici e sulla convalida delle informazioni". Il Wall Street Journal, ad esempio, ha creato un guida alla redazione E comitato per rilevare i deepfake. Il New York Times ha recentemente annunciato che sta esplorando un sistema basato sulla blockchain per combattere la disinformazione online. (Aldana Vales 2019)In conclusione
I media sintetici potrebbero aiutare le agenzie di stampa a superare le barriere linguistiche senza problemi. Inoltre, potrebbero incoraggiare la circolazione di notizie false. Sebbene sia impossibile impedire alle grandi aziende tecnologiche di lanciarsi nella ricerca sull'intelligenza artificiale, i giornalisti possono imparare a limitare i danni causati dai media sintetici.Contenuti dei nostri partner








