L'anno scorso ho partecipato a un panel sull'intelligenza artificiale generativa nell'istruzione. In un momento memorabile, uno dei relatori chiese: "Qual è il problema? L'intelligenza artificiale generativa è come una calcolatrice. È solo uno strumento".
L'analogia è sempre più comune. Lo stesso amministratore delegato di OpenAI, Sam Altman, ha definito ChatGPT " una calcolatrice per le parole " e ha paragonato i commenti sulla nuova tecnologia alle reazioni all'arrivo della calcolatrice.
La gente diceva: "Dobbiamo vietarli perché la gente continua a copiare durante i compiti. Se la gente non ha più bisogno di calcolare manualmente una funzione seno […] allora l'insegnamento della matematica è finito".
Tuttavia, i sistemi di intelligenza artificiale generativa non sono calcolatori. Trattarli come tali oscura cosa sono, cosa fanno e a chi servono. Questa banale analogia semplifica una tecnologia controversa e ignora cinque differenze cruciali rispetto alle tecnologie del passato.
1. Le calcolatrici non allucinano né persuadono
Le calcolatrici calcolano funzioni a partire da input chiaramente definiti. Digiti 888 ÷ 8 e ottieni una sola risposta corretta: 111.
Questo output è limitato e immutabile. I calcolatori non deducono, non fanno congetture, non hanno allucinazioni e non persuadono.
Non aggiungono elementi falsi o indesiderati alla risposta. Non inventano casi legali né dicono alla gente " per favore, muori ".
2. Le calcolatrici non pongono dilemmi etici fondamentali
Le calcolatrici non sollevano dilemmi etici fondamentali.
Per realizzare ChatGPT i lavoratori in Kenya setacciare contenuti irreversibilmente traumatizzanti per un dollaro o due all'ora. Le calcolatrici non ne avevano bisogno.
Dopo la crisi finanziaria in Venezuela, un'azienda di intelligenza artificiale che si occupava di etichettatura dei dati ha colto l'opportunità di accaparrarsi manodopera a basso costo con modelli di impiego basati sullo sfruttamento . Nemmeno i calcolatori ne avevano bisogno.
I calcolatori non hanno richiesto la costruzione di nuove grandi centrali elettriche di competere con gli esseri umani per l'acqua, come stanno facendo i centri di elaborazione dati basati sull'intelligenza artificiale in alcune delle zone più aride del mondo .
Le calcolatrici non necessitavano di nuove infrastrutture . L'industria delle calcolatrici non ha assistito a un'enorme spinta mineraria come quella che attualmente alimenta l'estrazione mineraria di rame e litio nelle terre degli Atacameños in Cile.
3. Le calcolatrici non compromettono l'autonomia
Le calcolatrici non avevano il potenziale per diventare un " completamento automatico a vita ". Non si sono mai offerte di prendere ogni decisione per te, da cosa mangiare e dove viaggiare a quando baciare il tuo partner.
Le calcolatrici non hanno messo in discussione la nostra capacità di pensare in modo critico. L'intelligenza artificiale generativa, tuttavia, ha dimostrato di erodere il ragionamento indipendente e aumentare lo " scarico cognitivo ". Nel tempo, affidarsi a questi sistemi rischia di affidare il potere decisionale quotidiano a sistemi aziendali poco trasparenti.
4. Le calcolatrici non hanno pregiudizi sociali e linguistici
I calcolatori non riproducono le gerarchie del linguaggio e della cultura umana. L'intelligenza artificiale generativa, tuttavia, è addestrata su dati che riflettono secoli di relazioni di potere ineguali, e i suoi risultati rispecchiano tali disuguaglianze.
I modelli linguistici ereditano e rafforzano il prestigio delle forme linguistiche dominanti, mentre emarginano o cancellano quelle meno privilegiate.
Strumenti come ChatGPT gestiscono l'inglese tradizionale , ma riformulano, etichettano male o cancellano regolarmente l'inglese di altri Paesi .
Sebbene progetti che tentano di affrontare il problema dell'esclusione delle voci minoritarie dallo sviluppo tecnologico, la propensione dell'intelligenza artificiale generativa per l'inglese tradizionale è preoccupantemente pronunciata.
5. Le calcolatrici non sono "macchine tuttofare"
A differenza delle calcolatrici, i modelli linguistici non operano in un ambito ristretto come la matematica. Hanno invece il potenziale di interferire con tutto: percezione, cognizione, affettività e interazione.
I modelli linguistici possono essere "agenti", "compagni", "influencer", "terapeuti" e "fidanzati". Questa è una differenza fondamentale tra l'intelligenza artificiale generativa e i calcolatori.
Contenuti dei nostri partner
Mentre le calcolatrici aiutano con l'aritmetica, l'intelligenza artificiale generativa può svolgere funzioni sia transazionali che interattive. In una sola seduta, un chatbot può aiutarti a modificare il tuo romanzo, scrivere il codice per una nuova app e fornire un profilo psicologico di qualcuno che pensi ti piaccia.
Rimanere critici
L'analogia con la calcolatrice fa sembrare innocui i modelli linguistici e i cosiddetti "copiloti", "tutor" e "agenti". Autorizza un'adozione acritica e suggerisce che la tecnologia può risolvere tutte le sfide che affrontiamo come società.
Si adatta perfettamente anche alle piattaforme che realizzano e distribuiscono sistemi di intelligenza artificiale generativa. Uno strumento neutrale non necessita di responsabilità, audit o governance condivisa.
Ma come abbiamo visto, l'intelligenza artificiale generativa non è come una calcolatrice. Non si limita a elaborare numeri o a produrre output definiti.
Capire cosa sia realmente l'intelligenza artificiale generativa richiede un rigoroso pensiero critico. Quel tipo di pensiero che ci prepara ad affrontare le conseguenze di " muoversi velocemente e rompere le cose ". Quel tipo di pensiero che può aiutarci a decidere se la rottura vale il costo.
Celeste Rodriguez Louro , Professoressa Associata, Cattedra di Linguistica e Direttrice del Laboratorio Linguistico, Università dell'Australia Occidentale.
Questo articolo è ripubblicato da The Conversation con licenza Creative Commons. Leggi l' articolo originale .





