L'intelligenza artificiale (IA) si riferisce a "macchine e algoritmi intelligenti in grado di ragionare e adattarsi sulla base di insiemi di regole e ambienti che imitano l'intelligenza umana". Questo campo è in rapida evoluzione e il settore dell'istruzione, ad esempio, è in fermento per il dibattito sull'uso dell'IA nella scrittura.
Questo non è importante solo per il mondo accademico, ma per chiunque faccia affidamento su informazioni affidabili, dai giornalisti ai politici, dagli educatori al pubblico. Garantire la trasparenza nell'uso dell'intelligenza artificiale protegge la credibilità di tutta la conoscenza pubblicata.
Nell'istruzione e nella ricerca, l'intelligenza artificiale può generare testo, migliorare lo stile di scrittura e persino analizzare i dati. Permette di risparmiare tempo e risorse consentendo una rapida sintesi del lavoro, la revisione linguistica e il controllo dei riferimenti bibliografici. Ha anche il potenziale per migliorare il lavoro accademico e persino ispirare nuove idee.
Allo stesso modo, l'intelligenza artificiale è in grado di generare intere opere. A volte è difficile distinguere un'opera originale scritta da un individuo da un'opera generata dall'intelligenza artificiale.
Questa è una seria preoccupazione nel mondo accademico: università, ricercatori, docenti e studenti. Alcuni usi dell'IA sono considerati accettabili, altri no (o non ancora).
In qualità di redattore e membro del comitato editoriale di diverse riviste, e nella mia veste di ricercatore e professore di psicologia, mi sono confrontato con la definizione di cosa consideri un uso accettabile dell'intelligenza artificiale nella scrittura accademica. Ho esaminato diverse linee guida pubblicate:
- il Comitato per l'etica delle pubblicazioni (COPE), un'organizzazione no-profit del Regno Unito che fornisce consulenza specialistica, istruzione e formazione nell'editoria accademica
- Sage Publishing , una casa editrice accademica statunitense
- l' American Psychological Association , un'organizzazione che rappresenta accademici, professionisti e studenti di psicologia
- l' Accademia delle Scienze del Sud Africa , attraverso la sua South African Journal of Science .
Le linee guida concordano unanimemente sul fatto che gli strumenti di intelligenza artificiale non possono essere indicati come coautori né assumersi la responsabilità del contenuto. Gli autori rimangono pienamente responsabili della verifica dell'accuratezza, dell'uso etico e dell'integrità di tutti i contenuti influenzati dall'intelligenza artificiale. L'assistenza di routine non necessita di citazioni, ma qualsiasi contenuto sostanziale generato dall'intelligenza artificiale deve essere chiaramente referenziato.
Approfondiamo ulteriormente la questione.
Contenuto assistito vs contenuto generato
Per comprendere l'uso dell'intelligenza artificiale nella scrittura accademica, è importante distinguere tra contenuti assistiti dall'intelligenza artificiale e contenuti generati dall'intelligenza artificiale.
I contenuti assistiti dall'intelligenza artificiale si riferiscono a lavori scritti prevalentemente da un singolo individuo, ma migliorati con l'ausilio di strumenti di intelligenza artificiale. Ad esempio, un autore potrebbe utilizzare l'intelligenza artificiale per facilitare il controllo grammaticale, migliorare la chiarezza delle frasi o fornire suggerimenti di stile. L'autore mantiene il controllo e l'intelligenza artificiale funge semplicemente da strumento per rifinire il prodotto finale.
Questo tipo di assistenza è generalmente accettato dalla maggior parte degli editori e dal Comitato per l'Etica delle Pubblicazioni, senza necessità di una dichiarazione formale. Questo a condizione che il lavoro rimanga originale e che l'integrità della ricerca sia tutelata.
I contenuti generati dall'IA sono prodotti dall'IA stessa. Ciò potrebbe significare che lo strumento di IA genera porzioni significative di testo, o addirittura intere sezioni, sulla base di istruzioni dettagliate (suggerimenti) fornite dall'autore.
Ciò solleva preoccupazioni etiche, soprattutto per quanto riguarda l'originalità, l'accuratezza e la paternità. L'IA generativa trae i suoi contenuti da varie fonti, come web scraping, set di dati pubblici, repository di codice e contenuti generati dagli utenti, ovvero praticamente qualsiasi contenuto a cui sia in grado di accedere. Non si può mai essere certi dell'autenticità dell'opera. Le "allucinazioni" dell'IA sono comuni. L'IA generativa potrebbe plagiare il lavoro di qualcun altro o violare il copyright, senza che ve ne accorgiate.
Pertanto, per i contenuti generati dall'intelligenza artificiale, gli autori sono tenuti a fornire informazioni chiare ed esplicite. In molti casi, questo tipo di contenuti potrebbe essere soggetto a restrizioni. Gli editori potrebbero persino rifiutarli del tutto, come delineato nelle linee guida del Comitato per l'etica delle pubblicazioni.
Cosa è permesso e cosa non lo è
Sulla base delle mie letture delle linee guida , offro alcuni suggerimenti pratici per l'utilizzo dell'intelligenza artificiale nella scrittura accademica. Sono piuttosto semplici e potrebbero essere applicabili a diverse discipline.
- Tutte le linee guida affermano che gli strumenti di intelligenza artificiale possono essere utilizzati per attività di routine come il miglioramento della grammatica, la revisione della struttura delle frasi o l'assistenza nella ricerca bibliografica. Queste applicazioni non richiedono una specifica autorizzazione.
- In tutte le linee guida esaminate, i contenuti generati dall'IA non sono consentiti, a meno che non vi siano chiare ragioni per cui ciò sia necessario per la ricerca e il contenuto sia chiaramente contrassegnato e referenziato come tale. Pertanto, a seconda di come viene utilizzata l'IA, è necessario menzionarla nel manoscritto. Questo può avvenire nella revisione della letteratura o nella sezione dedicata ai metodi o ai risultati.
- Sage e il Comitato per l'Etica delle Pubblicazioni sottolineano che gli autori devono dichiarare quando vengono utilizzati contenuti generati dall'IA, citandoli in modo appropriato. Esistono diverse convenzioni per citare l'uso dell'IA , ma tutte sembrano concordare sul fatto che debbano essere citati il nome dello strumento generativo utilizzato, la data di accesso e il prompt utilizzato. Questo livello di trasparenza è necessario per garantire la credibilità del lavoro accademico.
- Altri aspetti legati all'assistenza dell'IA, come la correzione del codice, la generazione di tabelle o figure, la riduzione del numero di parole o il controllo delle analisi, non possono essere menzionati direttamente nel corpo del manoscritto. In linea con le attuali raccomandazioni di buone pratiche , questo aspetto dovrebbe essere indicato alla fine del manoscritto.
- Gli autori sono tenuti a verificare l'accuratezza di qualsiasi contenuto di intelligenza artificiale, sia esso assistito o generato dall'intelligenza artificiale, assicurandosi che sia privo di pregiudizi, plagio e potenziali violazioni del copyright.
L'ultima parola (per ora)
Gli strumenti di intelligenza artificiale possono senza dubbio migliorare il processo di scrittura accademica, ma il loro utilizzo deve essere affrontato con trasparenza, cautela e rispetto degli standard etici.
Gli autori devono rimanere vigili nel preservare l'integrità accademica, in particolare quando è coinvolta l'intelligenza artificiale. Gli autori devono verificare l'accuratezza e l'appropriatezza dei contenuti generati dall'intelligenza artificiale, assicurandosi che ciò non comprometta l'originalità o la validità del loro lavoro.
Sono stati forniti ottimi suggerimenti su quando la dichiarazione di IA dovrebbe essere obbligatoria, facoltativa e non necessaria. In caso di dubbi, il consiglio migliore sarebbe quello di includere l'uso di qualsiasi forma di IA (assistita o generata) nella dichiarazione.
È molto probabile che queste raccomandazioni saranno riviste a tempo debito, con la continua evoluzione dell'intelligenza artificiale. Ma è altrettanto importante iniziare da qualche parte. Gli strumenti di intelligenza artificiale sono qui per restare. Affrontiamo la questione in modo costruttivo e collaborativo.
Sumaya Laher , Professoressa, Università del Witwatersrand .
Questo articolo è ripubblicato da The Conversation con licenza Creative Commons. Leggi l' articolo originale .





