image_pdfVersione PDFimage_printStampa

A prima vista, i recenti studi scientifici che hanno indagato l’impatto dell’intelligenza artificiale generativa sul nostro cervello non lasciano spazio a dubbi. E portano a una conclusione inevitabile: ChatGPT e gli altri large language model ci stanno rendendo stupidi. Il più recente – e noto – di questi studi è stato condotto dall’Mit di Boston e ha coinvolto 54 persone divise in tre gruppi: il primo ha scritto dei saggi brevi senza nessun ausilio esterno, il secondo si è potuto avvalere dei motori di ricerca e il terzo ha invece sfruttato proprio ChatGPT, il più noto dei large language model.

Risultato del test? “L’elettroencefalogramma ha fornito prove solide del fatto che i gruppi che hanno usato Llm, quelli che hanno impiegato i motori di ricerca e quelli che hanno usato solo il cervello hanno mostrato schemi di attività neurale significativamente differenti, che mostrano strategie cognitive divergenti”, si legge nello studio. L’attività cerebrale diminuiva sistematicamente all’aumentare del supporto esterno: il gruppo ‘solo cervello’ mostrava le reti più forti e diffuse, quello con il motore di ricerca un coinvolgimento intermedio, mentre l’assistenza dell’Llm generava l’attività cerebrale più debole”.

Gli utenti che hanno potuto utilizzare ChatGPT, in particolare, hanno mostrato tassi molto più bassi di attività neurale nelle aree del cervello associate alle funzioni creative e all’attenzione, oltre ad aver prodotto testi omogenei tra loro e ad avere ottenuto i punteggi più bassi nella capacità di ricordare i contenuti dei loro stessi saggi.

Test diversi, risultati simili

Risultati simili sono emersi durante un secondo studio, condotto dalla Swiss Business School di Zurigo e durante il quale è stato chiesto a 666 partecipanti di indicare con quale frequenza impiegassero l’intelligenza artificiale e quanto si fidassero di essa. Una volta ottenute queste informazioni, i partecipanti sono stati sottoposti a dei test per la valutazione del pensiero critico. Prevedibilmente, chi faceva un maggiore uso dell’intelligenza artificiale ha ottenuto punteggi più bassi, mostrando quindi un’inferiore capacità di pensiero critico.

Si potrebbero citare altri studi – tra cui questo di Microsoft Research – ma le conclusioni sono pressoché sempre le stesse: chi usa con maggiore frequenza l’intelligenza artificiale, e si fida maggiormente delle sue capacità, mostra meno attività cerebrale, meno pensiero critico, meno abilità creative e mnemoniche.

Siamo quindi senza speranza? Dobbiamo rinunciare a utilizzare ChatGPT e i suoi fratelli, se vogliamo salvaguardare il nostro cervello? In realtà, la questione è molto più sfumata e sono gli stessi autori dei paper citati a indicare la necessità di condurre “ulteriori e più ampi studi” per verificare le loro conclusioni preliminari.

Conclusioni preliminari che, in un caso, ricordano la proverbiale scoperta dell’acqua calda e, nell’altro, lasciano aperti numerosi interrogativi e altrettante perplessità. Partiamo dallo studio dell’Mit: era inevitabile che il gruppo che poteva appoggiarsi ai large language model mostrasse una ridotta attività cerebrale rispetto a chi non ha potuto impiegare nessuno strumento esterno.

Questo vale soprattutto perché ci sono chiari segnali che il gruppo che ha sfruttato ChatGPT non abbia utilizzato il sistema di OpenAI per produrre dei saggi, ma ne abbia abusato. Lo dimostra innanzitutto la scarsa qualità e omogeneità dei saggi scritti dal “gruppo Llm”: segno evidente che tutto il lavoro (o quasi) sia stato affidato a ChatGPT, con un inevitabile calo dell’attività cerebrale. In poche parole, invece di usare i large language model come supporto l’hanno utilizzato come sostituto (su questo aspetto cruciale torneremo più avanti): l’attività cerebrale non poteva che risentirne.

A confermare questo sospetto è la seconda parte dello studio dell’Mit. Dopo aver completato i primi tre saggi, a 18 dei 54 partecipanti è stato chiesto di scriverne un quarto in condizioni invertite: chi aveva usato gli Llm ha potuto impiegare solo il cervello e viceversa. L’aspetto più interessante di quest’ultima parte dello studio, non sono tanto gli scarsi risultati ottenuti da chi aveva precedentemente usato gli Llm e poi si è ritrovato senza supporto, ma gli ottimi risultati ottenuti invece dal gruppo opposto.

Come scrivono gli autori dello studio: “I risultati suggeriscono che introdurre gli strumenti di intelligenza artificiale in un secondo momento, dopo una fase iniziale di sforzo autonomo, può favorire un maggiore coinvolgimento e una migliore integrazione neurale. I marcatori Eeg corrispondenti indicano che questa sequenza potrebbe essere neurocognitivamente più ottimale rispetto a un utilizzo costante dell’AI fin dall’inizio”. Una nota che conferma come un utilizzo corretto dell’intelligenza artificiale, invece che un suo abuso, possa dare esiti molto diversi, sia dal punto di vista della qualità dell’output, sia dal punto di vista dell’attività cerebrale.

Anche il secondo studio, quello della Swiss Business School, presenta alcuni problemi. Prima di tutto, gli studi basati sull’autovalutazione dei partecipanti sono storicamente poco affidabili; in secondo luogo, non è chiaro quale sia la causa e quale l’effetto: è il fatto di utilizzare intensivamente ChatGPT e avere fiducia in esso che causa una mancanza di pensiero critico, o sono le persone che non spiccano per pensiero critico a utilizzare e a fidarsi eccessivamente dei large language model?

Non è tutto: vista la valutazione (moderatamente) positiva che, nello studio dell’Mit, viene fatta dell’utilizzo dei motori di ricerca, è impossibile non pensare a quando gli stessi identici timori che oggi si hanno nei confronti di ChatGPT riguardavano invece proprio Google. Un celeberrimo articolo dell’Atlantic del 2008 si intitolava proprio: Google ci sta rendendo stupidi?. È lo stesso studio dell’Mit a rievocare il temutissimo “Google Effect”, secondo il quale affidarsi ai motori di ricerca causa “un declino nell’abilità di ricordare” e provoca “uno spostamento degli sforzi cognitivi dalla conservazione delle informazioni a processi mnemonici più esternalizzati”.

E quindi?

Siamo di fronte al solito allarmismo tecnofobico di cui non dobbiamo preoccuparci? A questo punto, tanto vale rievocare i più classici e citati di questi timori. Come si legge sull’Economist, “già nel quinto secolo a.C., Socrate si lamentava della scrittura. Una pozione non per ricordare (remembering), ma per ricordare a sé stessi (reminding). Le calcolatrici evitano ai cassieri di dover calcolare un conto. Le app di navigazione eliminano la necessità di saper leggere una mappa. Eppure, pochi sosterrebbero che per questo motivo le persone siano diventate meno capaci”.

In parte, quindi, siamo di fronte alle inevitabili preoccupazioni che sorgono quando ci troviamo di fronte a una nuova tecnologia. Allo stesso tempo, sarebbe superficiale derubricare questi timori troppo alla svelta. D’altronde, che Google abbia effettivamente avuto un impatto sulla nostra memoria è confermato anche da studi recenti. Se non bastasse, c’è parecchia differenza tra fare una divisione con la calcolatrice e farsi scrivere un tema scolastico da ChatGPT.

Come ha spiegato sempre all’Economist lo psicologo Evan Risko, docente all’università di Waterloo e noto per aver coniato il termine cognitive offloading (“esternalizzazione del carico cognitivo”): “L’intelligenza artificiale generativa permette di esternalizzare un insieme di processi molto più complessi. Delegare qualche calcolo mentale, che ha applicazioni piuttosto limitate, non è la stessa cosa che delegare un intero processo di pensiero come la scrittura o la risoluzione di problemi. E una volta che il cervello prende gusto a questa esternalizzazione cognitiva, può diventare un’abitudine difficile da abbandonare”.

Concedetemi un esempio personale, che riguarda il giornalismo ma che sicuramente si può adattare a molti altri contesti. Per il mio lavoro utilizzo quotidianamente ChatGPT e altri strumenti basati sull’intelligenza artificiale. Ovviamente non per scrivere articoli, ma per trovare refusi, individuare la traduzione migliore per un termine inglese (come “cognitive offloading”), farmi suggerire delle alternative per titoli o sottotitoli quando non mi viene in mente nulla (modificandoli a piacimento o rifiutandoli del tutto), farmi consigliare come rendere più scorrevole un paragrafo che mi sembra involuto (anche solo per “sbloccarmi” e spesso senza poi utilizzare i suggerimenti che mi vengono forniti).

Insomma, credo di impiegare ChatGPT nel modo corretto e non di delegare a esso il mio lavoro (e, in realtà, nemmeno di risparmiare tempo). Eppure, è ovvio che se prendo l’abitudine di chiedere a ChatGPT di suggerirmi come completare un sottotitolo ogni volta che sono bloccato, alla lunga non sarò più in grado di farne a meno e magari perderò qualche abilità creativa. È un processo simile a quello a cui ci ha costretto Google: forse la nostra memoria si è davvero atrofizzata, in cambio abbiamo ottenuto la possibilità di accedere a qualsiasi informazione in qualsiasi momento, spalancando opportunità (anche) intellettuali che un tempo ci erano precluse.

In due parole: pro e contro

Alcune abilità si perderanno, altre si acquisiranno. Per affrontare al meglio i rovesci della medaglia dell’intelligenza artificiale generativa è però indispensabile uscire dalla “narrazione della sostituzione”, secondo la quale ChatGPT e gli altri sistemi affini sono sul punto di sostituire l’essere umano.

È una narrazione utile alle aziende che vogliono tagliare i costi e sostituire quanti più dipendenti possibile con le AI, ma non è quella corretta. Le abilità di ChatGPT e gli altri (fondamentalmente, eseguire complicatissimi calcoli probabilistici) non sono sostitutive delle nostre (astrazione, pensiero critico, valutazioni, ecc.), ma complementari a esse.

È anche a causa di questa interpretazione errata dell’intelligenza artificiale che può sembrare corretto valutare l’impatto di ChatGPT sul nostro cervello facendogli svolgere un lavoro al posto nostro. Questi sistemi vanno invece impiegati come se fossero degli assistenti molto volenterosi, ma per niente affidabili. Che possono supportarci ma che vanno usati con cognizione di causa e attentamente supervisionati.

Come segnala Barbara Larson, docente di Management alla Northeastern University, “Il modo più intelligente per trarre vantaggio dall’intelligenza artificiale è limitarne il ruolo a quello di un assistente entusiasta ma un po’ ingenuo”. Non dobbiamo quindi chiedere a un chatbot di generare direttamente il risultato finale desiderato, ma guidarlo passo dopo passo lungo il percorso che porta alla nostra soluzione. Questo utilizzo dell’intelligenza artificiale non è preferibile a quello sostitutivo (solo) perché ci permette di salvaguardare il cervello, ma soprattutto perché è il modo giusto per sfruttarne al meglio le potenzialità.

Quando sarà passata la fase di hype e il nostro rapporto con le intelligenze artificiali sarà più maturo, probabilmente tutto ciò ci sembrerà scontato. E se ciò avverrà, è anche possibile che – tra ciò che si perde e ciò che invece si guadagna – alla fine il bilancio per l’essere umano sia positivo.

image_pdfVersione PDFimage_printStampa