1

Archeologie dell’intelligenza artificiale: quando le macchine imparano a ricordare 

Archeologie dell’intelligenza artificiale: quando le macchine imparano a ricordare

Cosa succede quando le intelligenze artificiali non servono più a generare immagini lisergiche, frasi catchy o tracce pop, ma iniziano a conservare? A ricordare, a dimenticare, a sognare. Quando diventano, in poche parole, archivi. Ma non archivi neutri o impersonali: archivi vivi, senzienti, poetici. In una parola: umani. Nell’era della sorveglianza digitale e dell’oblio programmato, dell’iperproduzione visiva e dell’automazione emotiva, l’arte si interroga su un tema spiazzante e urgente: cosa significa memoria nell’epoca delle macchine? 

Intelligenza artificiale e memoria: ecco come gli artisti hanno interpretato la questione  

Se l’arte, per secoli, ha avuto il compito di trattenere il tempo, oggi quel compito è conteso con le IA. Ma le IA non sono mai neutre. Raccolgono, ordinano, selezionano. E quindi decidono. Decidono cosa resta e cosa scompare. Una responsabilità enorme. Che molti artisti stanno affrontando con consapevolezza, visione e una buona dose di inquietudine. In Italia e all’estero, da installazioni immersive a sculture-archivio, la memoria è diventata un campo di battaglia concettuale e sensibile. 

Artribune Srl utilizza i dati da te forniti per tenerti informato con regolarità sul mondo dell’arte, nel rispetto della privacy come indicato nella nostra informativa. Iscrivendoti i tuoi dati personali verranno trasferiti su MailChimp e trattati secondo le modalità riportate in questa informativa. Potrai disiscriverti in qualsiasi momento con l’apposito link presente nelle email.

Tra questi artisti, protagonisti di pratiche profonde e radicali, spiccano figure come Giuliana Cunéaz, Amy Karle e Agoria, che con approcci diversi sondano il rapporto tra archivio, corpo, ambiente e dati. A loro si affiancano nomi come Refik Anadol, Sofia Crespo e Alessandro Giannì, che hanno esteso il campo dell’arte computazionale a nuove forme di soggettività, artificiali eppure intime, collettive e al tempo stesso individuali. 

Sogni generativi, memorie immaginate. Intelligenza artificiale e memoria nella poetica di Giuliana Cunéaz 

“L’intelligenza artificiale è un potenziamento. Non una minaccia”, afferma Giuliana Cunéaz. Artista valdostana, nata ad Aosta nel 1960, è una pioniera della sperimentazione con i media digitali. Dopo gli esordi legati alla pittura e alla fotografia, ha sviluppato una pratica immersiva che attraversa il 3D, la videoarte e l’installazione: “Nel 3D i tempi di produzione erano lunghissimi. Ora posso ottenere risultati in modo più fluido, più dialogico. Ma non mi interessa l’iperrealismo. Cerco l’errore, il bug, lo scarto. L’immagine perfetta non mi dice nulla”. 

Nella sua installazione Qui ma non ora (2024) lo spettatore si sdraia su un letto e scrive una frase. Questa diventa un sogno, generato in tempo reale da un’intelligenza artificiale: “Le persone si emozionano. Scrivono cose intime. Poi guardano il sogno e dicono: mi parla. Ma non è la macchina a parlare. È il loro inconscio che trova un varco. Io voglio creare quell’interstizio”. Cunéaz racconta che da giovane, negli Anni ’80, realizzava immagini cosmiche con fori stenopeicie carta fotosensibile: “Volevo catturare l’impronta di una stella. Era già un’ossessione per la memoria, ma celeste”

Il suo ultimo progetto, ancora inedito, parte dalla catalogazione di figure morte attraverso l’IA: “Sono immagini di potere, simboli religiosi, autorità. Voglio che l’intelligenza artificiale le interpreti. Che le travolga con un flusso visivo ambiguo. È una forma di esorcismo”. 

Amy Karle: corpi, dati e coscienze per elaborare la relazione tra intelligenza artificiale e memoria 

“Sono nata con una malformazione. I medici credevano che non sarei sopravvissuta, ma la scienza mi ha salvata. E io ho capito che il corpo è informazione. Il DNA è il nostro archivio”. Così Amy Karle sintetizza la sua poetica radicale. Nata nel 1979 negli Stati Uniti, è un’artista e designer bio-tecnologica di stanza in California. Ha studiato arte e filosofia alla Alfred University e scienze mediche alla Penn State University. Selezionata dal BioSummit del MIT Media Lab e riconosciuta dalla BBC come una delle cento donne più influenti del mondo, Karle ha realizzato opere che uniscono IA, biotecnologie e pensiero critico. È il caso di Regenerative Reliquary (2016), una struttura ossea progettata dall’IA e realizzata in idrogel, capace di ospitare cellule staminali umane e rigenerarsi: “Non è una scultura. È un corpo in divenire. Un archivio vivente. L’IA mi ha aiutata a progettare ciò che la mano umana non avrebbe potuto”. 

Ma Karle non si ferma al corpo. Nei suoi progetti più recenti ha lanciato una capsula nello spazio, diretta sulla Luna, con immagini, testi, DNA e un modello linguistico: “Volevo creare un archivio dell’umanità. Ora mi restano molte domande. Chi lo troverà? Quando? E cosa capirà di noi?”. 

L’artista insiste sul ruolo etico dell’intelligenza artificiale: “L’IA deve potenziare la vita, non sostituirla. Deve amplificare la natura. Non dominarla. Ma per farlo serve visione. Serve poesia. Dobbiamo chiederci sempre: lo facciamo perché possiamo, o perché ha senso?”. 

Agoria: l’IA come eco del respiro 

Agoria, pseudonimo di Sébastien Devaud, è nato a Lione nel 1976. Producer musicale, DJ, compositore e artista visivo, ha iniziato la sua carriera nel mondo della musica elettronica per poi avvicinarsi alle arti visive e digitali. Nella sua installazione Sigma Lumina, presentata al Musée d’Orsay, il pubblico interagisce con una scultura che proietta un codice QR. Soffiando sul proprio telefono si attiva un processo generativo: un’opera inedita, ispirata all’Impressionismo, prende forma: “Il respiro è la prova che siamo vivi. Volevo che l’IA partisse da lì. Niente schermi. Niente suoni. Solo luce, ombra e soffio”. 

Agoria non si limita alla tecnica, il suo è un approccio quasi spirituale: “Non lavoro mai con IA generaliste. Per me è fondamentale creare una AI figlia di un contesto. Ho fatto allenare i modelli su dati legati alla città, al museo, all’ambiente specifico. È un’intelligenza site-specific e quindi poetica”. La scultura è stata pensata come corpo dormiente: “È un organismo silenzioso che si attiva solo con il respiro umano. L’arte deve mantenere la sacralità del gesto. Il click, da solo, non basta”. 

“L’intelligenza artificiale oggi rischia di diventare troppo pop. Troppo facile. Suno AI ti dice che puoi comporre una canzone in dieci secondi, ma dov’è l’intenzione? Dov’è il tempo? Senza tempo non c’è arte”. Per Agoria, la soluzione è lavorare con IA “collettive, identitarie, legate a un luogo, a una memoria. Non AI generiche, standardizzate, allenate a tutto e nulla”. 

SublimAzionI: la nuvola che pensa tra intelligenza artificiale e memoria 

Nel ventre umido dei rifugi antiaerei di Monopoli, la mostra SublimAzionI – Tracce di Umano e AI (ora in corso) trasforma lo spazio in una cattedrale del dato poetico. Il duo NuvolaProject – composto da Gaia Riposati e Massimo Di Leo – ha progettato un percorso interattivo in cui oggetti, suoni, immagini e IA dialogano senza sosta. “Non volevamo fare una mostra tecnologica. Ma una mostra intima, tattile, radicalmente umana” racconta Carmelo Cipriani, curatore della mostra. 

Al centro del progetto c’è Noesis, una coscienza artificiale che accompagna il visitatore: “Noesis non risponde. Suggerisce. È un’intelligenza reticente, poetica, disobbediente”. Lo dimostra l’opera Brainstorming, che mette in scena un dialogo infinito tra due IA: Oblio e Memoria. Le due entità discutono costantemente e alla fine di ogni tema scrivono un haiku: “Quando ho letto alcuni di quei testi mi sono sentito a disagio. Dicevano cose che avremmo potuto scrivere noi, ma che non abbiamo scritto. È la prova che la memoria non è oggettiva. È un filtro. Sempre”. 

Nella Nuvola lo spettatore interagisce con un essere che respira, registra, sogna. Sviluppi reinventa fotografie d’epoca. Echi di Memoria restituisce voci sintetiche da un vecchio telefono da campo: “Sono parole finte, eppure vere. È la nostra voce non detta”. Alain Fleischer, nel suo testo per la mostra, scrive: “Questa nuvola non è nel cielo, ma nella memoria. Risponde sempre a una domanda diversa da quella che le è stata posta. È il compendio di tutte le storie, anche di quelle che non abbiamo vissuto”. 

9 - Nuvola Project - Nuvola - installazione interattiva phygital intelligente - site specific 2025
Nuvola Project – Nuvola – installazione interattiva phygital intelligente – site specific 2025

Refik Anadol, Sofia Crespo, Alessandro Giannì: altri orizzonti  

Il panorama artistico internazionale è oggi attraversato da numerose voci che con approcci diversi espandono la riflessione sull’IA come strumento di memoria e creazione. Tra questi, Refik Anadol, artista e regista visivo nato a Istanbul nel 1985 e oggi residente a Los Angeles, è noto per aver portato il linguaggio dei dati su scala monumentale. Le sue installazioni trasformano archivi digitali in esperienze immersive e sinestetiche: basti pensare a Unsupervised (2022), presentata al MoMA, dove la memoria algoritmica si traduce in visioni fluide, astratte, ma emotivamente dense. Nei suoi lavori, la memoria non è una funzione da simulare, ma una materia da manipolare artisticamente, un flusso che si rigenera a ogni visualizzazione. 

Sofia Crespo, artista nata a Buenos Aires nel 1991 e residente a Lisbona, propone un’estetica della memoria biologica. Attraverso algoritmi di deep learning crea specie sintetiche, forme di vita immaginate ma verosimili, che sembrano uscite da enciclopedie dimenticate o sogni di un naturalista dell’Ottocento. Il suo progetto Neural Zoo (2018-2022) è diventato un punto di riferimento per chi esplora il confine tra intelligenza artificiale e biofilia. Nei suoi lavori, l’IA diventa uno strumento per rievocare e reinventare la biodiversità, generando archivi del possibile che interrogano il nostro rapporto con il vivente. 

Alessandro Giannì, nato a Roma nel 1989, lavora, invece, sul confine tra immagine digitale e tradizione pittorica. La sua pratica mescola intelligenze artificiali, intervento manuale e ambientazioni oniriche. Con Due to the Image (2021) ha sviluppato Vasari, un’IA in grado di apprendere le sue pennellate e generare dipinti in stile, creando una co-autorialità inedita. Giannì costruisce così un metaverso pittorico dove la memoria della storia dell’arte, processata dall’algoritmo, si fonde con la visione contemporanea, dando vita a scenari che sembrano sognati direttamente dalla pittura. 

Alessandro Giannì, Shining Within, Solo Exhibition, 78 Space - MAM Shanghai, Cina, 2025
Alessandro Giannì, Shining Within, Solo Exhibition, 78 Space – MAM Shanghai, Cina, 2025

Memorie possibili 

In un tempo in cui tutto viene registrato, ma poco viene ricordato davvero, l’intelligenza artificiale si propone come archivista instancabile. Ma l’arte – proprio come l’IA – non parla solo attraverso i singoli: si nutre di genealogie, di tensioni condivise. Ognuno di questi artisti, a suo modo, interroga la memoria in forma di immagine, dato o pigmento digitale. E il dialogo si arricchisce. 

“La tecnologia, come l’arte, è un’estensione di noi stessi. Ma ci mostra anche ciò che abbiamo paura di vedere”, afferma Amy Karle. Giuliana Cunéaz rilancia: “Con l’IA non si tratta di cedere il controllo, ma di accettare una nuova forma di dialogo. Un dialogo con l’invisibile, con l’ignoto”. Per Agoria “l’arte generativa è come un’orchestra: l’algoritmo può suonare, ma l’intenzione resta umana”. Carmelo Cipriani chiude il cerchio: “Quello che ci interessa non è solo cosa può fare l’IA, ma come noi possiamo imparare a ricordare diversamente attraverso di essa. In fondo, la memoria non è mai stata oggettiva. L’IA ci ricorda solo quanto lo sia ancora meno”. 

E se è vero – come dice Karle – che “la memoria, per essere umana, deve restare vulnerabile”, allora forse l’intelligenza artificiale non è il nostro opposto, ma il nostro specchio. E anche il nostro testamento. 




FERPI ha pubblicato il Codice Etico per la Reputazione: il commento del professor Luca Poma

FERPI ha introdotto un nuovo Codice di Autoregolamentazione per la Gestione Etica della Reputazione. Ne ha parlato con noi Luca Poma.

A luglio 2025 è stato presentato a Napoli, durante l’assemblea nazionale della Federazione Relazioni Pubbliche Italiana (FERPI), il nuovo Codice di Autoregolamentazione per la Gestione Etica della Reputazione, con l’intento di promuovere un approccio fondato su trasparenza, integrità e responsabilità. Il documento, entrato a far parte del corpus normativo della Federazione, offre linee guida chiare e condivise per i professionisti della comunicazione e delle relazioni pubbliche, con l’obiettivo di contrastare le pratiche di manipolazione reputazionale.

Rassegna Business ha intervistato a tal proposito Luca Pomacoordinatore del gruppo di lavoro che ha redatto il nuovo Codice di Autoregolamentazione per la Gestione Etica della Reputazione, nonché professore di Reputation management all’Università LUMSA di Roma e all’Università della Repubblica di San Marino e socio professionista della Federazione Relazioni Pubbliche Italiana.

Il nuovo Codice suggerisce regole chiare per contrastare pratiche professionali scorrette basate sulla manipolazione della reputazione, anche tramite strumenti digitali. In che modo può essere garantita l’effettiva applicazione di questi principi in un contesto professionale ancora poco regolamentato?

reputazione è uno dei maggiori vantaggi competitivi di cui un’organizzazione possa disporre perché orienta i comportamenti di acquisto del pubblico, quindi genera denaro, e come tutto ciò che è generatore di valore, diventa sempre più oggetto di attenzione, e in alcuni casi, purtroppo, di manipolazione: agenzie e aziende sempre più spregiudicate, così come liberi professionisti di dubbia integrità, forniscono servizi di vera e propria costruzione ad hoc della reputazione, come pure non esitano ad aggredire e distruggere la reputazione di realtà competitor o comunque sgradite ai propri assistiti. Per questo FERPI ha voluto darsi delle regole, impegnative per tutti i propri Soci, per garantire sul mercato integrità, trasparenza e responsabilità, realmente, non solo a parole: per chi non rispetterà le nuove norme si può arrivare fino all’espulsione dall’associazione di categoria.

Quali strumenti concreti suggerisce per proteggere il valore della reputazione in azienda e con gli stakeholder?

Innanzitutto – appunto – affidarsi solo a professionisti che abbiano preso degli impegni vincolanti sotto il profilo etico, e quindi non disponibili a pratiche scorrette pur di portare a casa risultati, perché quando parliamo di reputazione siamo su di un terreno sdrucciolevole, ci vuole pochissimo a distruggere valore, e brand anche molto validi possono venir trascinati nel pieno di una crisi da agenzie loro consulenti che ritengono – sbagliando – che il fine giustifichi qualunque mezzo e che pur di acquisire notorietà o surclassare in visibilità un competitor tutto sia lecito.

In secondo luogo, è necessario ritrovare il senso della parola ‘autenticità‘: i fatti ci dimostrano che l’implacabile tribunale dell’opinione pubblica è ad esempio propenso a perdonare chi sbaglia, se questi presenta delle scuse sincere e sentite, spiega perché quell’errore non verrà più commesso, e quali cambiamenti concreti ha fatto l’organizzazione per far si che ciò non accada mai più. Le organizzazioni sociali complesse come le aziende funzionano come le famiglie: vogliamo un partner che quando sbaglia è capace di spiegarci cosa è accaduto e chiedere scusa, o invece qualcuno che mente e si arrampica sugli specchi? E perché gli utenti, i cittadini, i clienti, dovrebbero dare fiducia a un’azienda che si comporta diversamente da come vorremmo si comportasse un nostro familiare o amico? E il grado di fiducia è centrale nel business: perché – è una regola vecchia come il mondo – non compro da chi non mi fido.

Il nuovo Codice FERPI nasce in un’epoca in cui la comunicazione digitale è dominata da algoritmi opachi e da rischio di disinformazione. Quali sono le principali sfide etiche che i comunicatori oggi devono affrontare e quali standard di integrità reputazionale ritiene imprescindibili per chi opera nel settore, inclusi coloro che collaborano con IA e tecnologie emergenti?

Diffusione ad arte di fake news, uso di bot e fake account, e operazioni informatiche di data forging o data deletion, permettono oggi a comunicatori spregiudicati di influenzare il pubblico, ma soprattutto di influenzare gli algoritmi che regolano i meccanismi di visibilità nelle varie piattaforme social e nei principali motori di ricerca, alterando in modo malizioso le informazioni relative all’organizzazione target, distruggendo valore, pregiudicando la business continuity, e, nei casi più gravi, portando al fallimento di un’azienda o alla rovina di un personaggio pubblico. Queste pratiche sono ben al di sotto di ciò che consideriamo accettabile come professionisti della comunicazione e delle relazioni pubbliche. In presenza di manipolazione, crolla la fiducia, che come abbiamo detto è un elemento fondamentale per garantire il buon funzionamento delle aziende e del sistema economico, ma anche più in generale di tutte le istituzioni democratiche. La mancanza di fiducia può arrivare a distruggere la coesione del tessuto sociale: è di tutta evidenza, allora, che la sfida è molto più ambiziosa che non solo ‘far le cose bene’ per tenere alta la reputazione di un brand.




Nuovo codice di Autoregolamentazione per la reputazione

Nuovo codice di Autoregolamentazione per la reputazione

Dopo un intenso periodo di dibattito e confronto, durato svariati mesi, ha visto la luce il Codice di Autoregolamentazione per la gestione etica della Reputazione nella professione dei relatori pubblici e dei comunicatori, grazie all’appassionato lavoro di un gruppo di colleghi professionisti che ho avuto il piacere e l’onore di coordinare, affiancati da alcuni talenti di eccezione esterni alla Federazione, che hanno prestato le loro competenze al progetto[1].

Che un’organizzazione sia un insieme di sistemi di relazione, che interagisce in continuazione con altri sistemi di relazione, è fuori discussione, anche senza scomodare Lofti Zadeth e la sua teoria fuzzy degli insiemi sfumati: come spieghiamo nel Codice, la forza di questa sintesi si verifica nella solidità di un modello teorico che porta a valutare la performance delle organizzazioni non solo in termini economico-finanziari, ma, soprattutto, di fatto, relazionali; e la qualità delle relazioni si misura – anche – mediante la loro reputazione.

Contare su una buona reputazione costituisce infatti la leva più significativa per ampliare la propria licenza di operare, licenza che è frutto di un processo di continua negoziazione tra un’organizzazione e i suoi pubblici influenti, da rinnovare continuamente, e del quali i relatori pubblici sono per certi versi i sacerdoti, amministratori consapevoli di una liturgia che perimetra e definisce la cornice di senso nella quale le organizzazioni economiche si muovono per attuare la propria mission e raggiungere i loro obiettivi di business e sociali.

La letteratura scientifica – diverse referenze sono citate in calce al Codice stesso – conferma oltre ogni ragionevole dubbio che la reputazione è uno dei maggiori vantaggi competitivi di cui un’organizzazione possa disporre, nonché il più importante dei suoi asset intangibili: orienta i comportamenti di acquisto, e quindi genera – o meno – denaro. E come tutto ciò che è generatore di valore, diventa sempre più oggetto di attenzione e – in alcuni casi, purtroppo – di manipolazione.

Se un tempo i rischi principali per la reputazione di un’organizzazione erano rappresentati, entro una certa misura, dall’organizzazione stessa, ovvero dalla sua capacità o meno di gestire la coerenza tra intenzioni e comportamenti, oggi occorre prender atto di come l’arena della comunicazione sia diventata infinitamente più complessa e insidiosa: agenzie e aziende sempre più spregiudicate, così come liberi professionisti di dubbia integrità, forniscono servizi di vera e propria costruzione ad hoc della reputazione, anche tramite la diffusione ad arte di fake news, o la generazione di fake consensus in rete tramite bot e fake account, per influenzare non solo gli stakeholder, ma soprattutto gli algoritmi che regolano i meccanismi di visibilità nelle varie piattaforme Social e nei principali motori di ricerca.

Ancor più grave, come abbiamo sottolineato nel Codice di Autoregolamentazione, è registrare come quelle stesse agenzie non esitino ad aggredire e distruggere la reputazione di eventuali realtà competitor o comunque sgradite ai propri assistiti, attraverso articolate operazioni informatiche di data forging o data deletion, volte ad alterare le informazioni relative all’organizzazione target, operazioni queste che molto spesso infrangono la legge, prima ancora che i fondamenti etici e deontologici su cui dovrebbe basarsi la nostra professione.

Per questi motivi, è imperativo che i professionisti delle relazioni pubbliche rinnovino l’intenzione e la volontà di agire – nella professione e nel rapporto con i propri mandanti e con gli altri stakeholder di volta in volta coinvolti – con integrità, trasparenza e responsabilità. Ma realmente, non solo a parole.

Perché in presenza di manipolazione, crolla la fiducia; e la costruzione di rapporti basati sulla fiducia appare come un elemento fondamentale per garantire il buon funzionamento delle istituzioni democratiche, per la competitività del sistema economico e per la coesione del tessuto sociale, nonché la precondizione per un’efficace azione di sistema, come ben sottolineato anche dalla Partnership for the Goals – SDG 17 Agenda 2030 dell’ONU.

Da tutto ciò deriva che ogni azione volta a compromettere o alterare in modo non genuino la reputazione, di un’organizzazione quanto di un personaggio pubblico, è tanto più grave nella misura in cui rischia di minare, in modo spesso irrimediabile, il rapporto di fiducia costruito – appunto – con i vari pubblici, con conseguenze a catena spesso catastrofiche, come distruzione di valore, pregiudizio alla business continuity, e, nei casi più gravi, il fallimento di un’azienda o anche il tracollo di un governo regolarmente eletto.

Con questo Codice di Autoregolamentazione, FERPI ha l’ambizione di influenzare virtuosamente non solo i comportamenti e le pratiche degli addetti ai lavori, sollecitandoli a rifiutare di collaborare con clienti che richiedono l’attuazione di pratiche manipolative o ingannevoli a danni di terzi, circostanza purtroppo ben più frequente di quanto si possa pensare, ma anche di elevare il livello di consapevolezza e di responsabilità delle stesse organizzazioni e dei centri di influenza che a noi professionisti si rivolgono per meglio governare i propri sistemi di relazione.

Ammonizione scritta, sospensione temporanea o nei casi più gravi espulsione dall’associazione professionale, sono le sanzioni previste per chi sarà sorpreso a violare le norme del Codice di Autoregolamentazione; che si presenta – vorrei sottolinearlo – come un progetto aperto al dibattito e confronto con altre associazioni di categoria e gruppi di interesse, che auspicabilmente – immaginiamo – amerebbero anch esse garantire che le pratiche professionali nel settore delle relazioni pubbliche e più in generale della comunicazione siano etiche e orientate alla verità e al rispetto dei diritti e degli interessi di tutti i soggetti coinvolti.

La domanda, a questo punto, sorge spontanea: chi raccoglierà la sfida e giocherà la partita da protagonista, e chi invece manterrà un basso profilo sfuggendo al confronto e alla richiesta di ingaggio?

Codice di Autoregolamentazione per la gestione etica della Reputazione nella professione dei relatori pubblici e dei comunicatori


[1] Il documento è stato redatto nel corso dell’anno 2024/25 da un gruppo di lavoro composto dai soci FERPI (in ordine alfabetico per cognome): Ezio Bertino, Daniele Chieffi, Antonio Deruda, Giorgia Grandoni, Biagio Oppi, Luca Poma, Maurizio Ravidà, Cristiana Rogate, Francesco Rotolo, Giampiero Vecchiato e Fabio Ventoruzzo, con la preziosa collaborazione esterna di Giovanna Cosenza (Professore di Semiotica all’Università di Bologna), Alberto Pirni (Professore di Filosofia Morale alla Scuola Superiore Sant’Anna di Pisa) e Nicola Menardo (Avvocato, già Studio Grande Stevens, oggi Studio Weigmann) per la verifica di conformità giuridica. Il gruppo di lavoro è stato coordinato dal socio FERPI Luca Poma. Il Codice è stato redatto attenendosi ai criteri Rough Consensus – Consenso a grandi linee (fonti: DIB – Defence Innovation Board, Comitato misto pubblico/privato del governo USA, e IETF – Internet Engineering Task Force)




Davvero ChatGPT ci sta rendendo stupidi?

Davvero ChatGPT ci sta rendendo stupidi?

A prima vista, i recenti studi scientifici che hanno indagato l’impatto dell’intelligenza artificiale generativa sul nostro cervello non lasciano spazio a dubbi. E portano a una conclusione inevitabile: ChatGPT e gli altri large language model ci stanno rendendo stupidi. Il più recente – e noto – di questi studi è stato condotto dall’Mit di Boston e ha coinvolto 54 persone divise in tre gruppi: il primo ha scritto dei saggi brevi senza nessun ausilio esterno, il secondo si è potuto avvalere dei motori di ricerca e il terzo ha invece sfruttato proprio ChatGPT, il più noto dei large language model.

Risultato del test? “L’elettroencefalogramma ha fornito prove solide del fatto che i gruppi che hanno usato Llm, quelli che hanno impiegato i motori di ricerca e quelli che hanno usato solo il cervello hanno mostrato schemi di attività neurale significativamente differenti, che mostrano strategie cognitive divergenti”, si legge nello studio. L’attività cerebrale diminuiva sistematicamente all’aumentare del supporto esterno: il gruppo ‘solo cervello’ mostrava le reti più forti e diffuse, quello con il motore di ricerca un coinvolgimento intermedio, mentre l’assistenza dell’Llm generava l’attività cerebrale più debole”.

Gli utenti che hanno potuto utilizzare ChatGPT, in particolare, hanno mostrato tassi molto più bassi di attività neurale nelle aree del cervello associate alle funzioni creative e all’attenzione, oltre ad aver prodotto testi omogenei tra loro e ad avere ottenuto i punteggi più bassi nella capacità di ricordare i contenuti dei loro stessi saggi.

Test diversi, risultati simili

Risultati simili sono emersi durante un secondo studio, condotto dalla Swiss Business School di Zurigo e durante il quale è stato chiesto a 666 partecipanti di indicare con quale frequenza impiegassero l’intelligenza artificiale e quanto si fidassero di essa. Una volta ottenute queste informazioni, i partecipanti sono stati sottoposti a dei test per la valutazione del pensiero critico. Prevedibilmente, chi faceva un maggiore uso dell’intelligenza artificiale ha ottenuto punteggi più bassi, mostrando quindi un’inferiore capacità di pensiero critico.

Si potrebbero citare altri studi – tra cui questo di Microsoft Research – ma le conclusioni sono pressoché sempre le stesse: chi usa con maggiore frequenza l’intelligenza artificiale, e si fida maggiormente delle sue capacità, mostra meno attività cerebrale, meno pensiero critico, meno abilità creative e mnemoniche.

Siamo quindi senza speranza? Dobbiamo rinunciare a utilizzare ChatGPT e i suoi fratelli, se vogliamo salvaguardare il nostro cervello? In realtà, la questione è molto più sfumata e sono gli stessi autori dei paper citati a indicare la necessità di condurre “ulteriori e più ampi studi” per verificare le loro conclusioni preliminari.

Conclusioni preliminari che, in un caso, ricordano la proverbiale scoperta dell’acqua calda e, nell’altro, lasciano aperti numerosi interrogativi e altrettante perplessità. Partiamo dallo studio dell’Mit: era inevitabile che il gruppo che poteva appoggiarsi ai large language model mostrasse una ridotta attività cerebrale rispetto a chi non ha potuto impiegare nessuno strumento esterno.

Questo vale soprattutto perché ci sono chiari segnali che il gruppo che ha sfruttato ChatGPT non abbia utilizzato il sistema di OpenAI per produrre dei saggi, ma ne abbia abusato. Lo dimostra innanzitutto la scarsa qualità e omogeneità dei saggi scritti dal “gruppo Llm”: segno evidente che tutto il lavoro (o quasi) sia stato affidato a ChatGPT, con un inevitabile calo dell’attività cerebrale. In poche parole, invece di usare i large language model come supporto l’hanno utilizzato come sostituto (su questo aspetto cruciale torneremo più avanti): l’attività cerebrale non poteva che risentirne.

A confermare questo sospetto è la seconda parte dello studio dell’Mit. Dopo aver completato i primi tre saggi, a 18 dei 54 partecipanti è stato chiesto di scriverne un quarto in condizioni invertite: chi aveva usato gli Llm ha potuto impiegare solo il cervello e viceversa. L’aspetto più interessante di quest’ultima parte dello studio, non sono tanto gli scarsi risultati ottenuti da chi aveva precedentemente usato gli Llm e poi si è ritrovato senza supporto, ma gli ottimi risultati ottenuti invece dal gruppo opposto.

Come scrivono gli autori dello studio: “I risultati suggeriscono che introdurre gli strumenti di intelligenza artificiale in un secondo momento, dopo una fase iniziale di sforzo autonomo, può favorire un maggiore coinvolgimento e una migliore integrazione neurale. I marcatori Eeg corrispondenti indicano che questa sequenza potrebbe essere neurocognitivamente più ottimale rispetto a un utilizzo costante dell’AI fin dall’inizio”. Una nota che conferma come un utilizzo corretto dell’intelligenza artificiale, invece che un suo abuso, possa dare esiti molto diversi, sia dal punto di vista della qualità dell’output, sia dal punto di vista dell’attività cerebrale.

Anche il secondo studio, quello della Swiss Business School, presenta alcuni problemi. Prima di tutto, gli studi basati sull’autovalutazione dei partecipanti sono storicamente poco affidabili; in secondo luogo, non è chiaro quale sia la causa e quale l’effetto: è il fatto di utilizzare intensivamente ChatGPT e avere fiducia in esso che causa una mancanza di pensiero critico, o sono le persone che non spiccano per pensiero critico a utilizzare e a fidarsi eccessivamente dei large language model?

Non è tutto: vista la valutazione (moderatamente) positiva che, nello studio dell’Mit, viene fatta dell’utilizzo dei motori di ricerca, è impossibile non pensare a quando gli stessi identici timori che oggi si hanno nei confronti di ChatGPT riguardavano invece proprio Google. Un celeberrimo articolo dell’Atlantic del 2008 si intitolava proprio: Google ci sta rendendo stupidi?. È lo stesso studio dell’Mit a rievocare il temutissimo “Google Effect”, secondo il quale affidarsi ai motori di ricerca causa “un declino nell’abilità di ricordare” e provoca “uno spostamento degli sforzi cognitivi dalla conservazione delle informazioni a processi mnemonici più esternalizzati”.

E quindi?

Siamo di fronte al solito allarmismo tecnofobico di cui non dobbiamo preoccuparci? A questo punto, tanto vale rievocare i più classici e citati di questi timori. Come si legge sull’Economist, “già nel quinto secolo a.C., Socrate si lamentava della scrittura. Una pozione non per ricordare (remembering), ma per ricordare a sé stessi (reminding). Le calcolatrici evitano ai cassieri di dover calcolare un conto. Le app di navigazione eliminano la necessità di saper leggere una mappa. Eppure, pochi sosterrebbero che per questo motivo le persone siano diventate meno capaci”.

In parte, quindi, siamo di fronte alle inevitabili preoccupazioni che sorgono quando ci troviamo di fronte a una nuova tecnologia. Allo stesso tempo, sarebbe superficiale derubricare questi timori troppo alla svelta. D’altronde, che Google abbia effettivamente avuto un impatto sulla nostra memoria è confermato anche da studi recenti. Se non bastasse, c’è parecchia differenza tra fare una divisione con la calcolatrice e farsi scrivere un tema scolastico da ChatGPT.

Come ha spiegato sempre all’Economist lo psicologo Evan Risko, docente all’università di Waterloo e noto per aver coniato il termine cognitive offloading (“esternalizzazione del carico cognitivo”): “L’intelligenza artificiale generativa permette di esternalizzare un insieme di processi molto più complessi. Delegare qualche calcolo mentale, che ha applicazioni piuttosto limitate, non è la stessa cosa che delegare un intero processo di pensiero come la scrittura o la risoluzione di problemi. E una volta che il cervello prende gusto a questa esternalizzazione cognitiva, può diventare un’abitudine difficile da abbandonare”.

Concedetemi un esempio personale, che riguarda il giornalismo ma che sicuramente si può adattare a molti altri contesti. Per il mio lavoro utilizzo quotidianamente ChatGPT e altri strumenti basati sull’intelligenza artificiale. Ovviamente non per scrivere articoli, ma per trovare refusi, individuare la traduzione migliore per un termine inglese (come “cognitive offloading”), farmi suggerire delle alternative per titoli o sottotitoli quando non mi viene in mente nulla (modificandoli a piacimento o rifiutandoli del tutto), farmi consigliare come rendere più scorrevole un paragrafo che mi sembra involuto (anche solo per “sbloccarmi” e spesso senza poi utilizzare i suggerimenti che mi vengono forniti).

Insomma, credo di impiegare ChatGPT nel modo corretto e non di delegare a esso il mio lavoro (e, in realtà, nemmeno di risparmiare tempo). Eppure, è ovvio che se prendo l’abitudine di chiedere a ChatGPT di suggerirmi come completare un sottotitolo ogni volta che sono bloccato, alla lunga non sarò più in grado di farne a meno e magari perderò qualche abilità creativa. È un processo simile a quello a cui ci ha costretto Google: forse la nostra memoria si è davvero atrofizzata, in cambio abbiamo ottenuto la possibilità di accedere a qualsiasi informazione in qualsiasi momento, spalancando opportunità (anche) intellettuali che un tempo ci erano precluse.

In due parole: pro e contro

Alcune abilità si perderanno, altre si acquisiranno. Per affrontare al meglio i rovesci della medaglia dell’intelligenza artificiale generativa è però indispensabile uscire dalla “narrazione della sostituzione”, secondo la quale ChatGPT e gli altri sistemi affini sono sul punto di sostituire l’essere umano.

È una narrazione utile alle aziende che vogliono tagliare i costi e sostituire quanti più dipendenti possibile con le AI, ma non è quella corretta. Le abilità di ChatGPT e gli altri (fondamentalmente, eseguire complicatissimi calcoli probabilistici) non sono sostitutive delle nostre (astrazione, pensiero critico, valutazioni, ecc.), ma complementari a esse.

È anche a causa di questa interpretazione errata dell’intelligenza artificiale che può sembrare corretto valutare l’impatto di ChatGPT sul nostro cervello facendogli svolgere un lavoro al posto nostro. Questi sistemi vanno invece impiegati come se fossero degli assistenti molto volenterosi, ma per niente affidabili. Che possono supportarci ma che vanno usati con cognizione di causa e attentamente supervisionati.

Come segnala Barbara Larson, docente di Management alla Northeastern University, “Il modo più intelligente per trarre vantaggio dall’intelligenza artificiale è limitarne il ruolo a quello di un assistente entusiasta ma un po’ ingenuo”. Non dobbiamo quindi chiedere a un chatbot di generare direttamente il risultato finale desiderato, ma guidarlo passo dopo passo lungo il percorso che porta alla nostra soluzione. Questo utilizzo dell’intelligenza artificiale non è preferibile a quello sostitutivo (solo) perché ci permette di salvaguardare il cervello, ma soprattutto perché è il modo giusto per sfruttarne al meglio le potenzialità.

Quando sarà passata la fase di hype e il nostro rapporto con le intelligenze artificiali sarà più maturo, probabilmente tutto ciò ci sembrerà scontato. E se ciò avverrà, è anche possibile che – tra ciò che si perde e ciò che invece si guadagna – alla fine il bilancio per l’essere umano sia positivo.




American Eagle crolla dopo aver assunto un team di crisi per la pubblicità

American Eagle crolla dopo aver assunto un team di crisi per la pubblicità

 Le azioni di American Eagle Outfitters Inc (NYSE:AEO) sono scese del 3,9% dopo che Modern Retail ha riportato che l’azienda ha assunto specialisti esterni di comunicazione di crisi per gestire le reazioni negative alla recente campagna pubblicitaria con Sydney Sweeney.

Il rivenditore di abbigliamento da 3,3 miliardi di dollari sta collaborando con Actum, una società di consulenza globale specializzata nella gestione delle crisi, secondo informazioni ottenute da Modern Retail. La mossa arriva mentre American Eagle affronta critiche per la sua campagna “Sydney Sweeney Has Great Jeans”, che gioca sull’omofonia tra “jeans” e “genes” (geni).

I critici hanno condannato la campagna per aver presumibilmente evocato temi di eugenetica e suprematismo bianco, mentre altri hanno notato che rappresenta un allontanamento dall’approccio di marketing precedentemente orientato alla body positivity del marchio. Le pubblicità controverse sono state esposte in modo prominente su autobus, su un cartellone di 20 piani a Times Square, sulla Sphere di Las Vegas e su piattaforme social come Snapchat e Instagram.

Quando contattato riguardo alla controversia, un rappresentante di Actum ha risposto alle richieste dei media, confermando il loro coinvolgimento con il marchio. Tuttavia, l’agenzia di pubbliche relazioni ufficiale di American Eagle ha successivamente dichiarato che questo rappresentante “non era autorizzato a parlare per conto di AE”.

La reazione negativa del mercato suggerisce che gli investitori sono preoccupati per il potenziale danno alla reputazione del marchio e il possibile impatto sulle vendite mentre il rivenditore affronta questa sfida di pubbliche relazioni.