«L’intelligenza artificiale non ci ruberà il lavoro. E soprattutto non è intelligente». Parola di Luciano Floridi
gni giorno i media affrontano il tema dell’intelligenza artificiale e la narrazione è spesso catastrofica. «Se non poniamo le domande giuste avremo risposte sbagliate». Il professor Luciano Floridi è forse il massimo esperto mondiale di etica dell’intelligenza artificiale. Da tempo si occupa dell’impatto dell’informatica e dell’attività digitale nella vita delle persone. Fino a pochi giorni fa ha insegnato filosofia ed etica dell’informazione all’Università di Oxford ma adesso è arrivata la chiamata dall’Università di Yale. La prestigiosa università americana lo ha nominato “founding director” del suo nuovo “digital ethics center” e professor di scienze cognitive. Nello specifico si occuperà di dirigere uno dei rarissimi centri di ricerca mondiali con l’obiettivo di avvicinare l’ecosistema del digitale al mondo umanistico e sociale. Il professore coordinerà attraverso il centro vari dipartimenti dell’Università di Yale, dalla facoltà di legge, sociologia, data science, geografia, per dare corpo e struttura alla ricerca sul tema del digitale. «La vita del pioniere è sempre stata solitaria, mi sono divertito ma sono sempre stato da solo. Questo riconoscimento mi emoziona per i trent’anni di lavoro che ho investito su questo tema». Non è una fuga dall’Europa, il professore infatti manterrà la cattedra all’Università di Bologna come docente di Sociologia della Cultura e della Comunicazione. «Era importante per me mantenere una connessione con l’Europa soprattutto con Bologna dove esiste il più grande centro di calcolo computazionale». Il suo ultimo libro “Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide” (Raffaello Cortina Editore) aiuta a decifrare il mondo complesso del mondo del digitale.
Professore, l’intelligenza artificiale sta facendo passi da gigante. Stiamo delegando sempre più mansioni a questa tecnologia. Quali sono le sfide etiche da affrontare?
Dobbiamo riflettere sui compiti che stiamo delegando all’AI. Nel dibattito manca l’attenzione sull’allocazione della responsabilità. Quando, non se, ci saranno dei problemi, chi si assumerà la responsabilità? Se sarà un algoritmo a negarmi un mutuo, con chi potrò prendermela? Se l’assicurazione non mi liquida perché è un’intelligenza artificiale che gestirà il processo, come facciamo? Su questo c’è molto da fare. Se ho un incidente stradale, esistono regole e procedure chiare, vorrei che ci fosse la stessa attenzione anche nel campo dell’AI.
“Nel dibattito manca l’attenzione sull’allocazione della responsabilità”
Ed a che punto siamo con la governance dell’AI? Come al solito rincorriamo un’auto già partita?
Abbiamo delegato all’industria il motore ed il pedale dell’acceleratore ma le mani sul volante le deve tenere la società. Dal punto di vista sociopolitico ci dedichiamo poco alla guida. La legislazione sul GDPR ha avuto moltissimi anni per essere sviluppata, poi è entrata in vigore e tutti si sono adeguati.
Quindi è soddisfatto del via libera del Parlamento Europeo al regolamento sull’AI?
Sì. Il 14 giugno il Parlamento Europeo ha approvato l’AI Act che, dopo altri passaggi istituzionali, dovrebbe entrare in vigore entro la fine dell’anno. Quindi, a chi chiede regole, l’EU risponde che sono in arrivo. Per chi le teme, sarà meglio che se ne faccia una ragione e inizi a adeguarsi. Il mercato europeo è troppo importante per ignorarlo, nonostante quello che suggerisce Sam Altman, l’AD di OpenAI. E per chi, come me, sostiene una via europea alla regolamentazione del digitale, resta il problema di capire se e come migliorare l’AI Act, che è tutt’altro che perfetto, almeno nella sua fase di attuazione.
Di tutto quello che legge sui giornali riguardo l’IA, cosa non le piace?
Purtroppo, l’informazione è parte del problema e non della soluzione. Ripetere, ingigantire, esaltare messaggi sbagliati non aiuta a creare consapevolezza. Qualcuno potrebbe ad esempio spiegare in modo chiaro che Chat GPT non è una banca dati? Oppure perché non guardare dietro agli interessi, alle motivazioni che spingono i baroni del digitale? Perché anche a loro fa comodo generare rumore che crea confusione nell’opinione pubblica sull’AI. È buffo perché su determinati argomenti, autorevoli giornali come l’Economist, pubblica dati, statistiche, fatti, ma quando si parla di AI non si pone la stessa attenzione, come se fosse più intrattenimento.
“L’output non è indice di intelligenza. È il processo quello che conta”
Fino a poco tempo fa pensavamo che l’intelligenza artificiale avrebbe sostituito lavori ripetitivi e con basso valore aggiunto, oggi invece vediamo che l’AI è creativa, può creare musica dal niente, progettare, creare design, abbiamo perso il controllo?
Questa è una narrazione sbagliata. Definiamo intanto i lavori creativi. Ho provato ad usare DALL-E e ho ottenuto output pessimi semplicemente perché non ho le competenze di un designer. Per usare gli strumenti tecnologici al meglio, bisogna essere capaci di sfruttarne le potenzialità. È come se qualcuno dicesse di essere un grande matematico perché sa usare la calcolatrice, oppure se qualcuno mi desse un auto da Formula 1 e io pensassi di saperla guidare. Non saprei che fare o mi schianterei dopo un minuto perché non capisco i vari comandi. Smontiamo il mito della creatività autonoma dell’AI. La differenza può farla chi sa gestire gli strumenti. A Roma ci sono artisti bravissimi che per terra ricreano la cappella Sistina, vogliamo dire che quella persona è come Michelangelo?
In effetti la startup che aveva creato i robot pizzaioli è fallita. I pizzaioli sono salvi…
Non mi sorprende affatto. La nostra cultura fomentata dai baroni del digitale è una cultura del prodotto che è consumista. Una scarpa fatta in serie costerà ovviamente meno di una fatta a mano ma è la stessa cosa? Ovviamente possiamo chiedere a ChatGPT di scrivere una storia breve sulla vita nei lager. Questo testo sarà uguale ad uno degli scritti di Primo Levi che ha vissuto nei lager? Proprio no. L’eccessiva enfasi tardo moderna, un po’ industriale, un po’ consumista, sul prodotto e basta, fa perdere di vista il processo, la storia, quello che c’è dietro. In modo consumistico, ci focalizziamo solo sull’output. Se un bambino di quattro anni corre dal papà e la mamma mostrando il disegno dell’alberello, i genitori gli faranno una festa ed incorniceranno il disegno. Non sono focalizzati sull’alberello, ma attribuiscono significato al processo del bambino.
“Qualcuno potrà dire che ChatGPT è intelligente, ma non lo è”
Però gli sviluppatori di ChatGPT ad ogni release dicono di aver creato uno strumento sempre più intelligente
Qui nasce il problema di fondo. Cosa intendiamo per intelligenza? Nella storia umana abbiamo sempre assistito ad un matrimonio tra essere intelligenti e capacità di agire il che vuol dire che per ottenere qualcosa devo avere intelligenza. Con l’AI, per la prima volta, assistiamo ad un divorzio ovvero per ottenere il suo obiettivo l’AI non ha bisogno di essere intelligente. Qualcuno potrà dire che ChatGPT è intelligente, ma non lo è.
“I signori del digitale stanno degradando il concetto di intelligenza umana”
Perché no? In fondo impara dai propri errori…
Mettiamola così. Se lei gioca a scacchi con il suo smartphone in casa sua, ad un certo punto scoppia un incendio, lei che è intelligente lascerà la casa, il suo smartphone porterà a termine la partita per vincerla. Chi è intelligente qui? Se lei gioca a carte con suo figlio, magari in certe occasioni, lo lascerà vincere, un AI perché dovrebbe farlo? Il grosso problema è che i signori del digitale stanno degradando il concetto di intelligenza umana a qualcosa di troppo elementare.
In effetti molti neuroscienziati dicono che il nostro cervello in fin dei conti non è altro che una serie di neuroni iperconnessi. Se ricreiamo quello, abbiamo intelligenza.
A parte il fatto che la neuroscienza si sta sempre più distanziando da semplicistici modelli computazionali, se metto su una tavolozza dei colori, prendo un pennello e sono in grado di rifare la Monnalisa sono Leonardo Da Vinci? Guardare gli essere umani come strumenti significa la fine dell’umanità che è in noi.
Però stiamo lavorando per rendere “etiche” le risposte di chatGPT. L’algoritmo viene istruito da umani, questo non la tranquillizza?
Chi decide che cosa è etico? È una questione molta opaca, tanto che chiamerei Open AI, Opaque AI. Ho fatto un piccolo esperimento recentemente. Ho chiesto a ChatGPT una ricetta per cucinare la carne di cavallo. Mi ha fatto una predica spiegando che non dovrei mangiare la carne di cavallo. Poi ho chiesto come cucinare una bistecca di manzo e non ha detto niente, mi ha fornito la ricetta. Probabilmente qualcuno all’interno di Open AI ha deciso che mangiare carne di cavallo non è etico.
L’algoritmo imparerà e risolverà piano piano tutti questi conflitti.
Il punto è un altro. Noi sappiamo che Open AI si trova negli Stati Uniti e siamo “tranquilli”. Cosa succede nel momento in cui il 51% della società dovesse essere acquistato dalla Cina? Saremo comunque tranquilli? Prendere decisioni in modo opaco non è una gran strategia.
Molte persone sostengono che nei prossimi anni l’addestramento delle AI sarà talmente elevato che potrebbe raggiungere almeno l’intelligenza di un topo. Non è d’accordo?
Non è vero. L’idea che a forza di accumulare sintassi, alla fine venga fuori la semantica, è sbagliata. È come se io le dicessi che a forza di aggiungere degli zeri, tra cinque anni raggiungerò il numero 1 e poi il 2 e così via. Non ha importanza, saranno sempre zeri. Una cosa che non è intelligente resta non intelligente, e accumulare tanta zero-intelligenza non genera qualcosa d’intelligente. Anche in questo caso non poniamo l’attenzione sull’aspetto rilevante.
Quale sarebbe?
La capacità d’azione è sempre stata costruita in termini di capacità biologiche. Oggi non è più così perché abbiamo una capacità di agire con successo a zero intelligenza, come la gestiamo questa cosa? È una domanda che nella storia non ci siamo mai posti perché non è mai stato un problema.
Tornando ai lavori che si perderanno, alcuni ipotizzano un futuro in cui tutte le mansioni saranno automatizzate, le AI verranno tassate e noi come umanità, vivremo di rendita percependo un reddito che le macchine genereranno. La convince questo scenario?
Mi dispiace darvi una brutta notizia, il mondo non andrà in quella direzione, ma state tranquilli, il lavoro non mancherà. Quando sento dire, “la professione dell’avvocato scomparirà” mi viene da ridere. Guardiamo i dati. Dall’avvento del digitale abbiamo assistito da un’esplosione di problemi legali da gestire. È vero, magari l’avvocato che faceva le pratiche per l’assicurazione scomparirà ma a fronte di altre opportunità. Oggi negli Stati Uniti ci sono due posti di lavoro per ogni persona che lo cerca eppure siamo nell’epoca dell’intelligenza artificiale e della robotica che è partita negli anni ’60. A quest’ora avremmo dovuto essere tutti disoccupati. L’AI aumenta enormemente la produttività, quindi, serviranno competenze per gestire questi strumenti. Quello che è vero è che stiamo attraversando una rivoluzione di produttività e ricchezza ma la sua distribuzione è iniqua, e l’impatto su ambiente e società deleterio. Ecco perché servono le mani sul volante.
“Conoscere i linguaggi è la miglior preparazione per affrontare il futuro”
A proposito di competenza. A dei genitori che devono iscrivere i propri figli alle superiori cosa consiglierebbe in un mondo che cambia sempre più velocemente?
Probabilmente il liceo scientifico. È importante imparare più linguaggi possibili, non basta il greco ed il latino, servono anche i linguaggi della matematica, della fisica, della chimica, della musica. Questi linguaggi non invecchieranno mai e chi li saprà padroneggiare avrà la possibilità di capire, gestire e costruire il mondo che lo circonda. Se il mondo va più veloce è inutile accelerare di più, bisogna fare l’opposto, non inseguire ma focalizzarsi sui fondamentali. Uscire dalla scuola e saper “leggere e scrivere” il maggior numero di linguaggi parlati dall’informazione permetterà di vivere in un mondo meno misterioso.
Qualche mese fa la Universal Music si è scagliata contro l’AI dicendo che è una frode allenare gli algoritmi sfruttando le melodie del loro catalogo senza pagare il copyrights. Cosa ne pensa?
Le potrei rispondere in modo semplice dicendo che se le canzoni sono coperte da diritti d’autore è giusto che la Universal venga pagata. Se usano melodie libere da diritti allora non c’è alcun problema. Oppure se il modello ottenuto è usato solo per scopi educativi, l’accesso potrebbe essere gratuito, ma vorrei dare un’altra analisi se posso.
Certamente.
L’output della canzone creata dall’intelligenza artificiale attraverso il machine learning sulle canzoni esistenti, di chi è? Dell’autore della canzone o del software? Se io utilizzo Word per scrivere il mio libro, i diritti sono miei o anche di Microsoft? Per me che ho una visione strumentale di zero intelligenza dello strumento, il diritto d’autore è e resta mio. Chi pensa invece che questi strumenti siano intelligenti, allora è giusto che riconoscano un copyright anche all’AI, il che mi pare assurdo, ma almeno coerente.
Lei pensa che tra tre anni sarò sempre io ad intervistarla oppure sarò sostituito da un bot che magari sarà in grado di porre domande più intelligenti delle mie?
Più intelligenti delle sue non credo. Il futuro dipenderà dal suo editore. Se Startup Italia vorrà diventare un giornale di quantità allora sarà probabile che si affidi a dei bot, se invece vorrà continuare a produrre qualità allora sarà sempre lei ad intervistarmi. E comunque, se deciderete di affidare l’intervista ad un bot, non troverete me a rispondere, sarò rimpiazzato anche io da un bot.