image_pdfVersione PDFimage_printStampa

Non c’è bisogno di scomodare l’AI. Da anni tutto è software. “Se oggi si rompono i gestionali delle casse di un supermercato, quel supermercato diventa un magazzino”. Il punto, però, è che man mano che il software diventa più intelligente, definisce sempre di più la realtà. Sintesi firmata Paolo Benanti, ordinario di Etica delle tecnologie della Pontificia Università Gregoriana e figura chiave per l’AI in Vaticano, ma anche in Italia. Benanti fa parte di entrambe le Commissioni di Palazzo Chigi sul cui lavoro è stato basato il ddl italiano sull’intelligenza artificiale.

Il disegno di legge sull’AI annunciato a inizio marzo da Palazzo Chigi e previsto per prima di Pasqua è stato approvato dal Cdm a fine aprile, dopo settimane in cui – tra dicasteri diversi – è stato messo a punto un documento che affronta diversi dei punti più importanti relativi alla regolazione dell’AI in Italia, che potrebbe diventare il primo Paese a legiferare sul settore dopo la votazione dell’AI Act europeo dello scorso 13 marzo. È stata voluta dal sottosegretario all’Innovazione di Palazzo Chigi Alessio Butti la commissione sulla strategia italiana dell’AI di cui fa parte Benanti, che negli scorsi mesi è diventato presidente di un’altra commissione: quella sull’impatto AI sull’editoria, voluta dal sottosegretario Alberto Barachini.

Il confronto sul ddl è avvenuto anche internamente a Palazzo Chigi, tra il dipartimento per l’informazione e l’editoria e quello per la trasformazione digitale, in particolare sul copyright. Un tema ovviamente già affrontato durante il lavoro delle due commissioni, poi incluso al capo 4 del ddl, sulle disposizioni a tutela degli utenti e in materia di diritto d’autore.

Benanti sa bene quanto il lavoro su un testo che metta d’accordo tutti possa essere laborioso. Con Fortune Italia ha parlato a margine della firma, da parte della multinazionale Cisco, della Rome Call for AI Ethics, il documento creato dalla Pontificia Accademia per la Vita e promosso dalla Fondazione RenAIssance istituita da Papa Francesco e guidata dallo stesso Benanti, che fa anche parte della Commissione Onu sull’AI. Quando chiediamo come faccia a far parte di così tante commissioni diverse, il professore ride: “È come per le trottole: basta continuare a girare, perché se ti fermi cadi”.

Creata nel 2020, alla call del Vaticano questa estate si aggiungerà l’adesione dei rappresentanti delle fedi orientali, dopo quelli delle fedi abramitiche nel 2023. “Più si cerca un’adesione su un testo specifico, più il lavoro è lento. Ora dobbiamo capire come questi principi interrogano quella parte di intelligenza artificiale arrivata in questi anni, i grandi Llm. C’è una nuova urgenza: tutelare i singoli utenti perché gli llm vanno a interagire proprio con loro”.

Nel caso della firma della Rome Call (che è sostenuta da contributi volontari di enti di ricerca e soggetti singoli, perché “ricevere finanziamenti dai firmatari sarebbe un conflitto d’interessi”, spiega Benanti) collidono l’universo Vaticano, quello governativo e quello delle grandi aziende della tecnologia. Che ruolo può avere una iniziativa del genere in un Paese che cerca di trasformarsi in un centro di sviluppo per l’AI? Secondo Benanti “è chiaro che un’iniziativa che trova principi che siano un ponte tra pubblico e privato può facilitare il dialogo”. Non è nella call che avviene quel dialogo, “ma vedere che i principi sono accettati da entrambi i mondi, in un momento in cui vogliamo che la società sfrutti queste potenzialità, ci rende felici. La Rome Call avrà raggiunto il suo scopo quando non ci sarà più bisogno di lei. Quando queste cose accadranno senza contributo culturale”.

Tra le soluzioni del ddl italiano al nodo dei diritti d’autore, c’è l’apposizione dell’opt out: l’estrazione dei dati per addestrare sistemi AI è consentita se ciò non è vietato da chi detiene i diritti. Nel caso di contributo umano rilevante, anche i prodotti creati con l’ausilio dell’AI possono essere protetti da copyright. Quello di una commissione “è un lavoro prepolitico”, dice Benanti. Tra i contributi della commissione editoria – una relazione firmata e certificata su blockchain – c’è proprio il concetto di opt out, la riconoscibilità di quanto scritto dall’umano e il ‘watermarking’ di ciò che è generato dalle macchine. Guardrail netti che, ammette, lasciano ancora tanto “grigio” nel mezzo.

Entrambe le relazioni delle commissioni, spiega, contengono l’analisi di “quello che sta succedendo” e giudicano il contesto “con competenze scientifiche”, per poi “offrire alla politica la possibilità di attuare la sua decisione. Come commissioni ci siamo fermati qua”, anche se il comitato sull’editoria “tornerà a riunirsi”.

Le decisioni, “come è giusto che sia”, spettavano alla politica. “Da presidente di una delle due commissioni e da membro dell’altra, direi che sono stati fatti importanti passi in avanti. Si pensi agli strumenti per proteggere i minori”.

Come tutti i tentativi di “introdurre delle regole in un mondo così nuovo, questo non sarà l’ultimo e probabilmente altre novità seguiranno, anche con lo sviluppo delle tecnologie stesse”. Insomma, come per la fabbrica di San Pietro (l’ente che gestisce da 500 anni i lavori della Basilica) il lavoro su regole e principi di una tecnologia in continua evoluzione non finisce mai. L’importante è costruire in tempo l’impalcatura giusta.

Il disegno di legge

Il 23 aprile il Cdm ha approvato il disegno di legge (suddiviso in 5 capitoli e 26 articoli) che secondo il Governo porterà l’Italia ad avere una politica industriale sull’AI. Oltre che sulla tutela del diritto d’autore, le norme intervengono sulla strategia nazionale, le autorità nazionali, le azioni di promozione e le sanzioni penali. Ecco alcuni dei punti più important

 I fondi

Dopo l’annuncio di Giorgia Meloni arrivato il 12 marzo durante l’evento sull’AI voluto dal Governo a Roma, è stato inserito nel ddl (non c’era nelle prime bozze) il famoso tesoretto ‘fino a’ un miliardo per l’AI, da spendere su partecipazioni in startup e pmi attraverso Cdp Venture Capital e il fondo di sostegno del Mimit.

Giustizia

Da uno a tre anni: è la pena prevista per il reato di sostituzione di persona se si usano deepfake, la cui diffusione (per scopi criminali) è a sua volta punita con pene che arrivano fino a cinque anni “se dal fatto deriva un danno ingiusto”.

I 2 controllori

A vigilare sul’AI saranno, come annunciato settimane prima, Agid e Acn, rispettivamente con poteri di monitoraggio e sanzionatori. Alle attività chiave per la sicurezza nazionale, si legge nel documento, non si applicano le regole del ddl.

I bollini

Oltre a prevedere altre aggravanti sull’AI nella tutela del diritto d’autore, il ddl chiede a tv, radio e piattaforme di streaming l’inserimento di bollini o marcature chiaramente visibili per identificare i contenuti realizzati con AI, mentre anche sui social questi contenuti dovranno essere identificabili.

image_pdfVersione PDFimage_printStampa