Tempo di lettura: 6 min
Autore: Michele Mezza
https://ytali.com/2021/04/22/un-regolamento-ancora-troppo-euclideo/


 

Un regolamento ancora troppo euclideo

Un regolamento ancora troppo euclideo

a diffusione del nuovo indirizzo dell’Unione Europea sulle modalità di sviluppare e adottare strumenti di intelligenza artificiale (IA), nel giorno in cui si ricordava il 75° anniversario della scomparsa di John Maynard Keynes ci fa intendere quale sia l’ispirazione di questo documento. La conferma di un’eccezionalità europea, dove economia e saperi rimangono comunque saldamente nella sfera di una strategia pubblica di equilibri e bilanciamento dei poteri. Il documento ha infatti l’ambizione – dinanzi a un quadro tecnologico di grandi prospettiva e speranza ma dove non mancano rischi e svantaggi per il sistema culturale e democratico europeo – di voler procedere con un approccio sistematico, laddove specificatamente si spiega che

per tale ragione, si rende alquanto necessario, in questo preciso momento storico, sviluppare un quadro giuridico che istituisce un approccio europeo in materia di intelligenza artificiale per promuovere lo sviluppo e l’adozione di sistemi di intelligenza artificiale che soddisfino un elevato livello di protezione degli interessi pubblici.

 L’obbiettivo è quello di creare in Europa un ecosistema funzionale basato sulla fiducia

che copra l’intero processo di produzione, commercializzazione, vendita e utilizzo dell’intelligenza artificiale all’interno dell’Unione.

Per questo si fissa un sistema sanzionatorio anche più rigido di quello previsto con il DGPR, l’analogo regolamento per la gestione dei dati, che arriva a prevedere multe per il sei per cento del fatturato dell’impresa che trasgredisce.

La novità concettuale riguarda l’introduzione di una pratica di supervisione sulle forme e gli effetti di questi dispositivi in grado di crescere e autonomizzarsi nell’azione decisionale; significa certamente ridimensionare ruolo e poteri dei proprietari di quella potenza di calcolo che, anche nella pandemia, sta ordinando ogni attività e comportamento sociale. Rimane ancora incerta la modalità e il meccanismo con cui è poi esercitata questa supervisione su cui torneremo più avanti.

ytali è una rivista indipendente. Vive del lavoro volontario e gratuito di giornalisti e collaboratori che quotidianamente s’impegnano per dare voce a un’informazione approfondita, plurale e libera da vincoli. Il sostegno dei lettori è il nostro unico strumento di autofinanziamento. Se anche tu vuoi contribuire con una donazione clicca QUI

Un percorso che idealmente si riallaccia ad una delle vene che alimentarono il sogno europeo negli anni Sessanta, con l’allora famoso saggio del direttore dell’Express Jean Jacques Servan Schreiber, La Sfida Americana, in cui l’autore sollecitava un’attenzione dei governanti dei paesi del MEC, il progenitore dell’U.E., nell’attivare imprese e investimenti nelle nuove tecniche informatiche e telematiche che gli americani stavano abbondantemente importando in Europa. Sono gli anni della svendita alla General Electric della divisione informatica dell’Olivetti. Una stagione dominata dal mito dell’auto, in cui, come spiegava l’amministratore delegato della Fiat del tempo, Vittorio Valletta, “L’informatica non è per noi”.

Per più di mezzo secolo abbiamo accettato, complice la guerra fredda e la militarizzazione di queste tecnologie di base, la subalternità ai grandi gruppi americani, dall’IBM alla Silicon Valley. Ora queste soluzioni sono abbondantemente fuoriuscite dall’alveo puramente industriale investendo direttamente la società e programmando, tramite la connessione con le grandi piattaforme e la gestione dei big data, comportamenti ed emozioni, interferendo palesemente con il senso comune di ogni paese o comunità.

Cambridge Analytica è il punto di svolta che rende l’intelligenza artificiale un modello sociale prima che imprenditoriale, una tecnicalità di produzione e organizzazione del consenso, sia commerciale sia anche politico istituzionale.

Il primo dato che in qualche modo appare evidente dall’approccio dell’U.E. è proprio la convergenza di questi due mondi: le culture e tecniche per organizzare la produzione e i servizi, rendendo competitive le singole imprese coincidono con codici e linguaggi di relazione sociale. L’efficienza diventa anche egemonia, o come scriveva il filosofo Remo Bodei, dominio. Questo percorso è scandito da tre atti specifici:

  1. Quadro giuridico europeo per l’IA per affrontare i diritti fondamentali e i rischi di sicurezza specifici dei sistemi di IA;
  2. Norme UE per affrontare le questioni di responsabilità legate alle nuove tecnologie, compresi i sistemi di IA (ultimo trimestre 2021-primo trimestre 2022);
  3. Revisione della legislazione settoriale sulla sicurezza (ad esempio, regolamento sulle macchine, direttiva sulla sicurezza generale dei prodotti, secondo trimestre 2021).

Il combinato disposto di questi tre documenti determina la strategia comunitaria che fissa, questa è l’altra novità, vincoli e limiti che rendano i processi di ricerca, prima ancora della commercializzazione, dei sistemi intelligenti omologabili ai criteri di democrazia e partecipazione che sono la base del sistema continentale. Vengono per tanto, ad esempio inibiti apparati per il riconoscimento facciale generalizzato, o comunque basato su dati biometrici, che dovranno essere attentamente valutati e autorizzati in base a comprovate esigenze di ordine pubblico o di esigenze giudiziarie. 

Così come vengono severamente regolamentate le forme di implementazione di algoritmi che gestiscono attività di pubblico interesse di pregiudizi o discriminazioni che alterino le conseguenze e i risultati di questi sistemi automatici. Entriamo cosi nella sfera di quelle attività che il regolamento europeo definisce di “rischio elevato”. Sono gli ambiti , come la formazione, la scuola, la selezione del personale, l’informazione, la sanità, in generale servizi rivolti al pubblico, in cui i dispositivi digitali, comportando a regime straordinari effetti nella capacità di svolgere grandi quantità di funzioni, con un alto livello di personalizzazione, inevitabilmente introducono criteri e valori psico sociali che devono essere attentamente ponderati. 

Un rischio aumentato per la tendenza delle P. A: ad acquisire queste nuove tecnologie senza un adeguato livello di controllo e selezione. In queste norme si capisce che si vuole porre fine alla tendenza di delegare al fornitore la definizione del modello di tecnologie necessaria per quel problema e il suo corredo etico e semantico. Una tendenza che da tempo sta omologando interi settori, pensiamo appunto all’informazione o alla sanità, agli interessi dei monopolisti digitali, come Google o Amazon.

In questo complesso di vincoli e limitazioni non tocca all’utente o all’ente pubblico dimostrare la conformità dei prodotti o servizi adottati alle regole europee.

Parimenti a quanto previsto dal GDPR, è infatti in capo al produttore l’obbligo di svolgere un cosiddetto conformity assessment, ovvero di mettere in atto un processo, prima che il prodotto sia commercializzato, che possa dimostrare se i requisiti del Regolamento siano stati rispettati, al pari di quanto avviene nel GDPR, all’interno del quale il principale strumento di assessment è rappresentato dal Registro delle attività di trattamento e dallo svolgimento di idonee valutazioni del rischio che il trattamento stesso può comportare nei confronti dell’interessato.

Questo significa che in un giornale, in un sistema di consegne a domicilio, in un’azienda, in un ministero, il produttore del pacchetto di software e intelligenze che governa le funzioni di quel ambiente deve dettagliatamente documentare e rendere accessibili i punti nevralgici e sensibili del complesso tecnologico commercializzato. 

Entriamo a questo punto in contatto con un aspetto debole, incerto e pericoloso di tutto il modello normativo europeo: come e chi può verificare la congruenza delle tecniche con i valori affermati?

Infatti tutta la sequenza di norme sembra diretta solo a un negoziato commerciale fra imprese, fra chi produce intelligenza e chi la compra o l’adatta. Manca completamente l’altra gamba del tavolo che sono gli utenti e le comunità che vengono investite dall’attività di questi modelli automatici. Come esercitare i diritti affermati nel regolamento proposto dall’U.E?

In concreto, come i lavoratori delle ditte che agiscono in appalto da Amazon possono accedere e negoziare igli algoritmi che determinano l’organizzazione del lavoro? E in una fabbrica a 5G come si contratta il sistema automatico di trasferimento dati e informazioni? E in un ufficio pubblico come si gestisce un bando o una selezione del personale con modelli intelligenti? E a scuola o in un ospedale come insegnanti e medici si rendono conto di cosa è arrivato e di come questi meccanismi apprendono e si auto programmano?

Questo è il punto che non trova risposta. L’intelligenza artificiale, l’abbiamo detto, è innanzitutto una disciplina sociale che deve trovare una sua declinazione in base a diritti, ambizioni, pretese e necessità degli utenti che l’ha coprogrammano con i propri dati. Bisogna trovare procedure ed esperienze che guidino un processo di interattività sociale in cui dipendenti, professionisti, utenti, clienti e soprattutto cittadini abbiano la possibilità di usare le prerogative fissate dal regolamento per un’azione di riprogrammazione e ridisegno del sistema e non solo per generiche constatazioni di conformità.

Sono fissati con precisione i principi di sicurezza :

identificazione e analisi dei rischi noti e prevedibili associati a ciascun sistema di IA ad alto rischio;

stima e valutazione dei rischi che possono emergere quando il sistema di IA ad alto rischio viene utilizzato conformemente allo scopo previsto e in condizioni di uso improprio ragionevolmente prevedibile;

valutazione di altri rischi eventualmente derivanti dall’analisi dei dati raccolti dal sistema di monitoraggio post-mercato di cui all’articolo 61;

adozione di adeguate misure di gestione dei rischi conformemente alle disposizioni dei paragrafi seguenti.

I set di dati utilizzati nella fase di sviluppo e di testing del sistema, pertinenti, rappresentativi, liberi da errori e completi, oltre che dotati delle proprietà statistiche appropriate, anche per quanto riguarda le persone o i gruppi di persone sulle quali è destinato ad essere utilizzato il sistema di IA ad alto rischio.

Il tutto nell’ambito di un’affermazione importante e decisiva in cui si proclama che

devono essere progettati e sviluppati in modo da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l’output del sistema e utilizzarlo in modo appropriato.

Ma poi tutto questo come diventa pratica corrente? Come produce capitolati tecnici concordati? Come riorganizza i prodotti originari alla luce delle esigenze materiali degli utenti ?

Siamo a un passaggio decisivo. Non si tratta di voler applicare tradizionali procedure, come le precedenti negoziazioni sindacali all’intelligenza artificiale. Si vuole salvare, di quelle esperienze, l’ambizione di rimodellare un progetto astrattamente tecnico sulla base delle esigenze primarie degli esseri umani. Per fare questo, il punto di arrivo di una soluzione non può coincidere con il punto di partenza, e in mezzo ci deve essere una pratica negoziale. Siccome, questo è il salto innovativo, un algoritmo è controllabile solo da un algoritmo, e una piattaforma solo da un’altra piattaforma, bisogna aggiungere al regolamento europeo un codicillo che preveda che ogni dispositivo di intelligenza artificiale deve essere omologato e validato, come un farmaco da enti e soggetti che siano condivisi e partecipati da adeguate rappresentanze degli utenti o degli addetti alle attività organizzate da quell’intelligenza con adeguate strumentazioni digitali. Un cambio di ottica, un modo per rendere economia e società convergenti. Del resto come scriveva a Bernard Show, nel 1935, proprio Lord Keynes, criticando i suoi colleghi economisti che lo richiamavano alle compatibilità obbligate dei bilanci:

geometri euclidei in un mondo non euclideo, i quali scoprendo che nell’esperienza concreta due rette apparentemente parallele spesso s’incontrano, sgridano aspramente le linee stesse per la loro incapacità di andare diritte come se fosse l’unico rimedio alle disastrose collisioni che si verificano un po’ ovunque.

Sarebbe bene non strillare alle rete ma capire che tutto ormai converge.


creatoridifuturo.it | Selected by Luca Poma | Un regolamento ancora troppo euclideo (1/1)