1

Intelligenza artificiale e rischi connessi alla mancata regolamentazione

Elon Musk, imprenditore simbolo dell’innovazione in ambito tecnologico, sta mettendo il mondo in guardia rispetto lo sviluppo non controllato dell’intelligenza artificiale.
Dopo aver fondato nel 2015 Open AI, un’organizzazione no profit volta a democratizzare il potere dell’intelligenza artificiale, nel 2017 il founder di Tesla su twitter aveva aperto un dibattito riguardo come la corsa alla superiorità informatica tra le varie nazioni avrebbe potuto portare alla terza guerra mondiale. Con toni meno apocalittici ha ripreso più volte l’argomento, l’anno scorso durante un’intervista a Recorde ha dichiarato ‘’poiché l’intelligenza artificiale diventerà probabilmente molto più intelligente degli umani, il rapporto di intelligenza relativa sarà probabilmente simile a quello tra una persona e un gatto, forse più grande’’.

Pro e contro dell’intelligenza artificiale

Il problema, secondo Musk e altri scienziati tra cui Stephen Hawking, è da riscontrare nel fatto che si sta lavorando con impazienza nell’implementazione delle reti neurali senza prima aver condotto ricerche in tal senso. Secondo Elon Musk infatti sarebbe plausibile in un prossimo futuro trovarci di fronte ad uno scenario ‘’fantascientifico’’ in cui le macchine saranno in grado di prendere decisioni in maniera autonomia e magari iniziare una guerra.
Analizzando uno scenario più attuale, alla potenza dei sistemi di AI sono connessi rischi legati al cattivo uso di applicazioni già esistenti. Un esempio è da riscontrare nello scandalo di Cambridge Analytica che ha dimostrato come i social media sono in grado di pilotare la coscienza delle persone. Non in secondo piano ci sono le fake news e proprio a tal proposito Zuckerberg, durante un’audizione al Senato degli Stati Uniti, ha promesso la realizzazione di sistemi di intelligenza artificiale in grado di bloccare sul nascere la diffusione di notizie false.
L’intelligenza artificiale, nonostante i diversi ‘’contro’’, è in pieno sviluppo e ha portato ingenti benefici alla società, basti pensare a come ora è possibile fare diagnosi mediche con tecniche sempre meno invasive. Cresce costantemente il numero di scienziati che lavorano per migliorare ed implementare l’intelligenza artificiale nella vita delle persone come ad esempio i ricercatori di Google Deep Mind che hanno sviluppato AlphaGo e AlphaZero, intelligenze artificiali in grado di battere l’essere umano in giochi da tavolo.

Come muoversi in tal senso

L’intelligenza artificiale di per se può portare enormi benefici alle persone, il suo sviluppo però non deve essere lasciato allo sbando ma regolamentato attraverso il confronto tra grandi imprese e governi. Il regolatore non è però al passo. Il primo problema si riscontra già nel definire cosa si intende per intelligenza artificiale e tracciare un limite tra scienza e fantascienza. Analogamente emergono difficoltà nell’imputare le responsabilità per i danni causati da AI in quanto gli attori coinvolti sono molti e differenti, partendo dal produttore fino all’utilizzatore del sistema. Regolare richiede dunque tempo e, come già evidenziato, non si sta facendo molto in termini di ricerca. Come sottolineato da Elon Musk, pioniere delle nuove tecnologie, la miglior comprensione dell’intelligenza artificiale permetterebbe ai governi di creare delle regole e delle leggi volte a tutelare l’avvento dell’IA e garantire maggior benefici e minor rischi agli utilizzatori. Un passo importante nell’ambito della regolamentazione è stato fatto con l’introduzione del GDPR, che in sostanza serve ad offrire ai cittadini dell’Unione Europea maggior controllo dei dati personali presenti su internet, ma la strada da fare nell’ambito della regolamentazione è ancora molta.