Le leggi della robotica di Asimov hanno 75 anni: è tempo di un aggiornamento
Le celebri leggi della robotica formulate da Isaac Asimov compiono 75 anni. E gli esperti ritengono sia giunto il momento di aggiornarle. Ecco come
Settantacinque anni di leggi della robotica e sentirli tutti: le celebri regole enunciate da Isaac Asimov, il più famoso scrittore di fantascienzadi tutti i tempi, cominciano ad avvertire i primi segni del tempo che passa. E rischiano di diventare obsolete rispetto agli avanzamenti della stessa robotica e dell’intelligenza artificiale: è per questo che RoboHub, la più grande comunità scientifica internazionale del settore, ha aperto un dibattito sulla possibilità di aggiornare le leggi alla luce dei cambiamenti che Asimov non avrebbe potuto prevedere.
Ma facciamo un passo indietro, precisamente al 1942. Quando Asimov pubblica il racconto Circolo vizioso, ambientato sul pianetaMercurio. I protagonisti della storia, Greg Powell e Mike Donovan, appena sbarcati sul pianeta, hanno a disposizione un robot sofisticatissimo per recuperare del selenio – elemento estremamente abbondante su Mercurio – da usare per la riparazione di un guasto ai pannelli fotovoltaici della miniera nella quale si trovano.
C’è però un imprevisto: Speedy, questo il nome del robot, sembra essereimpazzito. Anziché estrarre il selenio, vi gira intorno canticchiando canzoni senza senso. Il motivo dello stallo, scopriranno Powell e Donovan, sta nel fatto che dal pozzo di selenio esala monossido di carbonio, dannoso per il robot: questi, pur essendo programmato per obbedire agli esseri umani, tenta anche di salvaguardare la propria esistenza, rispettando le tre regole impresse nel suo cervello positronico, che passeranno alla storia come leggi della robotica.
1. Un robot non può recare danno a un essere umano, né può permettere che, a causa del proprio mancato intervento, un essere umano riceva un danno.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
3. Un robot deve proteggere la propria esistenza, purché tale autodifesa non contrasti con la Prima o con la Seconda Legge.
Quello che succede, in sostanza, è che il robot, cui è stato impartito l’ordine di estrarre il selenio, si avvicina al pozzo in ottemperanza alla Seconda legge, ma poi vi si allontana in base alla Terza, girando all’infinito attorno alla pozza. Impasse di questo tipo, dovute a conflitti tra le leggi della robotica – o a problemi interpretativi delle stesse – sono estremamente comuni nei racconti di Asimov, e generalmente sono risolte grazie a intuizioni umane, che permettono di penetrare le maglie delle regole e uscire dal ginepraio.
Un metodo che oggi – e ancora di più domani – potrebbe però non essere più sufficiente a indirizzare i robot. “Il problema”, ci spiega Filippo Cavallo, esperto di robotica sociale alla Scuola superiore di studi universitari e perfezionamento Sant’Anna di Pisa, “è che negli ultimi 75 anni le tecnologie – soprattutto l’intelligenza artificiale e la potenza computazionale – erano completamente diverse rispetto a quelle di oggi. I robot, all’epoca, svolgevano soprattutto lavori meccanici e ripetitivi in ambienti estremamente controllati, come per esempio quelli industriali”. Sostanzialmente, al tempo della prima formulazione delle leggi della robotica, e negli anni successivi, i robot erano rigidamente programmati per operare in condizioni quasi deterministiche, in cui non c’era spazio per aleatorietà né improvvisazione.
“Oggi”, dice ancora Cavallo, “la situazione è completamente diversa. I robot lavorano in ambienti non strutturati e volatili e hanno a che fare con eventi casuali e non predicibili, il che può portare a situazioni inattese. Che sfuggono completamente al dominio delle Tre leggi di Asimov”. A complicare ulteriormente lo scenario, il fatto che i robot sono e saranno sempre più usati in scenari cooperativi, in cui dovranno lavorare fianco a fianco con altri robot, con la rete dell’internet delle cose e, naturalmente, con gli esseri umani. Facciamo un esempio concreto. “Supponiamo”, spiega Cavallo, “di avere un robot che assiste una persona anziana non autosufficiente. E supponiamo che questi si rifiuti, un giorno, di assumere le terapie. Cosa dovrebbe fare un robot? Secondo le Leggi di Asimov, non potrebbe non somministrare la terapia – altrimenti arrecherebbe danno a un essere umano – ma non potrebbe neanche disubbidire ai suoi ordini. E andrebbe dunque incontro a uno stallo ben più grave di quelli paventati da Asimov”.
Altri esempi riguardano tutte le situazioni in cui i processi decisionali sono significativamente influenzati dall’etica, come per esempio quelle delle automobili a guida autonoma – che possono essere considerati dei robot a tutti gli effetti – quando c’è da decidere tra preservare la sicurezza dei passeggeri o di eventuali passanti. Anche in questo caso, secondo gli esperti, un cervello programmato con le Tre Leggi non sarebbe in grado di prendere velocemente la decisione giusta (posto che ci sia una decisione giusta: ma qui sconfiniamo, per l’appunto, nel campo dell’etica). Cosa fare, dunque? Cavallo propone due approcci: “Anzitutto, è necessario formulare una sorta di leggi della robotica locali, che si adattino cioè al contesto in cui opera il robot e che siano rielaborate di conseguenza: in generale, tali leggi devono essere inserite in un nuovo framework etico-sociale-tecnologico-legale più ampio di quello in cui le aveva inglobate Asimov”. L’altro aspetto ha più a che fare con la tecnologia in senso stretto: “Auspicabilmente”, conclude Cavallo, “gran parte di queste contraddizioni potranno essere risolte dalla stessa tecnologia. Tornado all’esempio del robot che assiste un paziente anziano, potremmo immaginare che in futuro sarà così evoluto da avere capacità ‘sociali’, ossia da comportarsi come farebbe un essere umano, cercando di persuadere l’assistito seguendo regole sociali di base. È la cosiddetta persuasive technology”. Chissà se avrebbe funzionato anche con Speedy.