1

Agenti AI? Sì. Ma senza agentività, per carità

Agenti AI? Sì. Ma senza agentività, per carità

È più forte di noi: a volte gli equivoci ce li costruiamo con cura, pezzo dopo pezzo, come se in fondo ci piacesse inciampare su concetti mal definiti. Così accade che, nel tentativo di rendere più accessibile ciò che invece richiederebbe rigore, si cominci a chiamare “agenti AI” quegli strumenti di intelligenza artificiale che eseguono operazioni per conto nostro: leggono, sintetizzano, raccomandano, programmano.

Una semplificazione terminologica apparentemente innocua, ma che apre la porta a uno degli slittamenti semantici più insidiosi del dibattito contemporaneo: quello che confonde l’agente tecnico con l’agentività filosofica. Non è un caso se poi, con disarmante regolarità, emergono affermazioni per cui un “agente artificiale” possiederebbe “agentività”. Come se bastasse chiamare qualcosa con un certo nome per conferirle anche le qualità sottintese. È un trucco linguistico insidioso: evocare un concetto per osmosi semantica, confidando che nessuno abbia il tempo (o la voglia) di chiedersi se ci sia sostanza dietro al suono delle parole.

E così si giunge a ciò che si potrebbe definire un equivoco sistemico. Ma a ben vedere, forse non si tratta di un effetto collaterale di un sistema complesso: è il risultato di una costruzione intenzionale, operata da chi ha tutto l’interesse a mantenere la confusione tra agente e agentività. Da chi magari crede davvero a quel che dice, oppure da chi (e sono i casi più gravi) sa perfettamente di mentire. E mente perché gli conviene.

Perché su quell’equivoco si possono costruire interi modelli di business, strategie comunicative, piani industriali. E quando la menzogna diventa utile, allora smette di essere un errore: diventa una scelta.

“Agenti AI”: l’ambiguità semantica servita su un piatto d’argento

Torniamo per un attimo alle basi. In informatica un agente è, semplificando brutalmente, un sistema che percepisce l’ambiente, lo elabora e agisce. Punto. Come un termostato, ma con una specializzazione in Machine Learning. Nessuna volontà, nessun desiderio, nessuna coscienza. Solo automatismi sofisticati, che reagiscono a input e producono output.

Eppure, eccoci qui, a sentire esperti che parlano di “agentività autonoma degli agenti artificiali”, come se avessimo a che fare con piccole creature esistenziali, impegnate in un’epica personale tra input e output, tra sogni binari e aspirazioni algoritmiche. Un po’ come se credessimo che un frigorifero scelga di non raffreddare per protestare contro il capitalismo energetico. L’ambiguità, come spesso accade in tecnologia, è il vero agente della confusione: perché se uso un termine che “suona” bene, posso far passare per plausibile qualsiasi sciocchezza.

È il potere delle etichette: basta una parola elegante su un concetto fragile per trasformarlo, quasi per magia, in verità condivisa. E quindi ecco che un’implementazione tecnico-operativa viene confusa in una vera e propria soggettività emergente. E qui è importante essere chiari: gli agenti artificiali sono un passo importantissimo nello sviluppo dell’AI. Proprio per questo, però, è fondamentale inquadrarli bene. Capirne le funzioni, i limiti, le implicazioni. Perché più li carichiamo di significati impropri, più perdiamo di vista il loro vero potenziale — e i rischi reali che comportano.

Agentività, questa sconosciuta

Cos’è, allora, questa agentività? È la capacità di agire in modo intenzionale, consapevole, finalizzato. È ciò che consente non solo di scegliere tra dire la verità o mentire, tra reagire d’impulso o riflettere, ma anche di farlo sulla base di una volontà, uno scopo, una deliberazione interna. È proprio ciò che segna il confine tra agire e reagire: la capacità di dare senso alle proprie azioni, non solo di compierle.

Insomma: è la qualità dell’agire umano in quanto tale. Non si misura in bit, non si modella in un diagramma Ulm, non si compila in Python. Attribuire agentività a un sistema software è, nel migliore dei casi, un errore concettuale. Nel peggiore, un falso ideologico: perché se una macchina ha agentività, allora è responsabile. Se è responsabile, allora le nostre scelte, anzi, le scelte che gli facciamo fare, sono sue. E noi? Assolti. Deresponsabilizzati. Liberi di puntare il dito contro l’algoritmo, come facevano i bambini con il fratellino immaginario, o peggio vittime dell’algoritmo cattivo che si ribella. Come in un remake distopico di Frankenstein, ma in chiave Silicon Valley, si costruisce così il mito dell’intelligenza artificiale che un giorno, stufa di eseguire comandi, deciderà di alzarsi dalla scrivania digitale per rovesciare il suo creatore.

È un’immagine affascinante, certo, ma completamente fuorviante: perché nessuna macchina desidera, nessun codice cova vendetta, e nessun algoritmo sogna pecore elettriche. Semplicemente, fa ciò per cui è stato progettato. E se fa qualcosa che non ci aspettiamo, la colpa è la nostra.

Ignoranza o mala fede? Questo è il dilemma

Se uno studente al primo anno inciampa su “agente” e “agentività”, si può sempre correggere con tono paziente. Ma se a farlo è un c-Level a scelta di una grande azienda tecnologica, o il consulente strapagato che scrive i white paper per Bruxelles, allora due sono le possibilità: o non sa cosa dice (ma come fa a ricoprire il suo ruolo?), oppure lo sa benissimo. E lo dice lo stesso. Perché far credere che un agente abbia agentività non è solo una svista semantica. È un atto politico. E come ogni atto politico che si rispetti, ha le sue derive.

La prima è quella della deresponsabilizzazione: si costruisce un racconto nel quale la tecnologia si auto-giustifica, si auto norma, si auto-legittima. Una narrazione comoda per chi la progetta, per chi la vende, per chi ne trae potere e profitto. È il trucchetto del mago: distrarre con una mano, mentre l’altra ruba il portafoglio. Solo che qui il portafoglio è la nostra capacità di decidere, di comprendere, di scegliere.

La seconda deriva è ancora più subdola: è quella del mito dell’intelligenza artificiale cattiva, imprevedibile, potenzialmente pericolosa. Una narrazione apocalittica che giustifica la necessità di un controllo, di una governance forte, di un’autorità regolatrice. E chi avvisa del pericolo? Sempre gli stessi che intendono governarla. Un cortocircuito perfetto: si crea l’allarme per proporsi come soluzione. Con buona pace della trasparenza, della pluralità e della competenza.

Il potere delle parole

La confusione tra agente e agentività è il classico esempio di come una parola possa ingannare più di mille immagini. Perché basta scegliere il termine giusto – o meglio, quello sbagliato ma suggestivo – per alterare la percezione della realtà. Se chiamassi “consulente strategico” un foglio Excel, qualcuno coglierebbe l’ironia; ma se dico “agente intelligente”, allora sembra che abbia installato James Bond su un server, pronto a sventare complotti informatici tra una query e l’altra. La metafora, da vezzo linguistico, diventa travestimento semantico: un modo per attribuire soggettività a ciò che soggetto non è.

Questi sistemi non pensano, non decidono, non scelgono. Reagiscono, operano, ottimizzano. Ma non agiscono in senso umano. Non hanno interessi, valori, scopi. Sono macchine. E, finché resta così (e resta così) è bene ricordarlo con ostinazione. Anzi, ripeterlo come un mantra. Perché sembreranno sempre più umani, useranno parole sempre più efficaci, avranno voci sempre più persuasive. Ma l’agentività resta – e continuerà a restare per un po’ – un tratto esclusivamente umano. Non siamo ancora nella fase in cui questi sistemi possano svilupparla.

E, a voler essere realistici, è più corretto dire che siamo ancora nel campo della fantascienza che in quello della previsione. Dunque: nessuna illusione, nessuna scorciatoia. La differenza fondamentale è tutta lì, e lì dobbiamo continuare a guardare.

La posta in gioco? La responsabilità

Il vero rischio non è solo semantico o terminologico. È politico, culturale, etico. Perché se continuiamo a parlare di agenti artificiali come se fossero agenti morali, finiamo per smarrire la distinzione fondamentale tra strumenti e soggetti. E quando gli strumenti diventano soggetti, i soggetti veri — cioè noi — spariscono dietro al paravento della tecnica.

Non è un caso che chi promuove queste confusioni spesso sia anche il primo a proporre “codici etici per l’AI”. Così, dopo lo Stato Etico, ci ritroviamo con l’Algoritmo Morale. Con buona pace di Kant e della sua idea di autonomia. Ma se vogliamo davvero un uso responsabile dell’intelligenza artificialedobbiamo prima smontare le narrazioni irresponsabili. E tra queste, quella che confonde l’agente con l’agentività è forse la più pericolosa, perché finge di parlare di tecnica mentre parla di potere.

La soluzione? Tornare alla grammatica. Al significato delle parole. Alla filosofia, quella vera, non quella da brochure. Perché solo se sappiamo distinguere un oggetto da un soggetto, un’automazione da un’intenzione, un algoritmo da un’azione potremo davvero decidere cosa farne, e con quali limiti.