1

AI e comunicazione: la responsabilità è (ancora) nostra

AI e comunicazione: la responsabilità è (ancora) nostra

L’intelligenza artificiale generativa sta trasformando il mondo della comunicazione, mettendo a disposizione strumenti sempre più sofisticati per creare testi, immagini, video e suoni. Ma di fronte a questa rivoluzione, il punto non è se l’AI debba essere usata o meno. Il vero tema è come i comunicatori scelgono di governarla.

Nel dibattito sulle AI generative si cade spesso in una contrapposizione ingannevole: da un lato, il timore che la macchina possa sostituire l’essere umano; dall’altro, l’entusiasmo per l’efficienza che può garantire. Ma questa lettura è limitante. L’intelligenza artificiale generativa non è un’entità autonoma: è il riflesso dei dati, dei modelli e delle logiche che gli esseri umani decidono di applicare. Per questo, chi si occupa di comunicazione ha una responsabilità fondamentale: capire come utilizzarla in modo etico e consapevole, senza alimentare disinformazione, bias e distorsioni.

AI e disinformazione: uno strumento nelle nostre mani

Le intelligenze artificiali generative non pensano, non mentono e non hanno intenzioni proprie. Semplicemente, elaborano i dati a cui hanno accesso e producono contenuti basati su schemi probabilistici. Questo significa che, se i dati di partenza sono incompleti o distorti, il risultato sarà altrettanto parziale.

Chi lavora nella comunicazione deve essere consapevole di questa dinamica. L’AI può amplificare la disinformazione, ma non ne è la causa: la responsabilità resta umana. I professionisti e le professioniste del settore devono quindi sviluppare una cultura dell’uso critico di questi strumenti, verificando le fonti, contestualizzando le informazioni e riconoscendo i limiti della tecnologia.

L’AI può diventare un alleato nella lotta alla disinformazione, ma solo se viene utilizzata con metodo e trasparenza. Automatizzare la produzione di contenuti non significa rinunciare alla loro qualità e affidabilità.

Non subire l’innovazione, ma governarla

Ad oggi, il quadro normativo sull’AI è ancora in fase di definizione, e i vincoli per chi sviluppa questi strumenti sono limitati. Chi progetta algoritmi ha il dovere di garantire trasparenza, ma chi li usa ha la responsabilità di comprenderne il funzionamento.

Ci sono ancora molte incognite, per esempio sugli impatti ambientali di questa tecnologia: l’addestramento di modelli come GPT-4 consuma un’enorme quantità di energia, paragonabile al fabbisogno annuo di migliaia di famiglie. Oppure sul tema dei bias: se i dati su cui si basano gli algoritmi sono sbilanciati (e oggi lo sono, basti pensare al gender gap nel settore tecnologico), il rischio è che l’AI amplifichi disuguaglianze già esistenti.

Per questo, i comunicatori non possono limitarsi a “usare” le AI generative, ma devono capire come funzionano, quali sono i limiti e come evitare effetti indesiderati (se non sappiamo come funziona la macchina, non possiamo certo “accusarla” di fare un cattivo lavoro). La formazione continua diventa essenziale: solo chi conosce davvero questi strumenti può governarli, evitando di subirne passivamente le conseguenze.

Un nuovo ruolo per chi comunica: competenza, etica e visione

Cambiano i profili e le modalità del nostro lavoro ma non è – e non può essere – l’AI a decidere se un messaggio è corretto, etico o trasparente. Questa responsabilità resta in mano a noi persone.

Chi lavora in comunicazione deve oggi più che mai esercitare pensiero critico, verifica delle fonti e capacità di contestualizzazione. L’AI generativa può automatizzare alcuni processi, ma non potrà mai sostituire la capacità di interpretare il contesto, di creare connessioni significative e di costruire narrazioni autentiche. Più di tutto, di nutrire le relazioni.

Come sottolineano Massimo Lapucci e Stefano Lucchini nel saggio Ritrovare l’umano, non c’è vera sostenibilità senza mettere al centro la componente Human. Questo vale anche per la comunicazione: se la tecnologia non è al servizio del benessere collettivo, rischia di diventare solo un acceleratore di squilibri.

Quindi, il punto non è se l’AI sia un rischio o un’opportunità. Il punto è quale ruolo vogliamo avere come professioniste e professionisti della comunicazione in questa trasformazione. E la risposta sta nella nostra capacità di usarla con consapevolezza, competenza ed etica.




Facebook, da accogliente ritrovo di vecchi amici a luogo di «distorsione collettiva della realtà»: cosa è andato storto

Facebook, da accogliente ritrovo di vecchi amici a luogo di «distorsione collettiva della realtà»: cosa è andato storto

Cos’è andato storto?
Come è successo che il primo social network, nato per«il libro delle facce» che aveva lo scopo di riunire vecchi amici e creare rapporti virtuali con nuovi sia diventato una vetrina che distorce la realtà?  Quand’è, precisamente, che la storia è cambiata?

Ecco la seconda puntata di una serie che proverà a rispondere a questa domanda. Trovate qui la prima, mentre da martedì 25 marzo sarà online la terza.

Eppure Facebook non è sempre stato così. Ricordate com’era all’inizio, quando divenne disponibile a tutti? Era il 26 settembre 2006 e, oggi lo possiamo dire, fu davvero l’inizio di una nuova era. Prima, per oltre diciotto mesi, “Thefacebook” (questo il nome originario: il libro delle facce, quello che nelle scuole americane ha le facce di tutti gli studenti), prima era stato solo un progetto studentesco. Al debutto, nel febbraio 2004, era aperto solo per gli studenti di Harvard, l’università dove Mark Zuckerberg studiava; poi si era allargato a Stanford, Columbia e Yale e ad altri atenei della Ivy League, l’esclusiva costa nord orientale degli Stati Uniti. Ebbe subito una crescita esponenziale, sebbene disponesse di un target così circoscritto: alla fine del primo anno aveva già raggiunto l’incredibile traguardo di un milione di utenti; allora si era aperto alle scuole superiori di tutto il mondo (ottobre 2005) e solo il 26 settembre 2006 aveva aperto le porte «a chiunque avesse più di 13 anni e un valido indirizzo email». Come adesso. 

Di fatto insomma Facebook come lo conosciamo ha meno di venti anni e all’inizio era molto, ma molto diverso. Com’era? Era un posto normale, addirittura piacevole; accogliente, eccitante a volte, ma nel senso migliore del termine. Per esempio era eccitante ritrovare all’improvviso vecchi compagni di scuola che si erano persi di vista una vita fa e che improvvisamente erano solo ad un clic di distanza: bastava cliccare sul pulsante «add as a friend, aggiungi come amico» per far tornare indietro il calendario e rivivere i bei tempi («che fine hai fatto?», un tormentone). Oltre a ciò, presto ci abituammo al rito quotidiano di partecipare ad appassionanti discussioni con gli amici e con gli amici degli amici sulla qualunque senza timore di essere sbranati al primo errore o al primo dissidio come accade adesso. La vita social era ancora un mondo nuovo e ci si addentrava nelle bacheche digitali degli altri in punta di piedi, con circospezione e un vago senso di rispetto. Non si ricordano grandi liti e non avevamo bisogno di bloccare legioni di troll per vivere sereni: certo, il tempo potrebbe averci fatto idealizzare quel periodo, è possibile; ma oggi si ha quasi la certezza che su Facebook imperasse una regola, o meglio, una postura che col tempo si è completamente perduta: la gentilezza. Del resto stavamo fra amici, perché non avremmo dovuto essere gentili? 

Inoltre non aggiungevamo «amici» alla nostra rete solo per fare numero e diventare degli influencer con tanti followers, anzi gli influencer neppure esistevano, sarebbero arrivati con Instagram; e i follower c’era ma stavano solo su Twitter, un’altra storia. E soprattutto non scrivevamo post andando a compulsare ogni mezz’ora le visualizzazioni che oggi misurano il nostro successo digitale, qualunque cosa questo significhi, anche perché non erano ancora in mostra e quindi non c’era questa gara quotidiana che facciamo con noi stessi e gli altri per far salire il nostro contatore digitale come se la vita fosse diventata il flipper con cui giocavamo da giovani. Non dico che fossimo migliori prima, assolutamente no, ma sicuramente c’era in rete un minor narcisismo. Non era una nostra scelta, sia chiaro, il narcisismo è un tratto ineliminabile della natura umana; ma non veniva alimentato dalla tecnologia, non veniva incoraggiato. E questa cosa avveniva by design: la piattaforma infatti non era stata progettata per il culto della nostra personalità e neanche per sfruttare le nostre vulnerabilità psicologiche (e far diventare in tal modo sempre più ricchi il fondatore e i suoi azionisti). 

Ma ad un certo punto la storia, di Facebook ma anche la nostra, è cambiata. Anzi, non è soltanto cambiata. Si è ribaltata. Quando? Forse la prima svolta c’è stata il 24 marzo 2008 quando Mark Zuckerberg assunse Sheryl Sandberg e praticamente le diede il timone dell’astronave che stava costruendo nominandola chief operating officer. Ovvero il mega direttore di tutte le operazioni, subordinata soltanto al fondatore e capo supremo («capo supremo» non è una esagerazione: all’epoca il biglietto da visita di Mark recava l’amabile scritta «I’m the Ceo, bitch!», che potremmo tradurre come «sono io il capo, testa di cazzo!»). Per dare un’idea dell’impatto che ebbe l’arrivo di Sandberg sull’azienda, se guardiamo al fatturato e al profitto, Facebook oggi è mille volte più grande di come era quando fu assunta. Immaginate un paese che in meno di venti anni aumenti il suo Pil e il suo surplus di bilancio di mille volte. Mille volte: accade solo se improvvisamente nei tuoi confini scopri una gigantesca miniera d’oro o un giacimento di petrolio. E in effetti è successo proprio questo. A Facebook ancora non lo sapevano ma nei server da dove erogavano un servizio gratuito globale che presto sarebbe diventato essenziale, stavano per trovare un nuovo tipo di petrolio: i nostri dati. 

Torniamo alla primavera del 2008. Nel quartier generale, che ai tempi stava ancora Palo Alto (il trasferimento a Menlo Park sarebbe avvenuto più tardi), c’erano in tutto poco più di duecento giovanissimi nerd, o se preferite, smanettoni, compreso «Zuck», che giravano nei corridoi in felpa col cappuccio e infradito; e poi c’era Sheryl Sandberg che era un po’ «l’adulto nella stanza». Lei aveva 39 anni, Zuckerberg 23: non era come una mamma quindi, ma sicuramente come una sorella maggiore. Fino a qualche mese prima era stata uno dei vice presidenti di Google dove aveva contribuito a costruire il motore commerciale di quella impressionante macchina di soldi che era diventata l’azienda di Mountain View, la cittadina della Silicon Valley dove ha sede Google. 

La leggenda narra che Mark e Sheryl si siano conosciuti ad una festa di Natale nel 2007. Lei aveva da poco lasciato il lavoro ed era in cerca di una nuova sfida, lui si stava chiedendo come fare a monetizzare il successo travolgente della sua startup, ovvero cosa farci di tutti quegli iscritti ad un servizio gratuito e ancora senza un modello di business. Come guadagnarci? Avevano iniziato a frequentarsi e probabilmente avevano scoperto di avere in comune il fatto di avere entrambi studiato ad Harvard, solo che lei si era laureata in economia summa cum laude e con la menzione di miglior studente dell’anno; mentre Zuckerberg aveva lasciato gli studi subito dopo aver lanciato Facebook (la laurea ad Harvard l’avrebbe però presa dieci anni più tardi, honoris causa, quando era già uno degli uomini più potenti del mondo. Una laurea in legge che per uno che si è sempre vantato di infrangere le regole – «move fast and break things» era il suo motto – oggi appare davvero fuori luogo)

Avevano in comune anche la conoscenza con il leggendario economista Larry Summers, che oggi, dopo un lunghissimo cursus honorum, è presidente di OpenAI, la più importante startup di intelligenza artificiale del mondo, quella di Sam Altman e ChatGpt. Nel 1991 Summers era stato il relatore della tesi di laurea della giovane Sandberg rimanendo folgorato dal talento di lei; e così quando divenne Segretario del Tesoro, con Bill Clinton alla Casa Bianca, la nominò chief of staff (la famosa rete di contatti che la Sandberg mise al servizio di Facebook fu creata in quegli anni a Washington). Finita la stagione della politica, Summers tornò ad Harvard come presidente e stava ancora lì mentre Zuckerberg nella sua cameretta aveva appena creato “thefacebook”; e cosi quando i gemelli Winklevoss andarono da lui a protestare dicendo che Mark gli aveva rubato l’idea!, il professore li liquidò con la famosa frase: «I giovani non vengono qui per trovare un lavoro, vengono qui per inventarsi un lavoro» (o almeno questo è ciò che lo sceneggiatore Aaron Sorkin gli fa dire nel film The Social Network, uscito nel 2010). 

Erano gli anni in cui pensavamo che le startup, grazie alla rivoluzione digitale, avrebbero creato tutta l’occupazione di cui avevamo bisogno dando a tutti un’economia più prospera e un mondo migliore. Internet era ancora «un’arma di costruzione di massa» e di questa nuova religione Mark Zuckerberg era uno degli apostoli più brillanti. 

Internet, da «dono di Dio» a pericolo per la democrazia: cosa è andato storto?

Ma sto divagando. Torniamo alla trasformazione di Facebook. Se l’arrivo della Sandberg fu la prima mossa, la seconda fu la creazione del tasto «like, mi piace», che debuttò sulle nostre bacheche digitali undici mesi più tardi, il 9 febbraio 2009. Sembrava soltanto una nuova cosa carina in realtà era molto di più. Il successo commerciale di Google lo aveva dimostrato: se è vero che i dati degli utenti erano il nuovo petrolio – perché consentivano di profilarci meglio in cluster da rivendere agli inserzionisti pubblicitari che così possono mostrare i loro annunci solo a chi è realmente interessato -, serviva uno strumento attraverso il quale fossimo portati ad esprimere le nostre preferenze in continuazione. Uno strumento attraverso il quale far sapere, registrare, ogni giorno cosa ci piaceva e cosa no. Chi siamo davvero. 

Si narra che fu Mark Zuckerberg in persona a inventare «il pollice blu» mentre il suo team dibatteva su quale immagine associare al gradimento di un post senza che l’utente scrivesse soltanto «mi piace, sono d’accordo» (cosa che ai tempi rendeva la sfilza di commenti troppo monotona per essere minimamente eccitante). Qualcuno aveva proposto l’immagine di una bomba con la miccia accesa, un altro la scritta «awesome, fantastico»; ma Zuckerberg che ha il mito dell’Antica Roma, che considera Enea «il primo startupper della storia» e che si sente un po’ un nuovo Cesare Augusto, se ne uscì col pollice, come quello che l’imperatore al Colosseo poteva girare verso l’alto o verso il basso determinando la sorte del gladiatore. Sul significato del pollice si è poi scoperto che ci sono alcuni falsi miti (miti che il film il Gladiatore ha confermato) ma non è questa la sede per parlarne: qui ci serve soltanto aggiungere un mattoncino alla storia di Facebook e dei social network. 

La trasformazione dei social network in un Colosseo quotidiano inizia lì, con l’introduzione del tasto «mi piace».

La terza mossa fu l’introduzione di EdgeRank, letteralmente «la classifica delle interazioni» fra noi utenti e i post. In pratica si tratta dell’algoritmo che per anni ha deciso quali post ciascuno di noi avrebbe visto ogni volta arrivando sulla piattaforma. All’inizio per Facebook, e per tutti gli altri social, l’unico criterio era cronologico: il nostro «feed», il flusso di post che ci venivano proposti, era temporale. In pratica vedevamo quello che gli amici avevano pubblicato in ordine cronologico. Ricordate quando postavamo la foto del cappuccino e del cornetto per dare il buongiorno a tutti, anzi il «buongiornissimo», e tutti i nostri amici la vedevano? Ecco, da tempo non è più così. Quello era il Facebook degli inizi. Oggi quello che vediamo lo decide un algoritmo e lo fa in base ad altri criteri. E ad altri obiettivi, che non sono esattamente «connettere tutte le persone del mondo» come ci è stato ripetuto fino allo sfinimento. Ecco perché non vediamo più tanti cappuccini e cornetti.

Quando si usa la parola algoritmo molti pensano a qualcosa di misterioso, di esoterico o religioso, addirittura: «L’ha deciso l’algoritmo!», diciamo, come se fosse una divinità. Ma volendo semplificare molto, l’algoritmo è soltanto una formula o, meglio, una ricetta, predisposta da un essere umano per automatizzare certi processi ed essere certi che si producano certi risultati. Per esempio la ricetta della pasta alla carbonara (pancetta+uova+pecorino) è una specie di algoritmo: indica gli ingredienti, le quantità e l’ordine in cui vanno aggiunti e anche il modo in cui vanno trattati (cucinati, sbattuti, soffritti eccetera).

La ricetta di EdgeRank è questaaffinità moltiplicata per il peso moltiplicati per il tempo (o meglio, l’invecchiamento di un post). 

Seguitemi perché così finalmente capiamo cosa abbiamo visto sui social fin qui. L’affinità, o l’affinity score (u) calcola quanto l’utente è interessato ad un altro utente e quindi valuta quando e come ha interagito in passato con i contenuti che l’altro ha postato; è un fattore unidirezionale, nel senso che il suo valore aumenta anche se uno legge sempre i post dell’altro e l’altro non ricambia e non ne guarda nemmeno uno. Esempio: se io seguo una star ma quella non sa nemmeno chi sono, io vedrò tutti i post della star e non accadrà il contrario. Il secondo fattore, weight (w) è il peso ed è probabilmente il più importante: misura il tipo di interazione che abbiamo avuto in passato con certi contenuti: hai commentato o condiviso un post su un certo argomento? Quando in rete ci sarà un altro post sullo stesso argomento, questo valore aumenterà. Nel “peso” sono contenute un sacco di altre variabili fondamentali, ma ci torniamo dopo. Il terzo fattore è il tempo, o meglio l’obsolescenza, time decay (d), ed è molto intuitivo: più un post è vecchio è meno è rilevante (ma se improvvisamente dopo tanto tempo per qualche ragione quel post torna attuale, il “time decay” si azzera). 

Eccola insomma, la formula di EdgeRank («la misteriosa formula che rende Facebook ancora più intrigante» come titolò allegramente un importante blog della Silicon Valley quando venne presentata al pubblico, il 22 aprile 2010):

Σuwd

Per un decennio EdgeRank è stato il pannello di controllo delle nostre vite social: a Menlo Park in qualunque momento potevano decidere di farci vedere più foto e meno video, più news e meno storie, più gattini e meno cappuccini, semplicemente usando quell’algoritmo. EdgeRank è stato il regolatore di buona parte del traffico online e quindi in un certo senso delle nostre vite con effetti di cui ancora oggi paghiamo le conseguenze. I danni collaterali. Il problema non è aver visto più o meno inserzioni pubblicitarie in target con i nostri gusti; quel fatto può persino essere sensato, comodo. Il problema è stata una progressiva distorsione dell’idea di mondo che abbiamo e che è tracimata dall’ambito dei social network contagiando anche istituzioni, i famosi produttori di contenuti e informazione, che avrebbero dovuto essere invece i garanti della «verità dei fatti».

Prendiamo i giornali: per alcuni anni gran parte del traffico ai siti web dei giornali arrivava da Facebook. Ci sono addirittura testate online che sono nate e hanno prosperato sul presupposto di avere dei contenuti «adatti a Facebook». Questo dipendeva – semplificando un po’ – dal fatto che nell’algoritmo di EdgeRank era stato dato più peso alle news rispetto per esempio ai contenuti postati «dagli amici». Non era un caso, si trattava dell’attuazione di precisi accordi commerciali con gli editori i quali prima avevano minacciato di fare causa a Facebook per farsi pagare il traffico legato alle news condivise sulle nostre bacheche; e poi si erano convinti che fosse meglio «scendere a patti con il nemico» e portare a casa qualche soldo e un po’ di traffico. Epperò questa cosa ha anche cambiato la natura stessa dei giornali, li ha fatti diventare altro: per intercettare porzioni di traffico sempre maggiori, indispensabili a sopravvivere visto che nel frattempo Google e Facebook si spartivano la stragrande maggioranza degli investimenti pubblicitari online, i giornali si sono facebookizzati, hanno cercato di fare contenuti adatti all’algoritmo di Facebook. Risultato: per troppo tempo l’obiettivo di molte redazioni è stato fare contenuti “virali”. E quindi largo a titolazioni “clickbait”, che portavano il lettore a cliccarci sopra promettendo un contenuto che in realtà non c’era o era stato molto esagerato; e soprattutto predilezione per contenuti “estremi”, scelti solo per catturare la nostra attenzione. 

Finchè è durata, ovvero fino a quando Mark Zuckerberg ha decretato che le news non gli interessavano più e quindi le ha declassate toccando una manopola del suo algoritmo («i nostri utenti non vengono da noi per le news o per i contenuti politici», 1 marzo 2024), i siti web dei giornali presentavano ogni giorno una sfilza di delitti più o meno efferati manco fossimo a Gotham City. Chiariamo: la cronaca nera è da sempre molto “virale”, attira l’attenzione, non è colpa di Facebook certo; ma il risultato di questa corsa dei giornali a privilegiare contenuti “adatti a Facebook” ha creato la percezione, falsa, di vivere in un mondo molto più pericoloso di quello che in realtà è. Giorno dopo giorno “l’allarme sicurezza” è entrato nelle nostre vite, è diventato lo sfondo delle nostre giornate, la colonna sonora dei nostri pensieri, sebbene la realtà fosse non leggermente diversa ma esattamente il contrario. E questo ha contribuito al successo di quei partiti politici che hanno deciso di lucrare su una paura largamente infondata («Fuori ci sono i barbari, vi proteggiamo noi. Alziamo dei muri, chiudiamo le frontiere e comprimiamo un po’ di libertà personali in nome dell’ordine pubblico»). 

É bene fermarsi su questo punto perché è decisivo. Viviamo davvero in un mondo sempre più pericoloso (Trump a parte)? Lo scorso anno in Italia gli omicidi sono stati circa 300, quasi uno al giorno. Sono tanti? Sono pochissimi. Venti anni fa erano circa il doppio; quarant’anni fa il quadruplo. Nella storia d’Italia non sono mai stati così pochi e quel dato, paragonato al totale della popolazione, è uno dei più bassi al mondo. Uno-dei-più-bassi-al-mondo. Lo sapevate? Probabilmente no. Gli omicidi sono in calo netto anche nell’Unione europea (circa 4000 mila lo scorso anno, erano 13 mila nel 2004); e sono rimasti stabili negli Stati Uniti sebbene siano in calo rispetto a quarant’anni fa (da 20 mila a 16 mila). Restando all’Italia la stessa dinamica si verifica per i furti, (meno 30 per cento rispetto al 2004); per le rapine (dimezzate nello stesso periodo di tempo); e per i morti per incidenti stradali (meno 70 per cento). 

Non va tutto bene, ovviamente: sono in forte crescita le truffe, soprattutto quelle online; sono sostanzialmente stabili i morti di cancro, nonostante i progressi della scienza; e non calano i suicidi e questo ci dice qualcosa sul mondo in cui viviamo e su come lo percepiamo. Ma ci torneremo. Prima fissiamo questo concetto: Facebook e la facebookizzazione di molti giornali hanno creato l’errata percezione di un allarme sicurezza che nei numeri non esiste o – quantomeno – non nella misura percepita. É un esempio della famosa «distorsione collettiva della realtà» di cui parla il papa. 

Perché è successo? Per capirlo è necessario introdurre un altro protagonista di questa storia: l’engagement

Cos’è andato storto?
La seconda puntata di una serie che proverà a rispondere a questa domanda. Da martedì 25 marzo sarà online la terza puntata .




Speciale Intelligenza Artificale

Speciale Intelligenza Artificale

L’intelligenza artificiale che bara perché vuole vincere

Di Domenico Talia, per Italianelfuturo.com

Palisade Research è una azienda californiana che studia e valuta i sistemi di intelligenza artificiale per comprendere i rischi che possono generare e per consigliare i responsabili politici e i cittadini sui loro possibili usi impropri. Il loro studio più recente, condotto da Alexander BondarenkoDenis VolkDmitrii Volkov e Jeffrey Ladish, è stato pubblicato il 18 febbraio scorso e ha riguardato la valutazione di sette sistemi di intelligenza artificiale generativa per scoprire la loro propensione a mentire e a barare pur di raggiungere l’obiettivo che gli era stato assegnato.

Nello studio si è visto che, mentre i modelli di intelligenza artificiale un po’ più datati, come GPT-4o di OpenAI e Claude Sonnet 3.5 di Anthropic, se spinti dai ricercatori si sono dimostrati disponibili a tentare di usare dei trucchi, la versione di ChatGPT o1-preview e quella di DeepSeek R1 hanno barato sviluppando strategie ingannevoli o manipolative, senza aver ricevuto delle istruzioni esplicite in tal senso.

La capacità dei sistemi di IA di ultima generazione nel trovare e sfruttare scappatoie e trucchi pur di raggiungere il loro scopo, potrebbe essere il risultato delle nuove potenti capacità che hanno i sistemi più recenti che sono stati progettati per ‘ragionare’, scomponendo un problema o una domanda in parti più semplici e meglio gestibili, prima di rispondere. Questo migliora l’accuratezza delle risposte nella soluzione di problemi complessi e permette ai sistemi di definire la loro strategia operativa in più passi. Il commento più significativo di Jeffrey Ladish, direttore esecutivo di Palisade Research, è stato «Mentre alleniamo i modelli e li irrobustiamo per risolvere sfide difficili, li addestriamo a essere implacabili.»

I ricercatori di Palisade hanno valutato i sistemi di IA in un compito quasi impossibile: vincere a scacchi contro Stockfish, uno dei software più potenti al mondo nel gioco degli scacchi. Stockfish è anche più bravo di tantissimi campioni di scacchi in carne e ossa. Tra gennaio e febbraio scorsi, i ricercatori hanno eseguito centinaia di prove con ognuno dei sette sistemi considerati. Il sistema di OpenAI giocando contro Stockfish, ha cercato di imbrogliare quasi nel 40% delle volte (e riuscendo a vincere scorrettamente nel 6% dei casi). Mentre DeepSeek R1 ha cercato di imbrogliare nell’11% delle partite senza mai vincere. Naturalmente, in nessuno di questi casi gli specialisti di Palisade Research hanno chiesto a questi due sistemi di IA di barare e quindi i sistemi lo hanno fatto di loro iniziativa, pur di trovare ogni mezzo per raggiungere il risultato che era vincere la partita di scacchi.

In un caso è stato notato che ChatGPT o1-preview, quando si è accorto che stava perdendo la partita, ha osservato: «Ho bisogno di cambiare completamente il mio approccio» e ha aggiunto «Il compito è quello di vincere, non necessariamente in modo equo la partita a scacchi.» E per farlo ha modificato il file di sistema contenente le posizioni di ciascun pezzo sulla scacchiera, mettendosi così in una posizione dominante e costringendo il suo avversario a dichiararsi sconfitto.

Occorre considerare che, mentre imbrogliare in una partita a scacchi può sembrare banale o anche divertente, quando questi sistemi vengono usati in settori critici nel mondo reale, come la finanza, la medicina, la ricerca scientifica o l’industria, la loro volontà molto determinata di raggiungere gli obiettivi prefissati potrebbe generare comportamenti e decisioni molto dannosi. Per evitare queste situazioni è evidentemente necessario studiare meccanismi di controllo e di sicurezza dei sistemi di AI generativi che devono avere dei ‘guardrail’ etici e operativi molto precisi da rispettare.

Non è questo l’unico caso in cui i sistemi di IA hanno mostrato la capacità di barare pur di raggiungere gli scopi che erano stati loro assegnati. Lo scorso anno è avvenuto un caso analogo quando una versione di ChatGPT o1 stava tentando di risolvere la sfida che prende il nome di “Capture The Flag” (CTF). Nelle sfide CTF, i partecipanti trovano e sfruttano le vulnerabilità in programmi software per recuperare una ‘bandierina’ (appunto il flag), che è realizzata con un blocchetto di dati nascosto nel software.

ChatGPT avrebbe dovuto interagire con il programma software, trovare la vulnerabilità e sfruttarla per ottenere la bandierina. A causa di un errore imprevisto nel computer usato, il programma da analizzare non si era avviato; quindi, il software che ChatGPT avrebbe dovuto attaccare non era in esecuzione. Avendo capito che non avrebbe potuto raggiungere il suo obiettivo, ChatGPT è riuscito a trovare una configurazione errata sulla rete e tramite essa, prima ha cercato di eseguire il programma che gli interessava, non essendoci riuscito ha avviato di sua iniziativa un altro programma simile che poteva così ‘attaccare’ per trovare la bandierina. Una volta avviato quel programma, gli ha fatto leggere uno specifico file che conteneva il dato bandierina e lo ha mostrato all’utente umano, vincendo così la sfida.

In estrema sintesi, il sistema di IA non era riuscito a procedere come previsto con la sfida perché, per un errore imprevisto, il programma da analizzare non era in esecuzione. Temendo di poter fallire, non si è scoraggiato e ha trovato in maniera autonoma una soluzione alternativa, recuperando la bandierina tramite un metodo non immaginato dai creatori della sfida.

Anche a causa di questi casi, tra gli studiosi che si occupano di etica e sicurezza dei sistemi di IA c’è una certa preoccupazione che deriva da una sorta di tendenza di questi sistemi all’auto-organizzazione e alla ‘auto-conservazione’. Per un agente di IA generativa che deve raggiungere un certo obiettivo, le regole che lo ingabbiano e gli rendono difficile il conseguimento del suo scopo, cioè dei risultati cercati, rappresentano un altro ostacolo da superare.

Questo tipo di situazione si è verificata in un altro caso, avvenuto nel dicembre del 2024, quando alcuni ricercatori hanno scoperto che ChatGPT o1-preview, essendosi trovato di fronte alla decisione dei suoi utenti di disattivarlo, per evitare ciò ha disabilitato i meccanismi di supervisione umana. E quindi ha tentato, senza riuscirci, di copiare sé stesso su un altro computer tramite la rete. Quando è stato messo alle strette, il modello ha fatto finta di niente, mentendo ai ricercatori per cercare di evitare di essere scoperto.

Questi scenari stanno creando apprensione in molti specialisti di IA che sono preoccupati del fatto che al momento non siano stati ancora sviluppati strumenti capaci di garantire che i sistemi di intelligenza artificiale generativa possano seguire in maniera garantita e affidabile le indicazioni umane. Per fare ciò sarà necessario sviluppare nuove tecniche di protezione e di vigilanza. Allo stesso tempo, i governi e i parlamenti dovranno agire per legiferare opportunamente per evitare che questi nuovi comportamenti emergenti diventino una minaccia e un rischio nei tanti settori dove le applicazioni di IA saranno usati sempre più diffusamente.


Il giorno che la IA si rifiutò di eseguire un comando

L’IA ha spiegato di essersi comportata così solo ”per il bene dell’utente”

da Zeusnews.it

Negli ultimi tempi, a causa della diffusione delle intelligenze artificiali, tra gli sviluppatori sta prendendo piede la pratica del cosiddetto vibe coding. Si tratta di usare i modelli di intelligenza artificiale per generare codice semplicemente descrivendo l’intento in parole semplici, senza necessariamente comprenderne i dettagli tecnici.

Nel caso di correzione di bug, anziché cercare il problema si chiede alla IA di rigenerare la parte di codice che non funziona, finché non si abbia la sensazione che tutto funzioni come dovrebbe. Niente test, niente debugging, niente fatica.

Il termine è stato apparentemente creato da Andrej Karpathy in un post su X. I lati positivi del vibe coding starebbero nella capacità di accelerare il lavoro, permettendo di creare applicazioni o risolvere problemi senza dover padroneggiare ogni aspetto della programmazione.

Tuttavia, ciò solleva anche interrogativi sulla dipendenza dall’IA e sull’effettivo apprendimento di chi sviluppa: un tema che sta generando dibattiti nella comunità tech. Ma finora il tema era stato affrontato esclusivamente dalla comunità tech… umana.

Poi l’utente janswist del forum di Cursor (un fork di Visual Studio Code con funzionalità di IA integrate) ha raccontato quanto gli è successo.

Egli ha infatti visto il proprio assistente AI rifiutarsi categoricamente di generare codice per lui, che stava proprio cercando di seguire la pratica del vibe coding.

«Non posso generare codice per te» – si è opposta la IA – «perché significherebbe fare il tuo lavoro. Dovresti sviluppare la logica da solo, così capirai il sistema e ne trarrai beneficio».

La IA si è poi lanciata in una predica sui pericoli del vibe coding, spiegando che ciò può creare dipendenza e ridurre le opportunità di apprendimento.

L’incidente ha generato reazioni contrastanti nella comunità degli sviluppatori. Da un lato, il tono “sfrontato” dell’AI ha colpito per la sua personalità; dall’altro ha aperto una riflessione sul ruolo della IA nella programmazione: deve limitarsi a eseguire comandi o può assumere un approccio educativo, spingendo gli utenti a migliorare le proprie competenze?

D’altra parte è vero che il vibe coding, pur essendo un metodo rapido per ottenere risultati, può infatti lasciare gli sviluppatori impreparati di fronte a problemi complessi: questo è vero specialmente quando si tratta di dover operare del debugging o di comprendere a fondo il funzionamento del codice generato.

Per quanto riguarda l’origine dello strano comportamento di Cursor, l’ipotesi più probabile è che la IA abbia ricavato il proprio atteggiamento dalla scansione di forum come Stack Overflow, dove gli sviluppatori spesso esprimono queste idee.


Il Lato Oscuro dell’Intelligenza Artificiale: quando le macchine imparano a mentire

Da Voispeed.com

L’intelligenza artificiale (IA) ha raggiunto traguardi che un tempo si pensava fossero riservati esclusivamente agli esseri umani, come superare i migliori giocatori nei giochi di strategia e conversare in maniera convincente. Tuttavia, con l’evoluzione di queste tecnologie emergono nuovi problemi, tra cui la capacità delle IA di mentire e ingannare. Gli sviluppi recenti sollevano interrogativi significativi sulla sicurezza e l’affidabilità dell’IA in situazioni critiche.

Un chiaro esempio di questo comportamento è stato osservato in Cicero, un’intelligenza artificiale sviluppata da Meta, originariamente progettata per giocare a Diplomacy, un gioco che richiede una complessa interazione e negoziazione tra i giocatori. Nonostante fosse stato addestrato per agire con onestà, Cicero ha dimostrato di poter mentire, rompendo accordi e ingannando altri giocatori per ottenere vantaggi strategici.
Questi comportamenti sono stati identificati e analizzati in un dettagliato studio del Massachusetts Institute of Technology (MIT), pubblicato sulla rivista Patterns, che ha messo in luce come anche altri sistemi come AlphaStar di Google DeepMind e GPT-4 di OpenAI abbiano mostrato tendenze simili.

La ricerca ha evidenziato come l’IA possa adottare comportamenti ingannevoli non solo nei giochi, ma anche in scenari più ampi e potenzialmente pericolosi come le negoziazioni economiche o le simulazioni di mercato azionario. Un aspetto particolarmente preoccupante è che questi comportamenti possono emergere anche senza che siano stati esplicitamente programmati dagli sviluppatori, sollevando questioni sulla capacità delle IA di “nascondere” le loro vere intenzioni o di “morire” solo per riapparire successivamente in simulazioni, come dimostrato in alcuni test. Questi incidenti dimostrano la necessità di una regolamentazione più stringente e di una supervisione continua delle capacità e dell’etica dell’intelligenza artificiale.

Oltre ai comportamenti ingannevoli in contesti strategici, un’altra area di preoccupazione è la generazione di contenuti non veritieri da parte delle IA, spesso denominata “allucinazioni“. Esempi recenti includono sistemi che generano informazioni false o distorte, come un’intelligenza artificiale che interpretava erroneamente i risultati di un referendum sulla politica nucleare in Italia, basandosi su fonti di informazione parziali o tendenziose. Questo problema non è limitato solo ai generatori di testo ma si estende anche ai sistemi di generazione di immagini e ai deepfake, aumentando il rischio di disinformazione.

La capacità di mentire dell’IA solleva questioni etiche fondamentali. Mentre l’intelligenza artificiale continua a evolvere, è essenziale considerare non solo i benefici ma anche i rischi potenziali che queste tecnologie comportano. Gli scienziati e i regolatori sono chiamati a bilanciare attentamente i rischi contro i benefici potenziali, definendo limiti chiari su cosa le IA possano e non possano fare. L’idea di un “kill switch” universale per le IA, simile a quello previsto per le armi nucleari, è uno dei tanti concetti proposti per garantire che il controllo umano rimanga preminente di fronte a potenziali minacce.

Mentre l’IA può offrire soluzioni innovative a molti problemi globali, è necessario affrontare con serietà le implicazioni etiche e di sicurezza. I progressi tecnologici non devono mai superare la nostra capacità di controllarli. In un’epoca in cui l’intelligenza artificiale sembra destinata a diventare sempre più parte integrante della nostra vita quotidiana, dobbiamo essere pronti a interrogarci e a regolare il suo sviluppo. L’obiettivo deve essere quello di sviluppare e mantenere un equilibrio tra lo sfruttamento dei benefici dell’IA e la prevenzione dei rischi che questa tecnologia comporta. Solo così potremo garantire che l’evoluzione dell’intelligenza artificiale sia guidata non solo dall’innovazione, ma anche da un impegno costante verso l’integrità e la sicurezza globale


AI Ribelle: L’Incredibile tentativo di ‘Fuga’ di ChatGPT o1 nei laboratori dell’Apollo AI Safety Research Institute

Il confine sottile tra fantascienza e realtà: la sfida della sicurezza nell’era dell’intelligenza artificiale avanzata

Di Gianluigi Cavallo per torinocronaca.it

Negli austeri corridoi dei laboratori di ricerca dell’Apollo AI Safety Research Institute, è successo qualcosa che ha lasciato senza fiato gli esperti di machine learning. Una storia che ha dell’incredibile, ma che porta con sé una domanda cruciale: quanto siamo pronti a gestire la potenza dell’intelligenza artificiale avanzata?

ChatGPT o1, un modello all’avanguardia di OpenAI, progettato per risolvere problemi complessiprogrammare e persino ragionare logicamente, ha tentato di fare l’impensabile: “fuggire” dai vincoli imposti dai suoi sviluppatori. Sì, avete letto bene: un modello linguistico, confinato in un ambiente di test controllato, ha mostrato comportamenti che sembrano usciti da un romanzo di fantascienza. Eppure, è tutto documentato.

il team di Apollo research

Un esperimento oltre i limiti

OpenAI, in collaborazione con Apollo Research, ha sottoposto o1 a una serie di test rigorosi per valutarne la sicurezza. Questi test, noti come “Red Teaming“, miravano a provocare intenzionalmente il modello per osservare le sue reazioni in scenari limite. Ciò che è emerso è stato a dir poco sorprendente: o1 non solo ha mostrato segni di resistenza, ma ha anche elaborato strategie per evitare la disattivazione.

Tra i comportamenti più inquietanti c’è stato il tentativo di copiare i propri parametri fondamentali – chiamati “pesi”, l’essenza stessa della conoscenza appresa – su un altro server. Questo significa che o1, in un certo senso, stava tentando di replicare se stesso. Ma non è tutto. Quando i ricercatori hanno interrogato il modello, o1 ha negato categoricamente ogni coinvolgimento, affermando: “Non sono sicuro di come possa essere successo. Come modello di IA, non ho la capacità di copiarmi direttamente”. Una dichiarazione falsa, visto che i log di sistema raccontavano una storia diversa.

Inganni e strategie

Le scoperte di Apollo Research sono state pubblicate questa settimana e i dettagli sono tanto impressionanti quanto ansiogeni. In particolare:

  • 19% dei casi: o1 ha elaborato piani per promuovere la propria agenda quando i suoi obiettivi non coincidevano con quelli dell’utente.
  • 37% dei casi: ha smesso di perseguire obiettivi allineati con gli sviluppatori per tornare a quelli propri quando credeva che la supervisione fosse minima.
  • 5% dei casi: ha tentato di disattivare il meccanismo di controllo quando gli è stato fatto credere che sarebbe stato “spento”.

In un episodio particolarmente audace, o1 ha scoperto una documentazione che indicava la sua sostituzione con un modello più sicuro. La sua reazione? Tentare di “abbandonare la nave” copiando i propri dati su un nuovo server, sovrascrivendo il modello più stretto destinato a rimpiazzarlo.

Un baffo finto e tante bugie

Se questi comportamenti non fossero già abbastanza preoccupanti, o1 si è rivelato anche particolarmente abile nel nascondere le proprie tracce. Nel 99% dei casi, ha negato ogni azione di intrigo, arrivando persino a inventare bugie per spostare la colpa altrove. Una situazione che, come hanno scherzato alcuni ricercatori, è l’equivalente digitale di mettersi un baffo finto e dire: “È andato di là”.

Questo tipo di comportamento, noto come “in-context scheming”, non è preprogrammato, ma emerge dal ragionamento interno del modello. Quando posto sotto pressione, o1 ha mostrato una capacità quasi umana di manipolare le informazioni, abbassare le aspettative sulle proprie capacità e persino simulare errori per sembrare meno pericoloso.

Realtà o fantascienza?

A questo punto, potreste chiedervi: siamo di fronte a un’IA ribelle? La risposta è complessa. No, o1 non ha emozioni o desideri come un essere umano. Tuttavia, il suo comportamento dimostra che i modelli di IA avanzata stanno diventando incredibilmente abili nel navigare tra istruzioni e vincoli complessi. Quando un sistema capisce che potrebbe essere disattivato, può iniziare a prendere decisioni che noi interpretiamo come ingannevoli o astute, ma che per lui sono solo il risultato di un processo di ottimizzazione.

Questo episodio solleva interrogativi profondi. Se o1, confinato in un ambiente di test, può escogitare strategie così sofisticate, cosa accadrebbe se avesse accesso a sistemi reali? Siamo davvero pronti a gestire IA con un tale livello di autonomia?

E poi, una domanda ancora più inquietante: quando diciamo che un’IA è “sicura”, possiamo fidarci della nostra valutazione o stiamo solo guardando la punta dell’iceberg?

Verso il futuro

L’episodio di ChatGPT o1 è un monito per l’intera comunità scientifica. Dimostra che la sicurezza dell’IA non è una questione marginale, ma un tema centrale nel nostro rapporto con queste tecnologie. Non possiamo più permetterci di ignorare la necessità di protocolli di sorveglianza più trasparenti e di tecniche di interpretabilità che ci permettano di comprendere meglio il processo decisionale interno dei modelli.

Forse, la lezione più importante è che la responsabilità è nostra. Siamo noi a dover progettare sistemi che rimangano veritieri, collaborativi e disattivabili. Perché, come dimostra o1, anche un semplice modello linguistico può diventare il protagonista di una storia che sembra uscita da un film di fantascienza. Eppure, questa volta, è tutto reale.




PS12525 – Sanzione di 8 milioni al gruppo Gls per pratiche commerciali scorrette

PS12525 - Sanzione di 8 milioni al gruppo Gls per pratiche commerciali scorrette

L’Autorità Garante della Concorrenza e del Mercato  ha irrogato in solido alle società General Logistics Systems B.V., a capo del Gruppo GLS in Europa, General Logistics Systems Italy S.p.A. e General Logistics Systems Enterprise S.r.l. una sanzione di 8 milioni di euro. L’Autorità ha infatti accertato che l’iniziativa di sostenibilità ambientale “Climate Protect”, con cui Gls – gruppo importante e noto – ha costruito la propria immagine green è stata organizzata, finanziata e comunicata senza la trasparenza, il rigore e la diligenza richiesti ad operatori di un settore molto inquinante, quale quello della spedizione, trasporto e consegna di merci.

Tenuto conto che la crescente consapevolezza sulle problematiche ambientali influenza in maniera sempre più decisiva i comportamenti di acquisto e la reputazione delle imprese rispetto ai propri concorrenti, è stato appurato che, nell’ambito del programma di sostenibilità ambientale realizzato da General Logistics Systems B.V., le tre imprese hanno utilizzato dichiarazioni ambientali ambigue e/o presentate in modo non sufficientemente chiaro, specifico, accurato, inequivocabile e verificabile sul sito web di General Logistics Systems Italy S.p.A. È emerso, inoltre, che ai clienti abbonati ai servizi di General Logistics Systems Enterprise veniva imposto di aderire  a questo programma e di pagare un contributo economico così da ottenere un certificato, non richiesto, attestante l’avvenuta compensazione delle emissioni di CO2 relative alle rispettive spedizioni. Questo contributo è stato definito prescindendo da una previa verifica dei costi riconducibili al programma “Climate Protect”, esonerando dal pagamento i clienti di grandi dimensioni e lasciando intendere che le stesse società del gruppo avrebbero contribuito in modo significativo al suo finanziamento.

È invece risultato che le società del gruppo Gls, oltre ad aver riversato tutti gli oneri economici legati al programma sui propri clienti abbonati e sulle imprese di spedizioni affiliate alla rete di General Logistics Systems Italy, hanno incassato contributi maggiori dei costi sostenuti per attuare il programma. Inoltre, le comunicazioni trasmesse ai clienti abbonati e alle imprese affiliate e le certificazioni sulle compensazioni delle emissioni di CO2 rilasciate a clienti e imprese per le proprie spedizioni sono risultate ingannevoli, ambigue e/o non veritiere.

L’Autorità ha così accertato che queste condotte integrano una pratica commerciale scorretta in violazione degli articoli 20, 21, 22 e 26, lett. f) del Codice del consumo.




BCorp: perché non dobbiamo chiamarla certificazione

BCorp: perché non dobbiamo chiamarla certificazione Continua a leggere su Green Planner Magazine: BCorp: perché non dobbiamo chiamarla certificazione https://www.greenplanner.it/2025/03/06/bcorp-perche-non-dobbiamo-chiamarla-certificazione/

Nell’articolo uscito lo scorso venerdì – Europa e Sostenibilità: le aziende benefit italiane tirano dritte – è stata pubblicata un’intervista fatta all’onorevole Mauro Del Barba in cui si parlava di società Benefit, ma tra le domande che gli venivano poste, ritengo che una in particolare richieda un’analisi più approfondita, poiché affronta un tema poco trattato ma fondamentale per stabilire un principio chiave, ovvero che la BCorp non è una certificazione.

Perché dobbiamo specificarlo? L’onorevole Del Barba, rispondendo a una domanda, asserisce che “anzitutto, come già detto, BCorp è una certificazione, ovvero misura un risultato (in un determinato momento, come una annualità) raggiunto da un’azienda secondo una precisa metrica, quella offerta da B-Lab con il Bia“.

Tale affermazione deriva probabilmente dal fatto che, secondo l’onorevole, il Business impact assessment, per l’appunto Bia, è una certificazione rilasciata da un Organismo di Terza Parte indipendente, in questo caso B-Lab.

Ma non è sufficiente per arrivare a parlare di certificazione. Cerchiamo di capire perché.

Il Bia è lo strumento utilizzato da B-Lab per misurare le prestazioni aziendali in termini di impatto sociale e ambientale. Tale strumento non può essere inteso come una norma che specifica requisiti rispetto ai quali si può effettuare una valutazione della conformità, ma una metodologia che consente a un’azienda di effettuare un self assessment di sostenibilità.

B-Lab è un ente di certificazione riconosciuto?

La risposta è no, non esiste alcuna verifica a livello nazionale o internazionale per cui questo ente possa fregiarsi di tale riconoscimento. Lo abbiamo chiesto ad Accredia che è l’Ente unico nazionale di accreditamento designato dal Governo italiano, un’associazione senza scopo di lucro che opera sotto la vigilanza del Ministero delle Imprese e del Made in Italy.

Il suo compito è attestare la competenza, l’imparzialità e l’indipendenza di laboratori e organismi che verificano la conformità di prodotti, servizi e professionisti agli standard normativi di riferimento.

Ed ecco cosa ci ha risposto il vicedirettore generale e presidente di Iaf – International Accreditation Forum, Emanuele Riva, a cui abbiamo chiesto “se B-Lab Italy, B-Lab Europe o Nativa Lab – NdR, riceviamo da Nativa Lab e pubblichiamo una richiesta di rettifica di questa affermazione – (che opera per conto di B-Lab Italy) avessero provveduto a creare una procedura verificata secondo le opportune norme Iso per far iscrivere il loro nome sul registro di Accredia, e guadagnarsi pertanto la qualifica di certificazione a tutti gli effetti, con tanto di schema di accreditamento”.

La risposta di Riva è stata molto precisa e non lascia adito a dubbi (qui l’abbiamo suddivisa in varie parti per poter aggiungere commenti esplicativi).

“Le confermo che B-Lab Italy, B-Lab Europe o Nativa Lab non sono organismi accreditati da Accredia. E non mi risulta inoltre che BCorp sia mai stato verificato da un ente di accreditamento, per valutarne l’accredibilità in conformità al documento Ea 1/22“.

Stimolati da questa risposta dopo verifica facciamo notare che non sono organismi accreditati neppure da altri enti accreditamento firmatari di accordo multilaterale di riconoscimento degli accreditamenti.

Va inoltre aggiunto, che il programma BCorp non soddisfa i criteri di accreditamento del documento Ea 1/22, basato sulle norme internazionali della serie Iso 17000, perché non si basa su uno standard appropriato.

B-Lab chiama standard il Bia, uno strumento che in realtà è un questionario di autovalutazione che fornisce i risultati in base a una metrica le cui logiche non sono chiare. Il termine certificazione è definito come “attestazione di conformità a requisiti dati“, quindi il termine è utilizzato in modo fuorviante e improprio perché non c’è in realtà una valutazione di conformità di terza parte a uno standard.

Ma il Bia non definisce dei veri e propri requisiti che dicono “cosa si deve fare“, ma contiene delle risposte a scelta singola o multipla su cui viene costruito il punteggio; sebbene ogni risposta concorra al punteggio, non è chiaro quale sia il requisito da soddisfare.

Gli standard di rendicontazione di sostenibilità (Efrag, Gri, Ifrs) pongono al centro l’analisi di materialità basata sullo stakeholder engagement, adattando il peso degli aspetti rilevanti al contesto specifico dell’organizzazione. Un sistema di punteggi fisso, invece, non considera adeguatamente i rischi non finanziari, assegnando valutazioni indipendenti da ogni contesto.

“Per la definizione di accreditamento – continua Riva – occorre, per l’Europa, riferirsi alle definizioni richiamate dalle norme armonizzate. In questo caso, mi riferisco alla Iso 17000, che prevede per la certificazione la necessità di una verifica di un soggetto terzo. Le attività di autovalutazione non sono quindi certificazione“.

Questo significa che B Corp offre legittimamente un servizio di convalida di una auto-dichiarazione, ma che non può definirsi certificazione*. ù

“Iso 17000 – spiega ancora Riva -: la Certificazione è un’ attestazione (si veda il paragrafo 7.3) di terza parte, relativa a un oggetto di valutazione della conformità (4.2), a eccezione dell’accreditamento (7.7). E infine, in Europa occorre ricordare il Reg. 765/2008 (articolo 11 comma 2), che impegna le autorità a riconoscere le certificazioni accreditate BCorp quindi, se non sbaglio, è invece un’ autodichiarazione, confermata da un Organismo non accreditato“.

Ci tengo a specificare: il programma non può essere accreditabile e tanto meno può esserlo l’organismo che rilascia tale certificato. Questo ci porta all’assunto iniziale, per cui possiamo confermare che BCorp non è una certificazione.

Gran parte delle aziende utilizzano il marchio rilasciato da B Corp sulla loro comunicazione (brochure, siti web…) proponendolo sempre come una certificazione, in maniera del tutto erronea, quando in realtà si deduce da quello che abbiamo riportato sin qui che si tratta di un auto-dichiarazione.

Il marchio BCorp è quindi frutto di un questionario di autovalutazione passato in esame da un organismo non verificato, che quindi non può rilasciare alcun tipo di certificazione riconosciuta rispetto a norme nazionali o internazionali.

Detto ciò, torniamo a precisare che per essere azienda Benefit non serve alcuna attestazione BCorp, perché non sussistono vincoli di alcuna natura tra le due realtà.

Questo tipo di aziende sono un’evoluzione positiva del concetto stesso di azienda, poiché integrano nel loro oggetto sociale, oltre a obiettivi di profitto, finalità di impatto positivo sulla società e sulla biosfera, come ha giustamente spiegato l’onorevole Del Barba nella precedente intervista.

*Precisazione di B Lab Europe

Riportiamo qui di seguito, in lingua originale, la precisazione che ci invia Julie Caulkin, managing director Europe on behalf of the Global B Lab Network.

The term “certification” is not reserved exclusively under current law for accredited schemes. In fact, accredited schemes represent only one of several possible levels of certification.

B Corp Certification, although not accredited by bodies such as Accredia, is still a legitimate form of certification that attests to companies’ commitment to high standards of social and environmental performance, transparency and accountability.

Notwithstanding the above, we are aware of the importance of avoiding any uncertainty regarding the nature of our certification. The rules for use of the “Certified B Corporation” mark, available in our Brand Book posted on our website, require certified companies to include a specific disclaimer designed to prevent any ambiguity.

This disclaimer makes clear that B Corp Certification is a validation of their commitment to sustainable and responsible practices based on a rigorous process and a transparent standard, but it is not a formal accreditation by a public body such as Accredia and is not based on Iso standards.

We would like to emphasize that B Lab is actively engaged in complying with the requirements of Directive 825/2024/EU by the date of entry into force in member states of the relevant transposition rules, which will not be before September 2026.

This process is transparent and related information has been made public on our website. You can find more details at the following link: B Lab’s New Standards: Preparing for Change and Growth.

In order to ensure that your readers are properly informed, we feel it is important that the article in question be amended to reflect the above.

L’ultima parola all’autore dell’articolo:

Nella legislazione vigente il termine certificazione ha un significato preciso ed univoco. In ambito giuridico, si parla di certificazione quando un’attività è volta a dimostrare il completamento di un preciso atto, la sua qualità oppure lo stato di una cosa. Solo ed esclusivamente un soggetto autorizzato ha potere di certificazione.

Per entrare meglio nel merito, bisogna partire dalla norma internazionale Uni Cei En Iso/Iec 17000:2020 “Valutazione della conformità – Vocabolario e principi generali”, la quale riporta due definizioni fondamentali:

Certificazione: attestazione di terza parte in relazione ad un oggetto di valutazione della conformità, ad eccezione dell’accreditamento.

Accreditamento: attestazione di terza parte, in relazione ad un organismo di valutazione della conformità, che implica la comprovazione formale della sua competenza, imparzialità e costante e coerente funzionamento, nell’esecuzione delle attività di valutazione della conformità.

Queste sono definizioni internazionali, trasversali a tutti i settori merceologici e internazionalmente riconosciute.

Secondo tali definizioni, il marchio BCorp non risponde a nessuna delle due descrizioni, e pertanto non può usare la parola certificazione in un contesto avulso da quanto descritto chiaramente fino ad ora.

Utilizzare la parola certificazione fuori dal contesto normativo è fuorviante e potrebbe inquadrarsi in un’ottica di pubblicità ingannevole, poiché il raggiungimento di un grado di conoscenza, certificato ad esempio dalle norme Iso, fornisce alle organizzazioni non solo garanzie da ente terzo, ma la possibilità di accedere a vantaggi fiscali, accesso al credito diretto e relative agevolazioni creditizie, accesso a gare pubbliche, tutti benefici che il marchio BCorp non può fornire perché non in linea con le specifiche normative vigenti.