1

Alla scoperta del lavoro dell’intelligenza artificiale

Alla scoperta del lavoro dell’intelligenza artificiale

La Silicon valley vive di novità. Si nutre della ricerca di quella che una volta Michael Lewis ha chiamato “la nuova cosa nuova”. Internet, lo smartphone, i social network: la nuova cosa nuova non può essere un piccolo cambiamento secondario, deve trasformare il mondo. Gli incentivi economici sono chiari: un’invenzione di successo veramente innovativa che ribalta il paradigma può fruttare un sacco di soldi. Ma la posta in gioco è ancora più alta. Se la Silicon valley non sforna continuamente nuove cose nuove, rischia di perdere il suo status privilegiato di luogo in cui si costruisce il futuro.

Il 2022 non era cominciato bene per l’industria tecnologica. Dopo una pandemia particolarmente redditizia, il settore aveva registrato una delle peggiori contrazioni di sempre. Amazon aveva perso quasi la metà del suo valore. La Meta quasi i due terzi.

I motivi erano evidenti. All’inizio della pandemia di covid-19, la banca centrale degli Stati Uniti aveva azzerato i tassi d’interesse e le persone erano rimaste a casa, dove avevano passato molto più tempo e avevano speso molti più soldi online. Nel 2022 entrambe le tendenze si erano invertite. La maggior parte degli statunitensi aveva deciso di non preoccuparsi più del virus e di riprendere le proprie attività offline. Allo stesso tempo, la banca centrale aveva cominciato a rialzare i tassi d’interesse per contrastare l’aumento dell’inflazione.

Sarebbe un errore ingigantire la gravità della “flessione tecnologica” che ne era seguita. Nonostante i licenziamenti in massa e il calo dei ricavi, le grandi aziende erano comunque più grandi e più ricche rispetto a prima della pandemia. Però c’era un certo malessere. L’industria aveva bisogno di una nuova invenzione sfavillante capace di attirare miliardi di consumatori e di far venire l’acquolina in bocca ai mercati dei capitali. Una possibilità era il metaverso, il sogno di Mark Zuckerberg di un’internet in cui immergersi attraverso un visore per la realtà virtuale. Però non ha funzionato: non ha mostrato alcun vantaggio pratico e inoltre era terribile: un simulacro instabile di un centro commerciale post-apocalittico progettato da David Lynch, attraversato da schiere di avatar con lo sguardo spento e senza gambe che fluttuano in mondi semideserti a cartoni animati.

Poi, il 30 novembre 2022, la Open­Ai ha lanciato Chat­Gpt, un potente sistema d’intelligenza artificiale dotato di un’affabile interfaccia conversazionale a cui si poteva rivolgere qualsiasi domanda e ottenere una risposta sorprendentemente umanoide (anche se non sempre corretta). A gennaio del 2023 il chatbot aveva già accumulato cento milioni di utenti, la più grande crescita di sempre per un’applicazione di internet. È una classica storia da Silicon valley: la Open­Ai, che all’epoca aveva solo poche centinaia di dipendenti, ha colto tutti di sorpresa e praticamente da un giorno all’altro ha imposto la “ia generativa” – la categoria di soft­ware a cui Chat­Gpt appartiene – come il nuovo concetto cardine di tutta l’industria. Subito è partita la rincorsa furiosa dei colossi tecnologici. Su ogni tecnologia, dai motori di ricerca ai programmi di posta elettronica, hanno cominciato a spuntare funzioni di ia generativa. Nel 2023 il Nasdaq ha guadagnato il 55 per cento, il suo miglior andamento dal 1999. La nuova cosa nuova era stata trovata.

È troppo presto per sapere se l’ia generativa sarà una gallina dalle uova d’oro o un fuoco di paglia. Le opinioni sono discordanti. Alcune aziende hanno avuto risultati eccezionali: la Nvidia, stella emergente del settore, sta facendo soldi a palate perché i suoi processori formano l’infrastruttura fondamentale su cui poggia la novità. Anche le divisioni cloud di Microsoft, Google e Amazon hanno registrato una forte crescita, che i loro dirigenti attribuiscono all’aumento della domanda di servizi d’ia.

Ma questi, come direbbe la stampa finanziaria anglosassone, sono solo “ferri del mestiere”. Nessuno dubita che si possano fare soldi vendendo alle aziende gli strumenti necessari per usare l’ia generativa. La vera domanda è se l’ia aiuta a fare soldi o no. Secondo gli scettici, i costi per progettare e far funzionare i soft­ware di ia generativa sono un potenziale ostacolo. È un elemento che elimina il tradizionale vantaggio della tecnologia digitale, cioè il basso costo marginale. Lanciare una libreria online ha funzionato per Amazon perché era più economico che costruirne una di calce e mattoni, come ha osservato Jim Covello, ricercatore della Goldman Sachs, in un rapporto pubblicato a giugno del 2024. L’intelligenza artificiale, al contrario, non è economica, e questo significa che le “applicazioni di ia devono risolvere problemi estremamente complessi e importanti affinché le imprese abbiano un ritorno adeguato sull’investimento”. Covello, per quanto lo riguarda, è scettico.

Ma le imprese, come le persone, non sono interamente razionali. Quando un’azienda decide di adottare una nuova tecnologia, raramente lo fa esclusivamente sulla base di considerazioni economiche. “Queste decisioni sono spesso fondate sulle sensazioni, sulla fede, sull’ego, sul gusto e sugli accordi tra persone”, osserva lo storico David Noble. Studiando le fabbriche statunitensi dopo la seconda guerra mondiale, Noble ha individuato una serie di motivi che spiegano il loro passaggio alla tecnologia del controllo numerico: l’“infatuazione per l’automazione”, il culto del progresso tecnologico, il prestigio di essere associati all’avanguardia, “la paura di rimanere indietro rispetto alla concorrenza” eccetera.

Noble, però, si sofferma in particolare su una motivazione che è, almeno in parte, fondata sulla razionalità economica: la disciplina del lavoro. Meccanizzando il processo di produzione, i dirigenti di un’azienda possono esercitare un controllo più stretto sui lavoratori al suo interno. Il filosofo Matteo Pasquinelli esprime un punto di vista simile nel suo ultimo libro Nell’occhio dell’algoritmo (Carocci 2025). Nell’introduzione, Pasquinelli, professore dell’università Ca’ Foscari di Venezia, spiega che la sua non è una “storia lineare della tecnologia e dell’automazione”, quanto una “genealogia sociale”, che tratta l’ia non come un mero traguardo tecnologico ma come “una visione del mondo”. L’elemento centrale di questa visione è l’automazione – e il dominio – del lavoro. L’ia contemporanea, sostiene, va interpretata come l’ultimo di una lunga serie di tentativi di aumentare il potere del capo.

In La ricchezza delle nazioni, Adam Smith scriveva che la manifattura degli spilli poteva essere resa più efficiente grazie alla divisione del lavoro. Invece che far fare tutto a un unico operaio, era possibile suddividere il lavoro in compiti distinti e distribuirli per fabbricare spilli più velocemente. È il principio canonico della produzione capitalistica, un principio che l’automazione incarna e impone. All’inizio si rende il lavoro più meccanico, poi si delega alle macchine.

Angelo Monne

Un importante divulgatore di questo principio è stato Charles Babbage, una figura centrale nel libro di Pasquinelli. Originariamente un matematico, Babbage diventò una guida del pensiero nella borghesia britannica dell’ottocento. Oggi è più conosciuto come uno degli inventori del computer. Il suo lavoro sulla computazione cominciò dall’osservazione che la divisione del lavoro poteva essere “applicata con uguale successo tanto alle operazioni mentali che a quelle meccaniche”, come scrisse in un trattato nel 1832. Lo stesso metodo di gestione industriale che all’epoca stava plasmando l’operaio britannico, sosteneva Babbage, poteva essere trasportato fuori dalla fabbrica e applicato a un lavoro completamente diverso: il calcolo matematico.

Babbage prese ispirazione da Gaspard de Prony, un matematico francese che aveva inventato un sistema per ottimizzare la creazione delle tavole logaritmiche riducendo gran parte del lavoro a una serie di semplici addizioni e sottrazioni. Nel sistema di de Prony, un gruppo ristretto di esperti e dirigenti pianificava il lavoro ed eseguiva i calcoli più difficili, mentre un esercito di umili contabili svolgeva le operazioni aritmetiche più banali.

Se i poveri disgraziati alla base di questa piramide erano sostanzialmente degli automi, perché non automatizzarli? In fabbrica, la divisione del lavoro andava di pari passo con l’automazione. Anzi, secondo Babbage, era proprio la semplificazione del processo lavorativo a rendere possibile l’introduzione dei macchinari. “Quando ogni processo è stato ridotto all’uso di un semplice attrezzo”, scriveva, “l’unione di tutti questi attrezzi, attuata da una forza motrice, costituisce una macchina”.

Nel 1819 Babbage cominciò a progettare una “macchina differenziale”, che automatizzava il lavoro aritmetico grazie a tre cilindri rotanti ed era alimentata da un motore a vapore. La sua ambizione era gigantesca: Babbage voleva “fondare l’attività del calcolo su scala industriale”, scrive Pasquinelli, sfruttando la stessa fonte energetica che stava rivoluzionando l’industria britannica. La produzione in massa di tavole logaritmiche infallibili sarebbe stata anche un ottimo affare, perché queste avrebbero permesso alle formidabili flotte mercantili e militari del Regno Unito di determinare la loro posizione in mare. Il governo britannico, riconoscendo il valore economico e geopolitico dell’impresa di Babbage, si offrì di finanziarla.

L’investimento fallì. Babbage riuscì a costruire un piccolo prototipo, ma il progetto completo si rivelò troppo complicato da mettere in pratica. Nel 1842 il governo ritirò i fondi, e a quel punto Babbage cominciò a sognare una macchina ancora più irrealizzabile: la macchina analitica. Progettata con l’aiuto della matematica Ada Lovelace, questa straordinaria invenzione sarebbe diventata il primo computer multiuso, che poteva essere programmato per svolgere qualsiasi calcolo. È così che, in mezzo allo smog e alla fuliggine dell’Inghilterra vittoriana, nacque l’idea del soft­ware.

Lo scopo della divisione del lavoro non era solo l’efficienza: era anche il controllo. Frammentando la produzione artigianale (immaginate un calzolaio che fa un paio di scarpe) in una serie di routine modulari, la divisione del lavoro eliminava l’autonomia dell’artigiano. Ora i padroni riunivano gli operai sotto un unico tetto, e questo significava che potevano istruirli su cosa fare e osservarli mentre lo facevano.

Secondo Pasquinelli, le macchine di Babbage, anche se nate da un progetto per “meccanizzare il lavoro mentale degli impiegati”, rispondevano agli stessi imperativi gestionali. Erano, scrive, “un’implementazione dell’occhio analitico del padrone della fabbrica”, una sorta di rappresentazione meccanica del capo dispotico che vede tutto. Pasquinelli arriva addirittura a definirle parenti del famigerato panopticon di Jeremy Bentham.

Ma le macchine non funzionarono mai com’erano state progettate. Babbage provò a usare gli ingranaggi meccanici per rappresentare i numeri decimali senza riuscirci. Ci sarebbero volute le semplificazioni del sistema binario, l’invenzione dell’elettronica e le tante innovazioni foraggiate dai generosi budget militari della seconda guerra mondiale per rendere finalmente possibile negli anni quaranta la computazione automatica.

A quel punto il capitalismo era diventato un affare internazionale, e questo rese più complicato il problema di gestire i lavoratori. “Più la divisione del lavoro si estendeva a un mondo globalizzato”, scrive Pasquinelli, “più la sua gestione diventava complessa”, perché “l’‘intelligenza’ del padrone della fabbrica non era più in grado di sorvegliare a colpo d’occhio l’intero processo produttivo”. Di qui il bisogno di “infrastrutture di comunicazione” che “potevano assolvere a questo ruolo di supervisione”.

Angelo Monne

Il computer moderno, nei decenni successivi al suo arrivo, contribuì a soddisfare questo bisogno. I computer hanno esteso l’occhio del padrone nello spazio, sostiene Pasquinelli, permettendo ai capitalisti di coordinare la logistica sempre più farraginosa della produzione industriale. Se l’intento di Babbage era costruire una protesi attraverso cui proiettare il potere dei manager, come suggerisce Pasquinelli, allora il trionfo novecentesco del computer come strumento indispensabile della globalizzazione capitalista va visto come la realizzazione dello spirito fondante della tecnologia.

Questo spirito, per di più, sembra essersi intensificato man mano che i computer hanno continuato a evolversi. “Dalla fine del ventesimo secolo”, scrive Pasquinelli,

il management del lavoro ha trasformato tutta la società in una “fabbrica digitale” e ha assunto la forma del soft­ware dei motori di ricerca, delle mappe online, delle applicazioni di messaggistica, dei social network, delle piattaforme di gig economy, dei servizi di mobilità e, alla fine, degli algoritmi di ai.

L’intelligenza artificiale, conclude, sta accelerando questa trasformazione.

Non c’è dubbio che i computer siano spesso usati a vantaggio dell’azienda, a cominciare dai soft­ware di pianificazione, che riducono i costi del lavoro costringendo commessi e camerieri a orari imprevedibili, e fino ai diversi sistemi che permettono la sorveglianza e la supervisione da remoto di impiegati, autisti di Uber e camionisti. Ma sostenere che questi usi sono la ragion d’essere della tecnologia digitale, come sembra fare Pasquinelli, è un’esagerazione.

La disciplina del lavoro è solo uno degli usi a cui possono essere destinati i computer e non è stata neanche centrale nello sviluppo della tecnologia: le innovazioni fondamentali nella computazione sono nate da esigenze dei poteri militari, non di quelli economici. Decifrare i codici nemici, calcolare gli angoli esatti per l’artiglieria di precisione e svolgere i calcoli matematici necessari per realizzare la bomba all’idrogeno sono alcune delle motivazioni che hanno portato alla costruzione dei computer negli anni quaranta. Il governo degli Stati Uniti s’innamorò della tecnologia e nei decenni successivi spese milioni di dollari in ricerca e appalti. I computer si sarebbero rivelati fondamentali per una varietà di obiettivi imperialisti, dall’assemblaggio di missili intercontinentali capaci d’incenerire (con precisione) milioni di sovietici alla raccolta e all’analisi delle fonti intercettate dalle postazioni di ascolto sparse nel mondo. Le aziende statunitensi si sono solo accodate, adattando questi marchingegni a vari scopi commerciali.

Detto questo, anche se le tesi del libro non sempre sono convincenti, c’è molto da imparare dal suo materiale. Negli ultimi anni le case editrici hanno inondato i lettori di libri sull’intelligenza artificiale. La maggior parte ha un sapore un po’ improvvisato. Nell’occhio dell’algoritmo, semmai, ha il problema opposto: c’è un’enorme quantità di pensiero compressa nelle sue pagine. Spesso l’intelletto onnivoro di Pasquinelli lascia incantati. Nonostante questo, a volte vorrei che si fermasse un attimo per sostanziare le sue provocazioni con più dati concreti.

Il fatto che Babbage si sia ispirato ai metodi dei dirigenti dell’industria per progettare i suoi prototipi è un fatto interessante, ma la rilevanza di questo elemento può essere stabilita solo osservando da vicino come i computer hanno concretamente trasformato il lavoro nel ventesimo e nel ventunesimo secolo. Pasquinelli non lo fa. Anzi, a metà del libro fa una brusca sterzata, passando dal Regno Unito industriale dell’ottocento ai primi ricercatori sull’intelligenza artificiale negli Stati Uniti negli anni quaranta del novecento, concentrandosi in particolare sulla scuola “connessionista”.

Il connessionismo, come osserva Pasquinelli, si allontana in modo significativo dalla computazione automatica di Babbage. Per Babbage, l’anima del computer è l’algoritmo, una procedura per gradi che tradizionalmente è l’ingrediente principale di un programma informatico. Quando Alan Turing, John von Neumann e altri crearono il computer moderno, il loro era un dispositivo per eseguire algoritmi. Il programmatore scrive una serie di regole per trasformare un input in un output, e la macchina obbedisce.

Quest’idea ha guidato anche l’“ia simbolica”, la filosofia che ha dominato la prima generazione della ricerca sull’intelligenza artificiale. I suoi sostenitori credevano che istruendo un computer a seguire una serie di regole potevano trasformare una macchina in una mente. Questo metodo, però, aveva dei limiti. Formalizzare un’attività in una sequenza logica funziona se l’attività è relativamente semplice. Più la complessità cresce, meno le istruzioni codificate diventano utili. Posso darvi delle indicazioni esatte per arrivare in auto da casa mia a casa vostra, ma non posso usare la stessa tecnica per insegnarvi a guidare.

Un metodo alternativo è emerso dalla cibernetica, un movimento intellettuale postbellico dagli interessi molto eclettici. Tra questi c’era l’aspirazione a creare automi con la capacità adattiva delle cose animate. Più che a imitare le regole del ragionamento umano, per Pasquinelli i cibernetici “puntavano a imitare i princìpi di auto-organizzazione degli esseri viventi” e forme di vita dell’ambiente naturale. Questi sforzi hanno portato all’invenzione della rete neurale artificiale, un’architettura per l’elaborazione dei dati approssimativamente modellata sul cervello. Usando queste reti per riconoscere degli schemi all’interno dei dati, i computer possono addestrarsi a svolgere un compito. Una rete neurale impara a fare le cose non semplificando un processo in una procedura, ma osservando un processo più e più volte ed estrapolando relazioni statistiche da un gran numero di esempi.

Uno dei progenitori del connessionismo è stato Friedrich Hayek, oggetto di uno dei capitoli più interessanti del libro di Pasquinelli. Hayek è conosciuto soprattutto per essere uno dei principali teorici del neoliberismo, ma quando era giovane si interessò al funzionamento del cervello lavorando nel laboratorio del famoso neuropatologo Constantin von Monakow a Zurigo. Per Hayek la mente era come un mercato: due entità capaci di auto-organizzarsi e di creare un ordine spontaneo con l’interazione decentralizzata delle proprie componenti. Queste idee avrebbero contribuito a influenzare lo sviluppo delle reti neurali artificiali, che in effetti funzionano più o meno come la mente-mercato immaginata da Hayek. Nel 1957, quando uno psicologo di nome Frank Rosenblatt realizzò la prima rete neurale con l’aiuto di un finanziamento a fondo perduto della marina, riconobbe il suo debito nei confronti di Hayek.

Ma Hayek si allontanava dai cibernetici sotto molti aspetti importanti. La cibernetica, come l’aveva definita nel 1948 il filosofo Norbert Wiener, era lo studio scientifico del “controllo e della comunicazione nell’animale e nella macchina”. Il termine derivava dalla parola che in greco antico identifica il timoniere di una nave, e ha la stessa radice della parola che indica il governo. I cibernetici volevano creare sistemi tecnologici capaci di autogovernarsi, una prospettiva particolarmente attraente per il Pentagono, che cercava in ogni modo di ottenere vantaggi militari nella guerra fredda. La marina sovvenzionò Rosenblatt nella speranza che la sua rete neurale contribuisse all’“automazione della classificazione degli obiettivi”, spiega Pasquinelli, per individuare le navi nemiche.

Per Hayek, al contrario, il connessionismo era un modo per pensare a un sistema capace di eludere il controllo. E quello che aveva in mente era un preciso tipo di controllo: la pianificazione economica. Secondo Hayek, la complessità simile a quella del cervello e del mercato erano la dimostrazione che il socialismo non avrebbe mai potuto funzionare. Da qui il bisogno di politiche neoliberiste che, nelle parole dello storico Quinn Slobodian, avrebbero “creato un involucro attorno all’economia non conoscibile”, proteggendola dalle interferenze dello stato.

Ciò nonostante, alla fine Hayek e gli altri connessionisti giocavano tutti nella stessa squadra. Rosenblatt e i suoi colleghi erano riusciti a ottenere fondi per le loro ricerche perché il governo degli Stati Uniti era convinto che potessero contribuire a battere gli eserciti socialisti. L’obiettivo di Hayek era battere le idee socialiste.

All’inizio il connessionismo non riuscì a mantenere le promesse. Nei primi anni settanta era ormai caduto in disgrazia nel mondo dell’intelligenza artificiale. Le reti neurali, tuttavia, hanno continuato a svilupparsi in silenzio nei decenni successivi, facendo registrare progressi negli anni ottanta e novanta. Poi, negli anni 2010, hanno fatto un balzo in avanti.

Addestrare una rete neurale, come una volta ha osservato Rosenblatt, richiede “l’esposizione a un campione di stimoli ampio”. Le dimensioni contano: le reti neurali apprendono studiando i dati, quindi il grado dell’apprendimento dipende in parte dalla quantità di dati che hanno a disposizione. Storicamente, nell’evoluzione del computer i dati sono stati costosi da archiviare e difficili da trasmettere. Nel secondo decennio del ventunesimo secolo entrambe le barriere sono state abbattute. Il crollo dei costi di archiviazione, unito alla nascita e alla crescita del web, ha reso accessibile una montagna di parole, foto e video a chiunque avesse una connessione a internet. I ricercatori hanno usato queste informazioni per addestrare le reti neurali. L’abbondanza di dati, insieme a nuove tecniche e hardware più potenti, ha portato a rapidi progressi in campi come l’elaborazione del linguaggio naturale e la visione artificiale. Oggi l’ia basata sulle reti neurali è ovunque, da Siri alle auto a guida autonoma fino agli algoritmi che curano i feed sui social media.

Le reti neurali sono alla base anche dei sistemi di ia generativa come Chat­Gpt. Questi sistemi sono particolarmente estesi – cioè sono composti da molti strati di reti neurali – e la loro fame di dati è immensa. Se Chat­Gpt si esprime in modo così naturale e sembra sapere tante cose del mondo è perché il modello linguistico al suo interno è stato addestrato da terabyte di testi tratti da internet: milioni di siti web, articoli di Wikipedia e libri. È questo che intende Pasquinelli quando scrive che le reti neurali dell’ia contemporanea “sono un modello non tanto del cervello biologico quanto della mente collettiva”, uno sforzo sociale a cui hanno contribuito molte persone.

Non tutti sono felici di questo sviluppo. La voracità dell’ia generativa è responsabile di quello che il conduttore di podcast Michael Barbaro chiama il suo “peccato originale”, e cioè il fatto che tra le informazioni ingerite ci sono materiali protetti dal diritto d’autore. Il New York Times ha fatto causa alla Open­Ai per violazione del diritto d’autore, e lo stesso hanno fatto l’organizzazione professionale degli scrittori negli Stati Uniti, Jonathan Franzen, George Saunders e molti altri. Open­Ai e altri grandi “creatori di modelli” non rivelano dettagli sui dati che usano per l’addestramento, ma la Open­Ai ha ammesso che tra questi ci sono opere protette dal diritto d’autore, anche se sostiene di farne un uso legittimo secondo le norme statunitensi.

Nel frattempo, la domanda di dati per l’addestramento continua a crescere, e le aziende tecnologiche cercano sempre nuovi modi per procurarseli. La Open­Ai, la Meta e altri hanno firmato dei contratti di licenza con editori come Reuters, Axel Springer e Associated Press, e stanno cercando accordi simili con gli studi di Hollywood.

Per Pasquinelli se ne può ricavare un insegnamento. La dipendenza dell’ia contemporanea dai nostri contributi è la dimostrazione che l’intelligenza è un processo sociale: è collettivo, emerge e si diffonde in perfetta armonia con il paradigma connessionista. “Non sorprende, quindi, che la tecnica d’intelligenza artificiale più efficace, ovvero le reti neurali artificiali, sia quella che meglio rispecchia (e, in questo senso, cattura) la cooperazione sociale”, scrive Pasquinelli.

C’è una venatura marxista in questa tesi: l’intelligenza risiede nella creatività delle masse. Ma è una tesi che avrebbe potuto sostenere anche un anti­marxista convinto come Hayek. Il vecchio austriaco si sarebbe compiaciuto all’idea che l’“intelletto” del soft­ware più avanzato della storia proviene dalle attività non pianificate di una moltitudine. E sarebbe stato ancora più intrigato dal fatto che questo soft­ware, come il suo amato mercato, è fondamentalmente inconoscibile.

La stranezza di fondo dell’ia generativa è che nessuno sa davvero come funziona. Sappiamo come sono addestrati i modelli linguistici di grandi dimensioni come Chat­Gpt e i suoi concorrenti, anche se non sempre sappiamo su quali dati sono addestrati. A questi modelli si chiede di prevedere la stringa successiva di caratteri in una sequenza. Ma come ci arrivino esattamente è un mistero. I calcoli che si svolgono all’interno del modello sono troppo complicati per la comprensione umana. Non si può semplicemente alzare il cofano e vedere gli ingranaggi che girano.

In mancanza dell’osservazione diretta, resta un metodo più indiretto: l’interpretazione. Un intero settore tecnico si è sviluppato intorno all’“interpretabilità” o alla “spiegabilità” dell’intelligenza artificiale, con l’obiettivo di decifrare come funzionano questi sistemi. I suoi specialisti nel mondo accademico e industriale parlano in termini iperspecialistici, ma i loro sforzi hanno qualcosa di devozionale, simile all’esegesi dei testi sacri o delle viscere degli animali offerti in sacrificio.

C’è un limite alla ricerca di significato, i mortali devono accontentarsi di verità parziali. Se i “monopoli dell’ia” di oggi rappresentano il nuovo “occhio del padrone”, come pensa Pasquinelli, è un occhio dal campo visivo limitato. Le fabbriche dell’epoca di Babbage erano zone di visibilità: concentrando il lavoro e i lavoratori, mettevano il processo lavorativo in bella vista. L’ia contemporanea è l’opposto: il suo involucro è testardamente opaco e neanche il padrone può vedere al suo interno.




Apple rifiuta di abolire il programma di inclusione e diversità: «Proposta inappropriata»

Apple rifiuta di abolire il programma di inclusione e diversità: «Proposta inappropriata»

DEI sta per «Diversity, equity, inclusion». Ovvero diversità, equità e inclusione. È la sigla con cui vengono chiamati quei programmi aziendali – o statali – che hanno lo scopo di creare una cultura e un ambiente all’interno di un’organizzazione che sia giusto e rispetti i diritti di tutti. Senza discriminazioni. Il ritorno alla Casa Bianca di Trump sembra aver scosso le fondamenta ideologiche (ed economiche) su cui si basano questi programmi. Meta ha deciso di chiudere il suo, Amazon anche. Apple va nella direzione opposta.

Il consiglio di amministrazione della società di Cupertino si è rifiutato di accogliere il suggerimento di alcuni azionisti di chiudere i programmi DEI. La proposta arriva dal National Center for Public Policy Research, un think tank conservatore che si dichiara «indipendente, apartitico e di libero mercato». Secondo loro, mantenere attivo un programma dedicato alla diversità e all’inclusione potrebbe indebolire l’azienda e renderla vulnerabile a possibili cause legali. Il riferimento è una  sentenza della Corte Suprema americana del 2023 secondo la quale i programmi volti a evitare discriminazione nelle ammissioni ai college violano una clausola del 14esimo emendamento della Costituzione. Chiamata «Equal Protection Clause», ovvero clausola di pari protezione, è stata introdotta nel 1868 perché tutti i cittadini siano trattati nello stesso modo davanti alla legge. Secondo la sentenza, i college avrebbero favorito alcuni studenti in quanto appartenenti a minoranze. 

La proposta di eliminare i programmi DEI all’interno di Apple si appoggia anche sulle recenti decisioni di altre aziende, tra cui Meta e Amazon, di cancellare programmi simili. Non solo: i team dedicati alla diversità sono stati anche eliminati da Microsoft e Zoom, da John Deere e Harley Davidson. La proposta del think tank è riportata in questo documento alla pagina 85: «Con 80mila dipendenti, è probabile che Apple ne abbia più di 50mila potenzialmente vittime di questo tipo di discriminazione – scrivono gli azionisti, riferendosi a coloro che potrebbero rivolgersi a un tribunale per non aver giovato di favori in quanto non appartenenti a minoranze – Se anche solo una frazione dei dipendenti dovesse intentare una causa, e se solo alcuni di questi dovessero avere successo, il costo per Apple potrebbe raggiungere le decine di miliardi di dollari». A pagina 87 la risposta del consiglio di amministrazione, che raccomanda un voto contrario al meeting annuale degli azionisti, che si tiene il 25 febbraio: «La proposta non è necessaria in quanto Apple dispone già di un programma di conformità ben consolidato e tenta inopportunamente di limitare la capacità di Apple di gestire le proprie operazioni commerciali ordinarie, le persone, i team e le strategie aziendali». Si aggiunge che l’azienda ha l’obiettivo di «creare una cultura di appartenenza in cui tutti possano dare il meglio di sé». 

Parole che fino a qualche mese fa sarebbero state considerate coerenti con qualunque strategia aziendale, oggi sembrano una dichiarazione di intenti progressista. La vittoria di Trump ha scosso profondamente la Silicon Valley, con cambiamenti che seguono i mutamenti all’interno di una Paese che ha scelto il repubblicano (e le sue idee) come prossimo presidente. Gli elettori, d’altronde, sono anche consumatori. E se è stato scelto per la Casa Bianca un inquilino che si oppone nettamente ai programmi per la diversità e inclusione, questi sono diventati improvvisamente obsoleti. Lo sono a Meta, dove Zuckerberg continua la sua metamorfosi e interrompe ogni sforzo per la tutela delle minoranze. E non solo: attacca Biden per averlo obbligato a «censurare» alcuni contenuti, in particolare durante gli anni della pandemia. Ma sono storia passata anche ad Amazon, dove è stata inviata una nota a tutti i dipendenti che dichiara proprio l’intenzione di «eliminare i programmi e i materiali obsoleti» dedicati all’inclusione entro la fine dell’anno. Anche qui si temono cause legali di gruppi conservatori che possono sfruttare la decisione della Corte Suprema del 2023.




Dagli scaffali di Zara alle discariche del Ghana: il lato oscuro della fast fashion (e dei vestiti che buttiamo)

Dagli scaffali di Zara alle discariche del Ghana: il lato oscuro della fast fashion (e dei vestiti che buttiamo)

Kantamanto è il nome del più grande mercato di vestiti di seconda mano al mondo. Siamo ad Accra, nel Ghana, e qui gli abiti che non indossiamo più finiscono a tonnellate.

Devastato da un rovinoso incendio prime ore del 2 gennaio scorso, che ha distrutto oltre il 60% dei 70mila metri quadrati e lasciato sul lastrico almeno 8mila venditori direttamente colpiti “dal più grande disastro registrato nei 15 anni di vita del mercato”, come dice la ONG Or Foundation, ora una domanda sorge spontanea: non è questa una responsabilità che per lo meno andrebbe condivisa con la feroce industria della moda?

Certo che sì. L’idea iniziale di qualche visionario di fare di Kantamanto il perno di una filiera circolare è miseramente fallita: qui arrivano 60 milioni di capi invenduti e usati che, potenzialmente, possono essere ricollocati sul mercato, ma il 40% finisce dritto nella spazzatura.

 

 
 
 
 
 
Visualizza questo post su Instagram
 
 
 
 
 
 
 
 
 
 
 

 

Un post condiviso da The Or Foundation (@theorispresent)

Ti spiego perché il Ghana è diventato una discarica della fast fashion

Lo sapevi che una parte dei vestiti che butti potrebbe finire in Ghana? Questo Paese dell’Africa occidentale è tra le principali destinazioni per gli abiti di seconda mano provenienti dall’Europa, con l’Italia tra i maggiori esportatori. Solo nel 2022, dal nostro Paese sono state inviate in Ghana quasi 200mila tonnellate di indumenti usati.

Ma non si tratta solo di vestiti di seconda mano. Proprio il mercato di Kantamanto, il più grande centro di smistamento tessile del Ghana, è sommerso da montagne di capi invenduti provenienti dai giganti del fast fashion come H&M, Zara, Primark e Shein.

Secondo un’indagine di Greenpeace, quasi la metà degli abiti che arrivano qui è inutilizzabile: ogni settimana si riversano nel Paese circa 15 milioni di capi, spesso di scarsa qualità e destinati a diventare rifiuti.

Ne abbiamo parlato qui: Fast fashion, sai che fine fanno i tuoi vestiti usati? Ogni settimana 15 milioni vanno a inquinare tutto il Ghana

Cosa succede a questi vestiti? Purtroppo, gran parte finisce in discariche abusive o viene bruciata nei lavatoi pubblici, con conseguenze devastanti per aria, acqua e suolo. Il Ghana è ormai considerato una delle più grandi discariche di rifiuti tessili al mondo, e solo un terzo degli abiti importati riesce a essere rivenduto o riciclato. Il resto diventa un problema ambientale e sanitario per le comunità locali.

Il lato oscuro della fast fashion

La fast fashion ha trasformato il modo in cui acquistiamo e consumiamo abbigliamento. Con collezioni che cambiano in continuazione e prezzi stracciati, i marchi di questo settore incoraggiano un consumo usa e getta che ha un impatto enorme sul Pianeta. Secondo la Commissione europea, il comparto tessile è tra i più inquinanti al mondo, con il quarto impatto più alto su ambiente e cambiamenti climatici.

I numeri parlano chiaro: ogni cittadino europeo butta via in media 11 kg di vestiti all’anno, e ogni secondo un intero camion di abiti viene smaltito in discarica o incenerito. Il riciclo? Praticamente inesistente: meno dell’1% degli indumenti usati viene effettivamente riciclato.

Dietro la moda low cost si nasconde un sistema che produce scarti in quantità insostenibili e scarica il peso di questo spreco su Paesi come il Ghana. Forse è arrivato il momento di ripensare il nostro modo di acquistare vestiti.




B Lab pubblica i nuovi standard per la certificazione B Corp

B Lab pubblica i nuovi standard per la certificazione B Corp

“In un momento in cui altri leader fanno un passo indietro, il business deve guidare il progresso” ha affermato Clay Brown, co-Direttore Esecutivo di B Lab Global. “Non si tratta di un semplice aggiornamento, ma di una rivisitazione completa dell’impatto aziendale per rispondere alle sfide del nostro tempo. I nuovi standard di B Lab possono servire come tabella di marcia per la leadership sulle questioni sociali e ambientali quando è più necessario”.

Con la community delle B Corp in procinto di raggiungere un traguardo significativo, ovvero un gruppo di quasi 10.000 aziende in 100 Paesi, che impiegano quasi 1 milione di lavoratori in 160 settori, i nuovi standard di B Lab, giunti alla settima evoluzione, spingono le aziende a scalare l’impatto verso obiettivi sociali e ambientali condivisi, fornendo alle aziende chiarezza su come intraprendere un’azione significativa e tangibile sulle questioni che riguardano le persone e il pianeta e alzando l’asticella per tutte le imprese.

Dopo aver coinvolto diversi stakeholder attraverso un processo di consultazione pluriennale, B Lab ha introdotto requisiti che tutte le B Corp devono soddisfare in sette argomenti di impatto e abbandona l’assegnazione di un punteggio cumulativo. Questo creerà la possibilità per le B Corp di gestire il loro impatto in modo olistico, aumentando al contempo la trasparenza e la chiarezza per il pubblico.

“Dopo quattro anni, due consultazioni pubbliche e 26.000 feedback da parte di aziende, pubblico ed esperti, siamo fiduciosi che i nuovi standard siano chiari, ambiziosi e realmente in grado di alzare il livello delle aziende in tutto il mondo” ha affermato Judy Rodrigues, Direttrice degli Standard di B Lab Global. “Non vediamo l’ora di collaborare con la nostra comunità per abbracciare questi nuovi standard e creare uno slancio per il cambiamento dei sistemi”.

Le B Corp devono soddisfare gli standard di performance dei seguenti sette argomenti d’impatto:

  • Purpose & Stakeholder Governance: l’azione ha lo scopo definito e integrare la governance degli stakeholder nel processo decisionale, creando strutture di governance per monitorare lo scopo, le prestazioni sociali e ambientali.
  • Climate Action: sviluppo di un piano d’azione a sostegno della limitazione del riscaldamento globale a 1,5°C e, per le aziende più grandi, includere le emissioni di gas serra e obiettivi basati sulla scienza (science-based).
  • Human Right: comprensione dell’impatto negativi delle proprie operazioni e della catena del valore sui diritti umani e adozione di misure per prevenire e mitigare gli stessi.
  • Fair Work: Fornimento di posti di lavoro di buona qualità e ottenere culture aziendali positive, con l’implementazione di pratiche salariali eque e l’integrazione del feedback dei lavoratori nel processo decisionale.
  • Environmental Stewardship & Circularity: Valutazione dei propri impatti ambientali e la messa in atto di azioni significative per la riduzione al minimo nelle proprie operazioni e nella catena del valore.
  • Justice, Equity, Diversity & Inclusion: Promozione di ambienti di lavoro inclusivi e diversificati che contribuscono in modo significativo a comunità giuste ed eque.
  • Government Affairs & Collective Action: Impegno negli sforzi collettivi per la promozione un cambiamento sistemico, sostegno delle politiche che creano risultati sociali e ambientali positivi e, per le aziende più grandi, la condivisione pubblica della reportistica fiscale di ciascun Paese.

“In un mercato in continua trasformazione, con aziende sempre più mature e nuove normative, è essenziale che gli standard e il modello B Corp continuino a evolvere e a spingersi oltre, come fanno con coerenza dal 2006” ha dichiarato Francesco Serventi, Evolution Flow Leader di NATIVA, prima B Corp italiana. “Siamo entusiasti di questa notizia e non vediamo l’ora di confrontarci con i nuovi standard, applicandoli su di noi e su tante aziende desiderose di intraprendere un percorso di miglioramento continuo del proprio impatto”.

Mentre le aziende si trovano ad affrontare una crescente complessità normativa e una crescente pressione a ritirarsi dalle iniziative per il clima e la giustizia sociale, i nuovi standard di B Lab forniscono un percorso chiaro per un impegno duraturo. Riconoscendo le pressioni che le aziende devono affrontare oggi, essi incorporano dati e metodologie di altri schemi di certificazione, quadri di riferimento per la sostenibilità e rapporti di divulgazione, tra cui GRISBTi e Fairtrade, consentendo alle aziende di concentrarsi su ciò che conta: operare a beneficio di tutti gli stakeholder.

Sebbene la certificazione B Corp affermi che un’azienda soddisfa elevati standard di performance sociale e ambientale, l’impegno si conferma con il miglioramento continuo da parte dei nuovi standard di B Lab, con le aziende che devono dimostrare il miglioramento dell’impatto nel tempo, compresi i traguardi dopo 3 anni e 5 anni, consentendo ai leader di continuare a guidare progressi significativi durante il loro percorso come B Corp.

“I nuovi standard di B Lab offrono una visione chiara di cosa significhi essere un’azienda rigenerativa e un percorso concreto per generare impatto positivo” ha affermato Elena Pellizzoni, ESG Chief di Flowe Società Benefit. “Grazie al processo di consultazione, integrano le best practice e stimolano le B Corp a misurarsi su scale sempre più ambiziose e a contribuire a un cambiamento sistemico”.




“Direttiva Greenwashing” in vigore, tutto parte dalla definizione di “certificazione”

“Direttiva Greenwashing” in vigore, tutto parte dalla definizione di “certificazione”

Gli aspetti fondamentali della “Direttiva Greenwashing” in vigore

Pubblicata il 6 marzo e in vigore dal 26 marzo 2024 la cd. “Direttiva Greenwashing”, ovvero la direttiva 2024/825/UE (“Responsabilizzazione dei consumatori per la transizione verde mediante il miglioramento della tutela dalle pratiche sleali e dell’informazione”, che modifica la Direttiva 2005/29/Ce sulle pratiche commerciali sleali). 

Quali sono gli aspetti fondamentali della Direttiva (il cui testo, approvato in via definitiva dal Parlamento Ue il 17 gennaio 2024, è già noto da tempo)? 

  • Si chiarisce cosa si intende con sistema di certificazione (o etichetta) ambientale.
  • Si definisce il concetto di “terza parte” (se manca è pratica commerciale sleale).
  • Le nuove etichette private saranno ammesse ma solo se apportano un “valore aggiunto” sul mercato (quindi rispetto a quelle già esistenti.
  • Vengono definite le regole che devono stare alla base della messa sul mercato di nuove certificazioni, altrimenti le certificazioni dovranno essere proibite perché, appunto, lesive della concorrenza leale.

Il panorama normativo in fase di definizione

Ma partiamo dall’inizio. Il quadro normativo delle asserzioni ambientali (cd. green claims) è in fase di definizione e di forte cambiamento. Lo è per effetto di due importanti documenti che si avvicinano al termine del loro iter normativo comunitario. Si tratta della proposta di Direttiva Green Claims [1] del 22/3/2023, che è derivazione (lex specialis) della più ampia proposta di Direttiva responsabilizzazione consumatori, la  direttiva 2024/825/UE pubblicata il 6 marzo e in vigore dal 26 marzo 2024.

ll concetto di partenza è che uno dei maggiori rischi per la libertà di scelta del consumatore e della libera concorrenza tra le imprese, è rappresentato dal greenwashing. I consumatori, con le loro scelte green che devono essere libere e consapevoli, sono i veri motori del cambiamento.
Quindi prima di tutto la Direttiva sulla responsabilizzazione dei consumatori definisce l’elenco delle pratiche commerciali considerate in ogni caso sleali e associate al greenwashing:

  • esibire un marchio di sostenibilità che non sia basato su un sistema di certificazione o non è stabilito da autorità pubbliche;
  • formulare un’asserzione ambientale generica per la quale il professionista non è in grado di dimostrare l’eccellenza riconosciuta delle prestazioni ambientali pertinenti all’asserzione;
  • formulare un’asserzione ambientale concernente il prodotto nel suo complesso quando riguarda soltanto un determinato aspetto;
  • presentare requisiti imposti per legge sul mercato dell’Unione per tutti i prodotti appartenenti a una data categoria come se fossero un tratto distintivo dell’offerta del professionista.

Il secondo passaggio fondamentale è che vengono per la prima volta [3] introdotte nel sistema due definizioni fondamentali: cosa si intende con “sistema di certificazione” e, di conseguenza, cosa si deve intendere con “terza parte”.

La definizione di “sistema di certificazione”

Per la Direttiva sulla responsabilizzazione dei consumatori la definizione si trova all’articolo 1 (Modifiche alla Direttiva 2005/29/CE) comma 1, lettera r):
– “sistema di certificazione”: un sistema di verifica da parte di terzi che certifica che un prodotto, un processo o un’impresa è conforme a determinati requisiti, che consente l’uso di un corrispondente marchio di sostenibilità e le cui condizioni, compresi i requisiti, sono accessibili al pubblico e soddisfano i criteri seguenti:
i) il sistema, nel rispetto di condizioni trasparenti, eque e non discriminatorie, è aperto a tutti gli operatori economici disposti e in grado di conformarsi ai suoi requisiti;
ii) i requisiti del sistema sono elaborati dal titolare dello stesso in consultazione con gli esperti pertinenti e i portatori di interessi;
iii) il sistema stabilisce procedure per affrontare i casi di non conformità ai requisiti del sistema e prevede la revoca o la sospensione dell’uso del marchio di sostenibilità da parte dell’operatore economico in caso di non conformità ai requisiti del sistema; e
iv) il monitoraggio della conformità dell’operatore economico ai requisiti del sistema è oggetto di una procedura obiettiva ed è svolto da un terzo la cui competenza e la cui indipendenza sia dal titolare del sistema sia dall’operatore economico si basano su norme e procedure internazionali, dell’Unione o nazionali;

Sulla definizione anche la Direttiva Green Claims è assolutamente coerente: con sistema di certificazione si intende (articolo 2, punto 10): “un sistema di verifica da parte di terzi che, nel rispetto di condizioni trasparenti, eque e non discriminatorie, è aperto a tutti i professionisti disposti e in grado di conformarsi ai suoi requisiti, il quale certifica che un dato prodotto è conforme a determinati requisiti e nel cui ambito il monitoraggio della conformità è oggettivo, basato su norme e procedure internazionali, unionali o nazionali, ed è svolto da un soggetto che è indipendente sia dal titolare del sistema sia dal professionista;”.

Quindi, nelle definizioni, i primi aspetti riportati riguardano l’affidabilità e la scientificità che devono stare alla base della definizione delle regole sulle quali l’etichetta ambientale si basa, che deve inoltre essere democratica e aperta.

La definizione di “terza parte”

Quello che è un aspetto inedito nel sistema normativo delle etichette ambientali è la definizione di “terza parte”: le verifiche per il rilascio della certificazione devono essere svolte da un soggetto indipendente e separato nella sostanza (e non solo formalmente) rispetto al titolare del sistema di certificazione e, ovviamente, rispetto all’azienda che chiede la certificazione. Nella sostanza, chi elabora e definisce un sistema di certificazione non può essere legato in alcun modo al soggetto che effettua le verifiche.

La violazione di questo aspetto è ritenuta pratica commerciale sleale (come spiegato nell’Explanatory Memorandum che precede la Proposta di Direttiva) per cui meritevole di sanzioni che dovranno essere attuate dagli Stati membri.

La proposta di Direttiva Green Claims è severa sul punto: “l’esposizione di un’etichetta di sostenibilità non basata su un sistema di certificazione o non istituita dalle autorità pubbliche costituisce una pratica commerciale sleale in tutte le circostanze. Ciò significa che sono vietate le etichette di sostenibilità “autocertificate”, ovvero quelle in cui non viene effettuata alcuna verifica da parte terza (come sopra definita)”.

Quindi, se non esiste una netta separazione dei soggetti, si ricade nell’auto-dichiarazione ambientale, strettamente vietata dalle nuove norme europee.

Il sistema di certificazione (o etichettatura) ambientale deve soddisfare le seguenti prescrizioni (articolo 8 direttiva Green claims):

  • le informazioni sulla titolarità e sugli organi decisionali del sistema di etichettatura ambientale sono trasparenti, accessibili gratuitamente, di facile comprensione e sufficientemente dettagliate;
  • le informazioni sugli obiettivi del sistema di etichettatura ambientale e sulle prescrizioni e procedure per monitorare la conformità dei sistemi di etichettatura ambientale sono trasparenti, accessibili gratuitamente, di facile comprensione e sufficientemente dettagliate;
  • le condizioni per aderire ai sistemi di etichettatura ambientale sono proporzionate alle dimensioni e al fatturato delle imprese così da non escludere le piccole e medie imprese;
  • le prescrizioni per il sistema di etichettatura ambientale sono state elaborate da esperti in grado di garantirne la solidità scientifica e sono state presentate per consultazione a un gruppo eterogeneo di portatori di interessi che le ha riesaminate garantendone la rilevanza dal punto di vista della società;
  • il sistema di etichettatura ambientale dispone di un meccanismo di risoluzione dei reclami e delle controversie;
  • il sistema di etichettatura ambientale stabilisce procedure per affrontare i casi di non conformità e prevede la revoca o la sospensione del marchio ambientale in caso di inosservanza persistente e flagrante delle prescrizioni del sistema.

La limitazione per nuove etichette ambientali

Viene poi normato che gli Stati membri non potranno più istituire nuovi sistemi nazionali o regionali di etichettatura ambientale, dalla data di entrata in vigore della direttiva, se non conformi al diritto dell’Ue e alle disposizioni della prossima Direttiva Green Claims.

Tuttavia, i sistemi nazionali o regionali di etichettatura ambientale istituiti prima dell’entrata in vigore della Direttiva possono continuare a rilasciare i marchi ambientali nel mercato dell’Unione, a condizione che soddisfino le prescrizioni della presente direttiva.

Per evitare l’ulteriore moltiplicarsi dei sistemi di etichettatura ambientale (“marchi di qualità ecologica”) di tipo I in conformità della norma EN ISO 14024 riconosciuti ufficialmente a livello nazionale o regionale e di altri sistemi di etichettatura ambientale, è opportuno che nuovi sistemi nazionali o regionali possano essere sviluppati soltanto in conformità del diritto dell’Unione.

Le sanzioni

In caso di violazione delle disposizioni sui marchi ambientali le sanzioni comprendono anche l’esclusione temporanea, per un periodo massimo di 12 mesi, dalle procedure di appalto pubblico e dall’accesso ai finanziamenti pubblici, comprese procedure di gara, sovvenzioni e concessioni.

Il documento comunitario spiega che attualmente sul mercato dell’Unione sono utilizzate più di 200 etichette ambientali. Presentano importanti differenze nel modo in cui operano per quanto riguarda, ad esempio, la trasparenza e la completezza delle norme o dei metodi utilizzati, la frequenza delle revisioni o il livello di audit o verifica. Queste differenze hanno un impatto sull’affidabilità delle informazioni comunicate sulle etichette ambientali. Sebbene le dichiarazioni basate sull’Ecolabel UE o sui suoi equivalenti nazionali seguano una solida base scientifica, abbiano uno sviluppo trasparente dei criteri, richiedano prove e verifiche da parte di terzi e prevedano un monitoraggio regolare, le prove suggeriscono che molte etichette ambientali attualmente sul mercato dell’UE sono fuorvianti. In particolare, molte etichette ambientali mancano di procedure di verifica affidabili. Pertanto, le dichiarazioni ambientali esplicite riportate sulle etichette ambientali dovranno essere basate su un sistema di certificazione, così come sopra definito.

La proposta di Direttiva Green claims stringe, come preannunciato sopra, sulla proliferazione di nuovi schemi proprietari privati, che quindi dovranno essere sottoposti ad una procedura di convalida preventiva, valutati dalle autorità nazionali e convalidati solo se dimostrano un valore aggiunto (articolo 8, comma 5) rispetto agli schemi già esistenti, in termini di caratteristica ambientale coperta, impatti ambientali, gruppo di categorie di prodotti o settore e la loro capacità di sostenere la transizione verde delle PMI rispetto ai regimi esistenti dell’Unione, nazionali o regionali. Per facilitare la valutazione del valore aggiunto, sarà pubblicata una lista delle etichette ambientali esistenti e affidabili.

I nuovi regimi privati saranno consentiti solo se possono mostrare ambizioni ambientali più elevate rispetto a quelli esistenti e ottenere quindi una pre-approvazione.


Per approfondire

Questions and Answers on European Green Claims

[1] Proposta di Direttiva del Parlamento europeo e del Consiglio sulla definizione e comunicazione di asserzioni ambientali esplicite (Direttiva “Green Claims”) COM (2023) 166 final

[2] Proposta di Direttiva del Parlamento europeo e del Consiglio che modifica le direttive 2005/29/CE e 2011/83/UE per quanto riguarda la responsabilizzazione dei consumatori per la transizione verde mediante il miglioramento della tutela dalle pratiche sleali e dell’informazione

[3] In realtà la definizione di “sistema di certificazione” era già presente nell’articolo 2 lettera s) della direttiva 2005/59/CE dell’11 maggio 2005 relativa alle pratiche commerciali sleali delle imprese nei confronti dei consumatori nel mercato interno.