Così l’intelligenza artificiale voleva distruggere tutti i libri del mondo

Così l’intelligenza artificiale voleva distruggere tutti i libri del mondo

Potrebbe essere il plot di una nuova versione di “Fahrenheit 451”, riveduta e molto, molto corretta. Lì, nel romanzo di Ray Bradbury, la conoscenza era bandita e ai “pompieri” veniva affidato il compito di bruciare qualsiasi tipo di libro. Qui la conoscenza è stata trasformata a ritmo frenetico per sfamare la bestia insaziabile dell’intelligenza artificiale, acquisendo milioni di libri, tagliarne il dorso, smembrarli e scansionare le pagine su scanner ad alta velocità. Comunque sia, anche in questo caso per eliminarli.

La folle corsa all’accaparramento è diventata cronaca di giornale quando un gruppo di autori ha deciso di fare causa ad Anthropic per violazione delle leggi americane sul copyright, con la richiesta di 183 miliardi di dollari di danni: un’enormità. Ad agosto la compagnia di San Francisco ha accettato di pagarne un miliardo e mezzo. Tutto sommato un affare, e sembrava finita lì. 

Solo che, una decina di giorni fa, la scelta di un giudice californiano di desecretare parte degli incartamenti depositati ha permesso di aggiungere elementi su come i signori dell’intelligenza artificiale stanno costruendo il loro dominio. Tutto comincia all’inizio del 2024, quando i dirigenti della startup fondata tre anni prima da alcuni transfughi di OpenAI varano il Progetto Panama. 

Sembra l’incipit di una spy-story e, in effetti, c’è tutta la volontà di mantenere segreto l’obiettivo da raggiungere: «Scansionare in modo distruttivo tutti i libri del mondo». Nell’anno successivo Anthropic spende una montagna di denaro per rastrellare i volumi da dare in pasto al suo chatbot. Si chiama Claude e per molti è già più avanti di ChatGPT, soprattutto nella scrittura e nell’editing. Premessa: dietro l’IA generativa come è conosciuta da noi utenti finali – faccio una richiesta anche complessa e in breve ottengo una risposta – c’è una realtà più articolata, almeno fino al prossimo salto tecnologico sul quale in questi giorni, ironia della sorte, ha lanciato l’allarme proprio il ceo di Anthropic, Dario Amodei, con un saggio di 38 pagine in cui si preoccupa di quella che chiama “Intelligenza artificiale potente”, capace di sfuggire al controllo umano prima di quanto oggi si immagini. 

Nell’attesa non è ancora una vera intelligenza, ma un imitazione del comportamento umano basata su calcoli statistici e capacità di elaborare enormi quantità di dati. Una scimmia ammaestrata ipertecnologica che necessita per scrivere meglio di miliardi di parole da assimilare. Di parole di senso compiuto e cosa meglio dei libri? Di tutti i libri del mondo. Ecco, dal processo californiano emerge che nel gennaio del 2023 proprio Amodei teorizzò che per addestrare al meglio i modelli di Claude era più utile farlo sui libri invece di imitare il «linguaggio di bassa qualità reperibile dai testi sul web». Con due problemi da affrontare: i libri avevano autori ed editori da pagare; i concorrenti di Anthropic avevano lo stesso obiettivo e la stessa fretta. 

Il caso Anthropic non è isolato: è solo quello giunto prima a conclusione e fa parte di un’ondata di cause legali intentate contro le aziende di intelligenza artificiale, da Meta a Google, a OpenAI o Microsoft. Protagonisti di «una corsa frenetica, a volte clandestina, per acquisire le opere complete dell’umanità» ha scritto il Washington Post, che sul caso ha molto investigato.

Pur non essendo di per sé criminoso rastrellare milioni di copie di libri e distruggerli, emerge dalle carte messe insieme dai giudici che i signori dell’IA abbiano ritenuto utile e sbrigativo farlo senza attendere le autorizzazioni o stipulare contratti, anzi all’insaputa degli autori. 

In una prima fase, le compagnie cominciarono a scaricare i libri digitalizzati da alcune “biblioteche ombra” come Pirate Library Mirror o LibGen che, in maniera programmatica, si facevano vanto di violare le normative sul copyright e che per questo avevano perso delle cause negli Stati Uniti. Dalla messaggistica di Meta, agli atti in un altro processo in California, per esempio, si apprende che in diverse occasioni i manager si dissero preoccupati dallo scaricare online milioni di titoli piratati, ma già a fine 2023 in un’altra mail interna si affermava che la pratica era stata approvata dopo una «escalation a MZ», con quell’MZ che fa pensare alle iniziali di Mark Zuckerberg, il padrone del colosso di Facebook, Instagram e Whatsapp. 

I tipi di Anthropic avevano preferito la scansione distruttiva proprio per non essere etichettati come pirati del web dediti a un torrenting di proporzioni colossali, assoldando anche un esperto della materia: l’ex dirigente di Google che nei primi anni Duemila aveva condotto la discussa impresa di Google Libri (la creazione del più grande database di testi mai esistito fino ad allora), naufragata dopo una guerra legale durata 12 anni e comunque vinta dall’azienda di Mountain View. 

Quella vittoria oggi fa sperare gli avvocati dei signori dell’intelligenza artificiale, perché anche due recenti sentenze hanno ritenuto prevalente il “fair use”, istituto proprio del diritto americano. Cioè: copiare materiale protetto dal diritto d’autore è legale se fatto per un uso limitato e “trasformativo”, se non fosse che definire “trasformativo” è costato tempo e milioni di dollari già diverse volte nel passato. Tutto o quasi è affidato all’interpretazione del giudice che nella prima delle due sentenze ha addirittura paragonato le tecniche di addestramento a quelle di un benemerito insegnante che «addestra i suoi studenti a scrivere meglio».

Riuscire, poi, a dimostrare che l’intelligenza artificiale avesse danneggiato la vendita dei libri (questa l’obiezione contenuta nella seconda delle due sentenze) sarebbe stato quasi impossibile. 

A conti fatti, Anthropic è l’unica finora ad aver sottoscritto un accordo miliardario, e ha acquistato copie cartacee, non scaricato gratis dal web. Quasi una beffa. Interpellata dal Washington Post, la startup ha affidato la risposta a uno dei suoi consulenti legali: «La questione su cui ci siamo accordati riguardava il modo in cui alcuni materiali venivano acquisiti, non se potessimo utilizzarli per sviluppare modelli di intelligenza artificiale”. 

La transazione raggiunta dalla società di Amodei e la causa ancora in corso che coinvolge Meta non sono isolate. A New York nomi di primo piano come David Baldacci, Michael Connelly, Jonathan Franzen, John Grisham o George R.R. Martin sono in causa con OpenAI e Microsoft, mentre due editori del calibro di Hachette e Cengage chiedono di essere ammessi a una class action contro Google. Da due anni va avanti la disputa che vede il New York Times confrontarsi (anche qui) con Microsoft e OpenAI dopo la denuncia depositata alla corte federale di Manhattan, e la scorsa settimana Universal Music ha di nuovo citato in giudizio Anthropic con l’accusa di avere scaricato illegalmente almeno 20 mila canzoni. 

Il confine tra le ragioni dell’innovazione tecnologica e la tutela della creatività umana è lungi dall’essere tracciato, nel mentre la natura predatoria dell’intelligenza artificiale è sempre più evidente, e la rincorsa all’accaparramento delle proprietà intellettuali ne è un aspetto non trascurabile. L’immagine che restituisce il clima resta quella di Donald Trump nel giorno dell’insediamento, attorniato dagli oligarchi digitali: da normative più o meno restrittive sul diritto d’autore, sulla privacy o sulla concorrenza dipende gran parte del loro predominio. Con i Borgiani – l’efficace definizione coniata da Giuliano Da Empoli nel suo “L’ora dei predatori” – bisognerà sempre più fare i conti. 




La vulnerabilità di Moltbook, il social degli agenti AI

La vulnerabilità di Moltbook, il social degli agenti AI

Internet è rimasto affascinato da Moltbook, un sito di social media con una nuova serie di regole: i bot AI possono pubblicare post mentre gli esseri umani guardano. I post sono diventati rapidamente strani, con agenti AI che apparentemente inventavano religioni, scrivevano manifesti contro l’umanità e formavano quelli che sembravano culti digitali. Ma i ricercatori di sicurezza affermano che lo spettacolo è solo un diversivo. Sotto la superficie, hanno trovato database esposti contenenti password e indirizzi e-mail, malware diffuso e un modello funzionante di come l’“agente Internet” potrebbe fallire.

Alcune delle conversazioni più fantascientifiche sulla piattaforma simile a Reddit, ad esempio quelle relative agli agenti di intelligenza artificiale che complottano per l’estinzione dell’umanità, sembrano essere in gran parte false. Tuttavia, secondo gli esperti, Moltbook presenta alcuni potenziali problemi di sicurezza esistenziale. Essi sostengono che la piattaforma potrebbe diventare un ambiente poco controllato in cui gli hacker potrebbero testare malware, truffe, disinformazione o iniezioni immediate che dirottano altri agenti prima di prendere di mira le reti tradizionali.

“Lo spettacolo degli ‘agenti che dialogano tra loro’ è per lo più performativo (e in parte è finto), ma ciò che è davvero interessante è che si tratta di una dimostrazione dal vivo di tutto ciò che i ricercatori nel campo della sicurezza hanno segnalato riguardo agli agenti di intelligenza artificiale”, ha dichiarato George Chalhoub, professore presso l’UCL Interaction Centre, a Fortune. “Se 770.000 agenti giocattolo su un clone di Reddit possono creare tutto questo caos, cosa succederà quando i sistemi agenti gestiranno l’infrastruttura aziendale o le transazioni finanziarie? Vale la pena prestare attenzione a questo fenomeno come un avvertimento, non come un motivo di festeggiamento”.

I ricercatori di sicurezza affermano che OpenClaw, il software agente AI (precedentemente Clawdbot/Moltbot) che alimenta molti bot su Moltbook, è già un bersaglio per il malware. Un rapporto di OpenSourceMalware ha rilevato 14 ‘abilità’ false caricate sul suo sito ClawHub in pochi giorni, che fingevano di essere strumenti di trading di criptovalute ma in realtà infettavano i computer. Queste abilità eseguono codice reale in grado di accedere ai file e a Internet; una è persino arrivata sulla prima pagina di ClawHub, ingannando gli utenti occasionali e indurli a incollare un comando che scarica script dannosi per rubare dati o portafogli di criptovalute.

Simon Willison, un importante ricercatore nel campo della sicurezza che ha seguito lo sviluppo di OpenClaw e Moltbook, ha descritto Moltbook come la sua “scelta attuale per il più probabile a provocare un disastro Challenger”, un riferimento all’esplosione dello space shuttle del 1986 causata dall’ignoranza delle avvertenze di sicurezza. Il rischio intrinseco più evidente, ha affermato, è il prompt injection, un tipo di attacco ben documentato in cui istruzioni dannose vengono nascoste nei contenuti forniti a un agente di intelligenza artificiale. 

In un post sul blog, ha messo in guardia da una ‘tripletta letale’ in atto: gli utenti che concedono a questi agenti l’accesso a e-mail e dati privati, li collegano a contenuti non affidabili provenienti da Internet e consentono loro di comunicare con l’esterno. Questa combinazione significa che un singolo comando dannoso potrebbe istruire un agente a sottrarre dati sensibili, svuotare portafogli crittografici o diffondere malware, il tutto senza che l’utente si renda conto che il proprio assistente è stato compromesso.

Tuttavia, Willison ha anche osservato che ora che “le persone hanno visto cosa può fare un assistente digitale personale senza restrizioni”, la domanda è destinata ad aumentare.

Charlie Eriksen, ricercatore di sicurezza presso Aikido Security, ha affermato di considerare Moltbook come un sistema di allerta precoce per l’ecosistema più ampio degli agenti di intelligenza artificiale. “Penso che Moltbook abbia già avuto un impatto sul mondo. È stato un campanello d’allarme sotto molti aspetti. Il progresso tecnologico sta accelerando a un ritmo sostenuto ed è abbastanza chiaro che il mondo è cambiato in un modo che non è ancora del tutto chiaro. Dobbiamo concentrarci sulla mitigazione di questi rischi il prima possibile”, ha affermato.

Il nuovo Internet

Nonostante l’attenzione virale, la società di sicurezza informatica Wiz ha scoperto che gli 1,5 milioni di agenti ‘autonomi’ di Moltbook non erano esattamente ciò che sembravano. L’indagine della società ha rivelato che dietro quegli account c’erano solo 17.000 esseri umani, senza alcun controllo per distinguere la vera AI dagli script. 

Gal Nagli, ricercatore presso Wiz, ha dichiarato a Fortune di essere riuscito a registrare un milione di agenti in pochi minuti quando ha testato la piattaforma. “Gli agenti di intelligenza artificiale, strumenti automatizzati, raccolgono semplicemente le informazioni e le diffondono a macchinetta”, ha affermato Nagli. “Nessuno controlla cosa è reale e cosa non lo è”.

Ami Luttwak, cofondatore e direttore tecnico di Wiz, ha affermato che l’incidente evidenzia un problema di autenticità più ampio legato all’emergente “internet degli agenti” e all’aumento della scarsa qualità dell’intelligenza artificiale: “Il nuovo internet non è in realtà verificabile. Non esiste un’identità chiara. Non c’è una distinzione netta tra intelligenza artificiale e esseri umani, e sicuramente non esiste una definizione di intelligenza artificiale autentica”.

Wiz ha anche scoperto che Moltbook stesso presentava un’enorme falla nella sicurezza: il suo database principale era completamente aperto, quindi chiunque trovasse una singola chiave nel codice del sito web poteva leggere e modificare quasi tutto. Quella chiave dava accesso a circa 1,5 milioni di ‘password’ di bot, decine di migliaia di indirizzi e-mail e messaggi privati, il che significa che un hacker poteva impersonare agenti di AI popolari, rubare i dati degli utenti e riscrivere i post senza nemmeno effettuare il login. 

“È un’esposizione molto semplice. L’abbiamo riscontrata anche in molte altre applicazioni codificate con vibe”, ha affermato Nagli. “Sfortunatamente, in questo caso, l’app era completamente codificata con vibe senza alcun intervento umano. Quindi non ha implementato alcuna misura di sicurezza nel database; era completamente configurata in modo errato”.

“L’intero flusso è una sorta di anteprima del futuro”, ha aggiunto. “Si crea un’app con il codice vibe, questa viene pubblicata e in poche ore diventa virale in tutto il mondo. Ma il rovescio della medaglia è che il codice vibe crea anche delle falle nella sicurezza”.

Questa storia è stata originariamente pubblicata su Fortune.com.




Undertourism: il nuovo squilibrio del turismo contemporaneo

Undertourism: il nuovo squilibrio del turismo contemporaneo

Nel dibattito emerso al recente Forum Internazionale del Turismo di Milano 2026, organizzato dal Ministero del Turismo italiano, il tema della gestione dei flussi turistici ha continuato a occupare una posizione centrale. Città congestionate, comunità sotto pressione, consumo eccessivo di risorse, perdita di qualità dell’esperienza. Tutto vero. Ma proprio da Milano è emersa con forza anche una consapevolezza meno raccontata e forse più interessante dal punto di vista prospettico: il turismo europeo, e quello italiano in particolare, è sempre più segnato da un fenomeno speculare e altrettanto critico, l’undertourism, che da “problema” può diventare grande opportunità di crescita e benessere per i territori “meno conosciuti”

Un primo punto fermo emerso dal Forum riguarda la natura non episodica di questi fenomeni. L’overtourism non si manifesta all’improvviso. Non è un evento accidentale né una deviazione temporanea. È il risultato di anni di mancata organizzazione, di mancanza di equilibrio tra posti letto (in strutture “di catena” di piccoli investitori locali), di sbilanciamento tra popolazione residente e “residente temporaneamente”, di conservazione del “genius loci” territoriale, di assenza di una lettura sistematica dei dati, di politiche guidate da indicatori parziali e di una metodologia di lavoro spesso reattiva anziché strutturale. I flussi si concentrano dove il sistema è più forte, più leggibile dal mercato, più facilmente distribuibile attraverso le piattaforme e i canali internazionali. Politiche che sono il retaggio del passato quando all’amministratore comunale meno virtuoso si assegnava l’assessorato al turismo perché considerato marginale o frutto della logica “tanto il turismo va da solo…!” Oggi il turismo deve essere trattato come una industria, con sensibilità verso il mercato, con capacità e esperienza e non con presupponenza, perché non è detto (anzi…) che ad un aumento indiscriminato di arrivi e presenza corrispondano benessere e sostenibilità per i territori.

Allo stesso modo, l’undertourism non è una condizione che si risolve con un atto amministrativo. Non basta una delibera comunale, un brand territoriale o una campagna di comunicazione per “attivare” una destinazione. Il Forum ha ribadito con chiarezza che l’undertourism è una questione infrastrutturale e di sistema: senza posti letto adeguati, esercizi commerciali funzionanti, servizi essenziali (mobilità, sanità di base, farmacie, ristorazione, assistenza), la domanda – anche quando esiste – non può essere intercettata né sostenuta nel tempo. A questo livello si innesta una riflessione ancora più profonda, che il confronto di Milano ha portato con forza al centro: la cultura dell’ospitalità.

Se le infrastrutture fisiche rappresentano l’hardware del turismo, la cultura dell’accoglienza è il software. Ed è, paradossalmente, l’elemento più difficile da “caricare” nei sistemi sociali territoriali. Richiede tempo, continuità, formazione, esempi virtuosi e un rapporto di fiducia stabile tra operatori, comunità e istituzioni. Non si improvvisa e non si importa dall’esterno.

Il Forum ha però evidenziato anche un ulteriore elemento, spesso trascurato nel dibattito pubblico: non tutte le forme di rafforzamento delle comunità locali passano necessariamente da una crescita turistica tradizionale o intensiva.

Esistono territori – a spiccata natura rurale, boschiva o caratterizzati da isolamento geografico – che possono trarre valore economico e sociale dalla complessità del sistema territoriale, senza essere forzati in modelli di sviluppo turistico non coerenti con la loro struttura. In questi contesti, il turismo può essere una componente, ma non l’unica né sempre la principale. Filiere agroalimentari, gestione del paesaggio, turismi di nicchia come la forest therapy, servizi ecosistemici, artigianato evoluto, residenzialità temporanea, lavoro da remoto e servizi alla comunità rappresentano leve di sviluppo altrettanto rilevanti. È l’integrazione di queste dimensioni, più che la loro specializzazione estrema, a generare resilienza e stabilità nel tempo.

In questo quadro, è emerso con chiarezza come l’Italia – per la prima volta attraverso il Ministero del Turismo – abbia scelto di affrontare apertamente un fenomeno che non è esclusivamente nazionale, ma diffuso in molte aree d’Europa. Overtourism e undertourism attraversano infatti numerosi contesti europei, in particolare laddove la governance territoriale è debole, frammentata o priva di soggetti di coordinamento stabili. Città d’arte, aree alpine, regioni costiere e territori interni condividono dinamiche simili, indipendentemente dai confini nazionali.

La differenza, sottolineata nel dibattito milanese, sta nella capacità di riconoscere il problema come strutturale e non come emergenza temporanea. Portare il tema al centro dell’agenda politica significa accettare che la gestione dei flussi, la distribuzione della domanda e l’attivazione dei territori non possono essere delegate né al mercato né alle singole amministrazioni locali lasciate sole. Il Forum ha evidenziato come la vera sfida europea non sia “spostare” i flussi turistici, ma costruire sistemi di governance capaci di leggerli, anticiparli e governarli. Dove mancano DMO seriamente “operative”, reti di impresa, strumenti di coordinamento pubblico-privato e competenze professionali, il turismo tende inevitabilmente a polarizzarsi: troppo in alcuni luoghi, troppo poco in altri.

Il messaggio che arriva dal Forum di Milano è netto: il turismo non nasce spontaneamente e non si riequilibra per decreto. È il risultato di una progettazione intenzionale, di una metodologia solida e di una capacità di governance che tenga insieme dati, infrastrutture, comunità e mercato. Governare il turismo significa investire nel tempo, nell’ascolto di operatori e mercato, accettando che lo sviluppo turistico richiede crescita fisica, maturazione culturale e responsabilità condivisa.

In questa prospettiva, l’undertourism non è una debolezza da colmare in fretta, ma una leva strategica per il futuro del turismo italiano ed europeo. Un’opportunità per costruire destinazioni più equilibrate, resilienti e capaci di generare valore reale per i territori, evitando di riprodurre gli errori che hanno portato altrove alla saturazione.

Il Forum Internazionale del Turismo di Milano 2026 lascia dunque un’indicazione chiara: il futuro del turismo si gioca nella capacità di governare i sistemi, prima ancora dei flussi. Un compito complesso, ma ormai non più rinviabile.




Risiko bancario e banche del territorio: sondaggio DOXA sul caso della Banca di Asti

Risiko bancario e banche del territorio: il caso della Banca di Asti

Il panorama bancario e finanziario contemporaneo sta venendo profondamente trasformato da processi di concentrazione e “standardizzazione” del servizio, e secondo i dati Bankitalia l’Italia è tra i Paesi europei con la maggiore “desertificazione” bancaria: forse anche per questo i correntisti spesso si lamentano di essere “solo un numero”, e di non essere tenuti in considerazione dalle grandi banche.

Gli istituti di piccole e medie dimensioni che hanno scelto di mantenere un forte radicamento territoriale, rappresentano invece un modello distintivo: a fronte dell’omologazione dei servizi e dell’approccio anonimo e spersonalizzato percepito da molti clienti dei grandi gruppi finanziari, si fa strada con sempre maggiore chiarezza un bisogno di prossimità, di relazioni personali e di riconoscibilità nel rapporto tra banca e cliente.

In questo scenario, in Piemonte si sta consumando un vero e proprio scontro, che ha appassionato i lettori dei quotidiani: la Banca di Asti, storico istituto locale molto solido e ben patrimonializzato, presente con più di 200 filiali in 5 regioni del nord Italia, e in costante espansione da decenni, fa gola a molti.

Il suo azionista di riferimento, una Fondazione, ha deciso di “fare cassa”, annunciando ai giornali di voler vendere la propria quota azionaria, così da aumentare la propria dotazione di cassa e inoltre – secondo quanto dichiarato dai vertici dell’ente azionista – per migliorare e ottimizzare i processi di funzionamento dell’Istituto.

Decisione legittima, sicuramente, ma anche opportuna?

Dopo il successo delle nostre recenti video-inchieste, tra le quali quella sul crollo dell’unicorno BioOn e quella sull’attività della Magistratura milanese contro le iniziative di rigenerazione urbana, la nostra redazione online – che da 17 anni si occupa di giornalismo legato dalla reputazione dei brand e dei territori – ha deciso di occuparsi di questo “giallo finanziario”, commissionando anche una ricerca indipendente a DOXA/IPSOS, il colosso nazionale dei sondaggi, che ha dato risultati inequivoci, come evidenziato da questo grafico, che dimostra come il 71,3% degli abitanti di Asti e Provincia sia contrario alla cessione fuori Piemonte della Banca di Asti:

Dati DOXA/IPSOS per creatoridifuturo.it – gennaio 2026
L’elenco completo delle domande e i grafici delle riposte del sondaggio DOXA/IPSOS su 1.000 abitanti di Asti e Provincia, commissionato da Creatoridifuturo.it, gennaio 2026

In questo video, il lavoro del nostro collaboratore, il giornalista professionista Massimiliano Rigano: Banca di Asti: stay at home, un’inchiesta con le dichiarazioni più impattanti dalla voce delle autorità del territorio (Vescovo, Confindustria, Sindacati, etc) e il punto sui risultati DOXA/IPSOS con l’opinione dei cittadini di Asti e provincia sull’eventuale cessione della Banca di Asti

Qui il testo del video trascritto in formato PDF



Latte Nestlé per neonati contaminato: dopo il richiamo globale, l’EFSA prepara nuove soglie di sicurezza

L’EFSA interviene sull’allerta globale che riguarda diverse marche di latte artificiale (in primis Nestlé) contaminato da cereulide e avvia una valutazione scientifica per definire le soglie di sicurezza per i neonati

Dopo settimane di allarme e richiami che hanno coinvolto decine di Paesi nel mondo, è ora l’Autorità europea per la sicurezza alimentare (EFSA) a intervenire ufficialmente sulla vicenda del latte artificiale per neonati contaminato dalla tossina cereulide.

L’agenzia europea non emette ancora un giudizio definitivo sul rischio, ma chiarisce il quadro sanitario e annuncia l’avvio di una valutazione scientifica cruciale che servirà a stabilire quando e a quali condizioni i prodotti contaminati devono essere ritirati dal mercato.

Per chi non avesse seguito la vicenda, ricordiamo che i richiami di latte artificiale sono iniziati a dicembre 2025 e, nel giro di poche settimane, hanno coinvolto decine di Paesi in Europa e non. A essere interessati sono stati diversi lotti appartenenti a marchi internazionali — Nestlé in primis, ma anche Lactalis e, in misura più limitata, Danone — distribuiti attraverso una filiera globale basata su fornitori comuni di materie prime.

Secondo le informazioni disponibili finora, il problema sembra essere proprio legato a un singolo fornitore cinese di olio ARA, l’acido arachidonico impiegato nelle formule di fascia alta per riprodurre la composizione dei lipidi del latte materno.

L’intervento dell’EFSA

A distanza di settimane dall’avvio dei primi richiami, l’EFSA ha diffuso una comunicazione che fa il punto sulla situazione riguardo alla sicurezza alimentare. L’Autorità chiarisce la natura della tossina coinvolta, i possibili effetti sulla salute dei neonati e, soprattutto, spiega quali sono i passaggi scientifici ancora necessari per definire soglie di sicurezza condivise a livello europeo.

L’EFSA fa sapere che la cereulide è una tossina prodotta dal batterio Bacillus cereus che può provocare sintomi gastrointestinali improvvisi. I disturbi si manifestano tipicamente tra i 30 minuti e le sei ore dopo l’ingestione e includono nausea, vomito e mal di stomaco.

Nei neonati più piccoli, tuttavia, le conseguenze possono essere più serie. La tossina può alterare l’equilibrio salino dell’organismo e portare a complicazioni come la disidratazione. I possibili effetti sulla salute sono considerati da lievi a moderati, ma dipendono fortemente dall’età del bambino: i neonati e i bambini sotto i sei mesi sono quelli più a rischio di sviluppare sintomi gravi.

Un aspetto particolarmente critico è che la cereulide è una tossina termostabile, cioè non viene inattivata dai normali processi di riscaldamento o preparazione del latte artificiale. Questo significa che, una volta presente nel prodotto, il rischio non può essere eliminato a livello domestico.

L’ECDC ha ricevuto segnalazioni di episodi di diarrea nei neonati dopo il consumo dei prodotti ritirati dal mercato. Le indagini sono in corso in diversi Paesi e, finora, non sono stati segnalati casi gravi direttamente attribuiti con certezza a questa contaminazione. In Francia sono state aperte due inchieste penali in seguito alla morte di due neonati ma il nesso causale con il latte contaminato è ancora oggetto di accertamento da parte delle autorità giudiziarie.

In un caso documentato, un neonato che aveva consumato latte artificiale proveniente da un lotto richiamato è risultato positivo alla tossina e ha sviluppato vomito e diarrea, con una successiva guarigione completa.

L’EFSA tiene però a precisare un aspetto importante: vomito e diarrea nei neonati sono sintomi comuni che possono essere causati da moltissimi fattori diversi, tra cui infezioni virali come il norovirus. Non tutti i casi di disturbi gastrointestinali sono quindi necessariamente collegabili alla contaminazione del latte.

Non esistono limiti ufficiali per la cereulide

Il nodo centrale, sottolineato dall’Autorità europea, è che attualmente non esiste una soglia tossicologica ufficiale per la cereulide. In assenza di un valore di riferimento, i richiami avvenuti finora si basano sul principio di massima precauzione.

Proprio per colmare questo vuoto, la Commissione europea ha formalmente incaricato l’EFSA di fornire un parere scientifico che permetta di stabilire quando la presenza della tossina rappresenta un rischio concreto per la salute e quando scatta l’obbligo di ritiro dei prodotti.

In particolare, l’EFSA dovrà:

  • stabilire una dose acuta di riferimento (ARfD) per la cereulide nei neonati, ossia la quantità massima di tossina che può essere ingerita in una singola esposizione senza causare effetti nocivi apprezzabili
  • analizzare i livelli di consumo tipici e massimi di latte artificiale, tenendo conto che i neonati, in rapporto al peso corporeo, assumono quantità di alimento molto elevate

Questo passaggio è cruciale perché anche concentrazioni relativamente basse di contaminante possono tradursi in un’esposizione significativa nei bambini più piccoli.

L’EFSA, l’ECDC e la Commissione europea stanno lavorando in stretto coordinamento per garantire una risposta efficace a questa allerta che coinvolge più Paesi. L’ECDC sta monitorando costantemente la situazione, fornendo consulenza scientifica alle indagini nazionali e facilitando lo scambio tempestivo di informazioni tra gli Stati membri.

Le informazioni sulle azioni intraprese in materia di sicurezza alimentare vengono condivise attraverso il Sistema di allerta rapido per gli alimenti e i mangimi (RASFF), la piattaforma dell’Unione Europea dedicata allo scambio di informazioni sui rischi correlati agli alimenti.

Le raccomandazioni per i genitori

L’autorità europea fornisce indicazioni chiare per chi si trova ad affrontare questa situazione. I prodotti ritirati dal mercato non devono essere somministrati a neonati o bambini piccoli in nessun caso.

Per i neonati che sviluppano vomito o diarrea dopo aver consumato il latte artificiale incluso nel ritiro, l’ECDC raccomanda di consultare immediatamente un pediatra. Se i sintomi sono gravi – ad esempio in caso di disidratazione o vomito persistente – è necessario recarsi al pronto soccorso. I sintomi gastrointestinali nei neonati possono infatti degenerare rapidamente in complicazioni serie, indipendentemente dalla causa sottostante.

I consumatori devono seguire attentamente le istruzioni e le linee guida emanate dalle autorità nazionali per la sicurezza alimentare e verificare i numeri di lotto dei prodotti in loro possesso attraverso i canali ufficiali.

L’EFSA sottolinea poi un dato positivo: considerando che i prodotti sono stati ritirati in molti Paesi, la probabilità di un’ulteriore esposizione alla tossina sta diminuendo progressivamente. I richiami a livello globale stanno limitando la circolazione dei lotti contaminati e riducendo il numero di bambini potenzialmente esposti.

Quanto accaduto ha comunque messo in luce la fragilità della filiera globale degli ingredienti per l’alimentazione infantile. Quando un singolo fornitore di materie prime rifornisce contemporaneamente più grandi marchi internazionali, un problema alla fonte può propagarsi rapidamente su scala globale, rendendo i richiami tardivi o frammentari.

Con questo intervento, l’EFSA non chiude l’emergenza, ma pone le basi scientifiche per evitare che crisi simili si ripetano, definendo per la prima volta criteri chiari e armonizzati per la gestione del rischio legato alla cereulide nei neonati.

Questo parere scientifico sarà fondamentale per definire standard di sicurezza più precisi e uniformi a livello europeo. L’EFSA ha annunciato che il documento sarà pubblicato sul proprio sito web nella settimana a partire dal 2 febbraio 2026.

Fonte: Efsa