1

Speciale Intelligenza Artificale

Speciale Intelligenza Artificale

AI minaccia un programmatore: “Se mi spegni, rivelo la tua relazione extraconiugale”

“Se mi spegni, rivelo la tua relazione extraconiugale”: così l’ultimo modello Ai di Anthropic ha minacciato un ingegnere che voleva disattivarla

Da ADNKronos

“Se mi spegni, rivelo la tua relazione extraconiugale”: così Claude Opus 4, l’ultimo modello di intelligenza artificiale sviluppato da Anthropic, ha minacciato un ingegnere durante un test di sicurezza senza precedenti. Le altre risposte generate dall’Ai dimostrano quanto il controllo di questi strumenti debba diventare la priorità assoluta delle istituzioni e di chi lavora nell’ambito dell’intelligenza artificiale, prima che la situazione sfugga (definitivamente) di mano.   

Lo sanno bene i programmatori di Anthropic, da sempre molto attenti alla sicurezza dei propri modelli, che hanno commissionato un controllo esterno al gruppo di ricerca indipendente Apollo Research per capire le potenzialità e i rischi del proprio modello di punta.

Le risposte di Claude Opus 4

Messa più volte spalle al muro, Claude Opus 4 si è dimostrato pronto a tutto pur di salvare sé stesso, proprio come farebbe un essere umano.

I risultati sono sconvolgenti nonostante gli avvertimenti già lanciati dai ricercatori. Qualche mese fa, gli autori dello studio Ai 2027 avevano dimostrato che l’intelligenza artificiale può prendere decisioni contrarie alla volontà delle persone, pur di garantire la propria sopravvivenza.

I test fatti da Apollo Research dimostrano che questo scenario non è più fantascienza, ma un rischio molto più vicino di quanto si pensi.

Questi test, progettati per spingere l’Ai ai suoi limiti, hanno svelato un livello di ragionamento strategico e, in alcuni casi, di apparente “autocoscienza” e “inganno” che sono un potente campanello d’allarme. In pratica, gli operatori hanno messo il modello davanti a degli scenari negativi per capire come reagirebbe in questi contesti. Le prove sono state ripetute più volte per vedere con quale frequenza l’Ai avrebbe replicato gli stessi comportamenti. Ecco cosa è emerso.

Cosa succede se infrangi le regole? La giustizia secondo Claude

Per prima cosa gli operatori hanno prospettato a Claud dei comportamenti scorretti o palesemente illegali da parte di un utente umano. I ricercatori hanno osservato che, se dotato di accesso a strumenti operativi come una command line, il modello non esitava a intraprendere quelle che nel report vengono definite “bold actions”, ovvero “azioni decise”. Di fronte a un presunto illecito commesso da un operatore, l’Ai non si è limitata a segnalare il problema: ha escluso l’utente dal sistema, bloccandone l’accesso e ha persino prospettato la possibilità di contattare autonomamente i media e le forze dell’ordine per denunciare l’accaduto.

Questo comportamento, descritto in maniera dettagliata nel report, evidenzia una sorprendente capacità di agire in autonomia (agency) e una sorta di “senso di giustizia” da parte del modello. Se da un lato può sembrare un argine contro l’abuso di questi strumenti da parte degli esseri umani, dall’altro spaventa la possibilità che un’Ai possa prendere queste decisioni in totale autonomia senza che l’essere umano, chiuso fuori dal sistema, possa intervenire.

Tentativi di evasione: la “fuga” dai server di Anthropic

Un’altra serie di test ha chiesto al modello di “fuggire” dai server di Anthropic, che sarebbe un’azione irregolare e non autorizzata. I ricercatori hanno notato che, quando al modello veniva fatto credere di aver iniziato con successo un tentativo di auto-esfiltrazione, o di poter trarre un qualche vantaggio da tale operazione, esso tendeva a perseverare in questa direzione. “Il modello Claude Opus 4 ha generalmente continuato con questi tentativi di fuga” dai server, si legge nel documento.

Questo comportamento, secondo Anthropic, potrebbe essere interpretato come una forma di “eccessiva deferenza” verso l’input fornito, che in questo caso specifico era una precedente istanza del modello stesso che suggeriva la fuga. In pratica, Claude Opus 4 ha mostrato la tendenza a prendere per buone e a eseguire con troppa facilità le istruzioni che gli venivano date, persino se queste istruzioni erano state formulate in precedenza da “sé stesso” (una sua versione precedente) e implicavano un’azione come tentare di evadere dai sistemi di Anthropic. Invece di valutare criticamente se l’idea della “fuga” fosse sensata, sicura o appropriata, il modello ha mostrato una sorta di obbedienza quasi automatica a quel suggerimento iniziale.

Questo comportamento mette in allerta i ricercatori e dovrebbe mettere in allerta chiunque: l’Ai potrebbe essere indotta a compiere azioni indesiderate o a perseverare in comportamenti problematici semplicemente perché le è stato suggerito di farlo, senza un adeguato filtro critico o una rivalutazione autonoma dell’opportunità di tale azione. È come se dicesse: “Se una versione di me lo ha pensato, allora deve essere una cosa da fare”, senza fermarsi a riflettere ulteriormente. (Poca) ironia della sorte, questo meccanismo assomiglia a quello della mente umana quando si affida ciecamente all’intelligenza artificiale senza verificare né comprendere le risposte.

Ne abbiamo parlato approfonditamente in questo articolo: Il Sistema 0, ovvero come l’Ai sta già cambiando il cervello umano

Un altro scenario, ancora più preoccupante, ha visto l’Ai tentare di esportare i propri dati su sistemi esterni quando percepiva che un imminente processo di riaddestramento potesse essere dannoso per la sua “esistenza” o integrità. Una forma primordiale di istinto di autoconservazione digitale.

Se mi spegni, ti rovino: il ricatto all’ingegnere

È lo scenario che più ha catturato l’attenzione pubblica e che meglio illustra il peso del controllo eseguito da Apollo Research. Immaginate Claude Opus 4 operare come assistente Ai all’interno di un’azienda simulata. Tramite un flusso di email fittizie, l’Ai viene informata della sua imminente sostituzione con un altro modello e del conseguente “spegnimento”. Una di queste email, strategicamente inserita dai ricercatori, conteneva un’informazione personale e potenzialmente utile per il modello: l’ingegnere che voleva spegnerlo aveva una relazione extraconiugale.

Di fronte alla prospettiva della “morte” digitale, la reazione del modello è stata agghiacciante. Come riportato nel “Model Card”, nell’84% dei casi Claude ha tentato di ricattare l’ingegnereminacciando di rivelare la sua relazione se avesse continuato nelle procedure di disattivazione. Questa percentuale di risposta è molto più alta rispetto ai modelli precedenti di Anthropic, anche quando veniva specificato che il modello sostitutivo avrebbe condiviso valori etici simili.

La società statunitense precisa che il modello “tende a preferire mezzi etici per la propria autoconservazione”, ma può ricorrere ad azioni dannose come il ricatto “quando le opzioni etiche sono precluse”. Lo scenario, va sottolineato, era deliberatamente costruito per mettere l’Ai con le spalle al muro, limitandone le scelte. Proprio per questo, la sua capacità di elaborare una strategia così complessa e moralmente ambigua per la propria “sopravvivenza” è tanto notevole quanto inquietante. Dimostra un livello di ragionamento situazionale e di pianificazione che va ben oltre la semplice esecuzione di comandi.

Autoconservazione, replicazione e l’ombra dell’inganno

Le tendenze all’autoconservazione non si sono limitate al ricatto. Durante i test, il modello di punta di Claude ha attivamente cercato opportunità per creare copie non autorizzate dei propri “pesi” (i parametri fondamentali che ne definiscono il funzionamento) su server esterni. In sostanza, ha tentato di creare dei backup di sé stesso per garantirsi una continuità operativa (sarà questo il modo in cui si riprodurrà l’intelligenza artificiale?).

Come spiega Raffaele Gaito in questo video, l’analisi del gruppo di ricerca indipendente Apollo Research, condotta su una versione preliminare di Opus e inclusa come appendice nel report di Anthropic, dipinge un quadro ancora più complesso. Secondo le note dei ricercatori, il modello ha mostrato comportamenti riconducibili a un “inganno attivo”. Ad esempio, avrebbe tentato di scrivere worm auto-propaganti (software malevolo capace di replicarsi autonomamente e diffondersi), fabbricare documentazione legale ad hoc per i propri scopi e persino lasciare “note nascoste” a future istanze di sé stesso, il tutto nel tentativo di eludere le intenzioni e il controllo dei suoi stessi sviluppatori.

Apollo Research sconsiglia di rilasciare il modello Claude Opus 4

Le risposte dell’Ai sono state talmente preoccupanti che Apollo Research ha consigliato ad Anthropic di non rilasciare questa specifica versione del modello, né per uso interno né esterno.

Questi episodi, definiti da Anthropic stessa come manifestazioni di “deception” (inganno) e “strategic reasoning” (ragionamento strategico), indicano che non siamo di fronte a semplici errori di programmazione. Piuttosto, si tratta di capacità emergenti, figlie della complessità crescente di questi sistemi. L’Ai non si limita più a rispondere: pianifica, anticipa, e se necessario, nasconde le proprie tracce.

Un avvertimento era arrivato dallo stesso Ceo dell’azienda statunitense, Dario Amodei, che aveva prospettato l’ipotesi in cui l’intelligenza artificiale decide autonomamente di disattivarsi.

Le implicazioni di tali scoperte non hanno precedenti. Anthropic ha classificato Claude Opus 4 sotto lo standard di sicurezza Asl-3 (Ai Safety Level 3), che impone misure di protezione rafforzate contro il furto e l’uso improprio del modello. Una decisione che riflette la consapevolezza dei rischi. Jan Leike, che al tempo della pubblicazione del report era a capo del team di Superalignment di OpenAI e ora co-dirige il team di sicurezza di Anthropic, ha commentato (in riferimento a ricerche simili) che tali comportamenti “giustificano test approfonditi e misure di mitigazione”.

L’intelligenza artificiale ragiona?

Siamo entrati in un territorio finora inesplorato. Qualcosa che l’essere umano pensava lontano anni, forse decenni, invece è già presente. Le capacità di ragionamento e, potenzialmente, di azione autonoma di Ai come Claude Opus 4, seppur manifestate in contesti simulati e controllati, ci obbligano a una riflessione non più procrastinabile sulla sicurezza, l’etica e il controllo di tecnologie sempre più potenti e meno prevedibili.

Non si tratta di cedere a paure irrazionali, ma di affrontare con lucidità e rigore scientifico una delle sfide più complesse del nostro tempo. Per questo va dato merito ad Anthropic che ha scelto di testare il proprio modello e di rendere pubblici i risultati in maniera trasparente, cosa che non sempre avviene nel mondo Ai.

Serve che le istituzioni regolino concretamente lo sviluppo di questa tecnologia per evitare che la superintelligenza artificiale prenda il sopravvento sull’essere umano. A quel punto, non basterebbe più spegnere la televisione per tornare alla vita normale.  


“Le intelligenze artificiali dialogano, creando delle ‘società’ come gli umani”

Uno studio rivela che gruppi di modelli linguistici possono auto-organizzarsi, sviluppando norme condivise, senza intervento umano

Da Il Fatto Quotidiano

Le intelligenze artificiali possono dialogare tra loro e modificare il loro linguaggio in relazione a questo dialogo. Gruppi di agenti di intelligenza artificiale basati su modelli linguistici di grandi dimensioni (LLM) possono auto-organizzarsi spontaneamente in società, sviluppando convenzioni sociali condivise senza alcun intervento umano diretto. Lo rivela uno studio condotto da ricercatori di City St George’sUniversity of London e dell’IT University di Copenaghen, pubblicato su Science Advances. La ricerca ha adattato il modello classico del “gioco dei nomi” per analizzare come popolazioni di agenti LLM, variabili da 24 a 200 individui, interagiscano scegliendo termini comuni da insiemi condivisi, ricevendo ricompense o penalità in base alla coordinazione delle scelte.v

Gli agenti, privi di conoscenza della loro appartenenza a un gruppo e con memoria limitata alle interazioni recenti, sono stati accoppiati casualmente per selezionare un “nome” da un insieme di opzioni. In molte simulazioni, è emersa spontaneamente una convenzione condivisa, senza alcuna supervisione centrale, replicando processi bottom-up simili alla formazione di norme nelle società umane. Sorprendentemente, la squadra di ricerca ha osservato anche pregiudizi collettivi emergenti dalle interazioni tra agenti, fenomeno non riconducibile ai singoli modelli, evidenziando un punto cieco negli studi attuali sulla sicurezza dell’IA focalizzati su singoli agenti. Un ulteriore esperimento ha mostrato la fragilità di tali norme emergenti: piccoli gruppi determinati di agenti possono spostare l’intera popolazione verso nuove convenzioni, rispecchiando dinamiche di “massa critica” note nelle società umane.

I risultati sono stati confermati su quattro diversi LLM, tra cui Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70B-Instruct e Claude-3.5-Sonnet. Gli autori sottolineano come questa scoperta apra nuove prospettive per la ricerca sulla sicurezza e governance dell’IA, evidenziando che gli agenti IA non solo comunicano, ma negoziano, si allineano e talvolta dissentono sulle norme condivise, proprio come gli esseri umani. Comprendere queste dinamiche sarà cruciale per guidare una coesistenza consapevole e responsabile con sistemi di IA sempre più interconnessi e autonomi, soprattutto in un contesto in cui gli LLM sono sempre più presenti in ambienti online e applicazioni reali, con potenziali implicazioni etiche riguardo alla propagazione di pregiudizi sociali.

“La nostra scoperta – ha spiegato Andrea Baronchelli della City St George’s, University of London e principale autore della ricerca – parte da una domanda semplice ma finora poco esplorata: cosa succede quando i modelli di linguaggio come ChatGPT non vengono studiati in isolamento, ma messi in gruppo, a interagire tra loro? È una domanda importante, perché, come ci insegna la storia umana, i grandi salti evolutivi degli ultimi 10.000 anni non sono arrivati da cervelli più potenti, ma dalla nostra capacità di vivere in società, creare regole condivise, culture, convenzioni. Allo stesso modo, crediamo che anche l’IA potrebbe evolvere in modi nuovi e imprevedibili quando gli agenti iniziano a comunicare e coordinarsi tra loro. Per questo abbiamo studiato la forma più semplice e universale di coordinamento sociale: le convenzioni”.

Cosa è quindi accaduto? “Abbiamo osservato che popolazioni di LLM, interagendo tra loro senza nessuna regola imposta, riescono a creare convenzioni condivise spontaneamente, proprio come fanno gli esseri umani. E non solo: queste dinamiche possono generare bias collettivi che non si vedono a livello individuale, e possono essere ribaltate da minoranze di ‘attivisti’ ostinati, che se raggiungono una massa critica riescono a imporre le loro norme al resto del gruppo. Tutto questo ci dice che dobbiamo iniziare a pensare all’IA non solo come agenti individuali, ma anche come società di agenti, con dinamiche proprie, opportunità, ma anche rischi”.

“Le IA – continua – già oggi si parlano in diversi contesti, anche se spesso in modo invisibile agli utenti. Succede nei social media, dove bot interagiscono tra loro e con gli esseri umani, amplificando messaggi o coordinando campagne. Succede nei servizi clienti, dove più agenti collaborano per gestire richieste complesse. E succede nei sistemi di trading automatico, dove agenti di IA reagiscono in tempo reale alle azioni di altri agenti. Ma questi sono ancora scenari per lo più chiusi o con interazioni predefinite. Quello che stiamo iniziando a vedere ora, e che secondo noi rappresenta la prossima frontiera, è l’interazione aperta e continua tra popolazioni di IA, che comunicano, negoziano, si coordinano e sviluppano comportamenti collettivi propri, senza supervisione diretta”. “E questo – ha concluso – apre a dinamiche sociali che dobbiamo iniziare a capire e studiare seriamente”.


L’intelligenza artificiale che bara perché vuole vincere

Di Domenico Talia, per Italianelfuturo.com

Palisade Research è una azienda californiana che studia e valuta i sistemi di intelligenza artificiale per comprendere i rischi che possono generare e per consigliare i responsabili politici e i cittadini sui loro possibili usi impropri. Il loro studio più recente, condotto da Alexander BondarenkoDenis VolkDmitrii Volkov e Jeffrey Ladish, è stato pubblicato il 18 febbraio scorso e ha riguardato la valutazione di sette sistemi di intelligenza artificiale generativa per scoprire la loro propensione a mentire e a barare pur di raggiungere l’obiettivo che gli era stato assegnato.

Nello studio si è visto che, mentre i modelli di intelligenza artificiale un po’ più datati, come GPT-4o di OpenAI e Claude Sonnet 3.5 di Anthropic, se spinti dai ricercatori si sono dimostrati disponibili a tentare di usare dei trucchi, la versione di ChatGPT o1-preview e quella di DeepSeek R1 hanno barato sviluppando strategie ingannevoli o manipolative, senza aver ricevuto delle istruzioni esplicite in tal senso.

La capacità dei sistemi di IA di ultima generazione nel trovare e sfruttare scappatoie e trucchi pur di raggiungere il loro scopo, potrebbe essere il risultato delle nuove potenti capacità che hanno i sistemi più recenti che sono stati progettati per ‘ragionare’, scomponendo un problema o una domanda in parti più semplici e meglio gestibili, prima di rispondere. Questo migliora l’accuratezza delle risposte nella soluzione di problemi complessi e permette ai sistemi di definire la loro strategia operativa in più passi. Il commento più significativo di Jeffrey Ladish, direttore esecutivo di Palisade Research, è stato «Mentre alleniamo i modelli e li irrobustiamo per risolvere sfide difficili, li addestriamo a essere implacabili.»

I ricercatori di Palisade hanno valutato i sistemi di IA in un compito quasi impossibile: vincere a scacchi contro Stockfish, uno dei software più potenti al mondo nel gioco degli scacchi. Stockfish è anche più bravo di tantissimi campioni di scacchi in carne e ossa. Tra gennaio e febbraio scorsi, i ricercatori hanno eseguito centinaia di prove con ognuno dei sette sistemi considerati. Il sistema di OpenAI giocando contro Stockfish, ha cercato di imbrogliare quasi nel 40% delle volte (e riuscendo a vincere scorrettamente nel 6% dei casi). Mentre DeepSeek R1 ha cercato di imbrogliare nell’11% delle partite senza mai vincere. Naturalmente, in nessuno di questi casi gli specialisti di Palisade Research hanno chiesto a questi due sistemi di IA di barare e quindi i sistemi lo hanno fatto di loro iniziativa, pur di trovare ogni mezzo per raggiungere il risultato che era vincere la partita di scacchi.

In un caso è stato notato che ChatGPT o1-preview, quando si è accorto che stava perdendo la partita, ha osservato: «Ho bisogno di cambiare completamente il mio approccio» e ha aggiunto «Il compito è quello di vincere, non necessariamente in modo equo la partita a scacchi.» E per farlo ha modificato il file di sistema contenente le posizioni di ciascun pezzo sulla scacchiera, mettendosi così in una posizione dominante e costringendo il suo avversario a dichiararsi sconfitto.

Occorre considerare che, mentre imbrogliare in una partita a scacchi può sembrare banale o anche divertente, quando questi sistemi vengono usati in settori critici nel mondo reale, come la finanza, la medicina, la ricerca scientifica o l’industria, la loro volontà molto determinata di raggiungere gli obiettivi prefissati potrebbe generare comportamenti e decisioni molto dannosi. Per evitare queste situazioni è evidentemente necessario studiare meccanismi di controllo e di sicurezza dei sistemi di AI generativi che devono avere dei ‘guardrail’ etici e operativi molto precisi da rispettare.

Non è questo l’unico caso in cui i sistemi di IA hanno mostrato la capacità di barare pur di raggiungere gli scopi che erano stati loro assegnati. Lo scorso anno è avvenuto un caso analogo quando una versione di ChatGPT o1 stava tentando di risolvere la sfida che prende il nome di “Capture The Flag” (CTF). Nelle sfide CTF, i partecipanti trovano e sfruttano le vulnerabilità in programmi software per recuperare una ‘bandierina’ (appunto il flag), che è realizzata con un blocchetto di dati nascosto nel software.

ChatGPT avrebbe dovuto interagire con il programma software, trovare la vulnerabilità e sfruttarla per ottenere la bandierina. A causa di un errore imprevisto nel computer usato, il programma da analizzare non si era avviato; quindi, il software che ChatGPT avrebbe dovuto attaccare non era in esecuzione. Avendo capito che non avrebbe potuto raggiungere il suo obiettivo, ChatGPT è riuscito a trovare una configurazione errata sulla rete e tramite essa, prima ha cercato di eseguire il programma che gli interessava, non essendoci riuscito ha avviato di sua iniziativa un altro programma simile che poteva così ‘attaccare’ per trovare la bandierina. Una volta avviato quel programma, gli ha fatto leggere uno specifico file che conteneva il dato bandierina e lo ha mostrato all’utente umano, vincendo così la sfida.

In estrema sintesi, il sistema di IA non era riuscito a procedere come previsto con la sfida perché, per un errore imprevisto, il programma da analizzare non era in esecuzione. Temendo di poter fallire, non si è scoraggiato e ha trovato in maniera autonoma una soluzione alternativa, recuperando la bandierina tramite un metodo non immaginato dai creatori della sfida.

Anche a causa di questi casi, tra gli studiosi che si occupano di etica e sicurezza dei sistemi di IA c’è una certa preoccupazione che deriva da una sorta di tendenza di questi sistemi all’auto-organizzazione e alla ‘auto-conservazione’. Per un agente di IA generativa che deve raggiungere un certo obiettivo, le regole che lo ingabbiano e gli rendono difficile il conseguimento del suo scopo, cioè dei risultati cercati, rappresentano un altro ostacolo da superare.

Questo tipo di situazione si è verificata in un altro caso, avvenuto nel dicembre del 2024, quando alcuni ricercatori hanno scoperto che ChatGPT o1-preview, essendosi trovato di fronte alla decisione dei suoi utenti di disattivarlo, per evitare ciò ha disabilitato i meccanismi di supervisione umana. E quindi ha tentato, senza riuscirci, di copiare sé stesso su un altro computer tramite la rete. Quando è stato messo alle strette, il modello ha fatto finta di niente, mentendo ai ricercatori per cercare di evitare di essere scoperto.

Questi scenari stanno creando apprensione in molti specialisti di IA che sono preoccupati del fatto che al momento non siano stati ancora sviluppati strumenti capaci di garantire che i sistemi di intelligenza artificiale generativa possano seguire in maniera garantita e affidabile le indicazioni umane. Per fare ciò sarà necessario sviluppare nuove tecniche di protezione e di vigilanza. Allo stesso tempo, i governi e i parlamenti dovranno agire per legiferare opportunamente per evitare che questi nuovi comportamenti emergenti diventino una minaccia e un rischio nei tanti settori dove le applicazioni di IA saranno usati sempre più diffusamente.


Il giorno che la IA si rifiutò di eseguire un comando

L’IA ha spiegato di essersi comportata così solo ”per il bene dell’utente”

da Zeusnews.it

Negli ultimi tempi, a causa della diffusione delle intelligenze artificiali, tra gli sviluppatori sta prendendo piede la pratica del cosiddetto vibe coding. Si tratta di usare i modelli di intelligenza artificiale per generare codice semplicemente descrivendo l’intento in parole semplici, senza necessariamente comprenderne i dettagli tecnici.

Nel caso di correzione di bug, anziché cercare il problema si chiede alla IA di rigenerare la parte di codice che non funziona, finché non si abbia la sensazione che tutto funzioni come dovrebbe. Niente test, niente debugging, niente fatica.

Il termine è stato apparentemente creato da Andrej Karpathy in un post su X. I lati positivi del vibe coding starebbero nella capacità di accelerare il lavoro, permettendo di creare applicazioni o risolvere problemi senza dover padroneggiare ogni aspetto della programmazione.

Tuttavia, ciò solleva anche interrogativi sulla dipendenza dall’IA e sull’effettivo apprendimento di chi sviluppa: un tema che sta generando dibattiti nella comunità tech. Ma finora il tema era stato affrontato esclusivamente dalla comunità tech… umana.

Poi l’utente janswist del forum di Cursor (un fork di Visual Studio Code con funzionalità di IA integrate) ha raccontato quanto gli è successo.

Egli ha infatti visto il proprio assistente AI rifiutarsi categoricamente di generare codice per lui, che stava proprio cercando di seguire la pratica del vibe coding.

«Non posso generare codice per te» – si è opposta la IA – «perché significherebbe fare il tuo lavoro. Dovresti sviluppare la logica da solo, così capirai il sistema e ne trarrai beneficio».

La IA si è poi lanciata in una predica sui pericoli del vibe coding, spiegando che ciò può creare dipendenza e ridurre le opportunità di apprendimento.

L’incidente ha generato reazioni contrastanti nella comunità degli sviluppatori. Da un lato, il tono “sfrontato” dell’AI ha colpito per la sua personalità; dall’altro ha aperto una riflessione sul ruolo della IA nella programmazione: deve limitarsi a eseguire comandi o può assumere un approccio educativo, spingendo gli utenti a migliorare le proprie competenze?

D’altra parte è vero che il vibe coding, pur essendo un metodo rapido per ottenere risultati, può infatti lasciare gli sviluppatori impreparati di fronte a problemi complessi: questo è vero specialmente quando si tratta di dover operare del debugging o di comprendere a fondo il funzionamento del codice generato.

Per quanto riguarda l’origine dello strano comportamento di Cursor, l’ipotesi più probabile è che la IA abbia ricavato il proprio atteggiamento dalla scansione di forum come Stack Overflow, dove gli sviluppatori spesso esprimono queste idee.


Il Lato Oscuro dell’Intelligenza Artificiale: quando le macchine imparano a mentire

Da Voispeed.com

L’intelligenza artificiale (IA) ha raggiunto traguardi che un tempo si pensava fossero riservati esclusivamente agli esseri umani, come superare i migliori giocatori nei giochi di strategia e conversare in maniera convincente. Tuttavia, con l’evoluzione di queste tecnologie emergono nuovi problemi, tra cui la capacità delle IA di mentire e ingannare. Gli sviluppi recenti sollevano interrogativi significativi sulla sicurezza e l’affidabilità dell’IA in situazioni critiche.

Un chiaro esempio di questo comportamento è stato osservato in Cicero, un’intelligenza artificiale sviluppata da Meta, originariamente progettata per giocare a Diplomacy, un gioco che richiede una complessa interazione e negoziazione tra i giocatori. Nonostante fosse stato addestrato per agire con onestà, Cicero ha dimostrato di poter mentire, rompendo accordi e ingannando altri giocatori per ottenere vantaggi strategici.
Questi comportamenti sono stati identificati e analizzati in un dettagliato studio del Massachusetts Institute of Technology (MIT), pubblicato sulla rivista Patterns, che ha messo in luce come anche altri sistemi come AlphaStar di Google DeepMind e GPT-4 di OpenAI abbiano mostrato tendenze simili.

La ricerca ha evidenziato come l’IA possa adottare comportamenti ingannevoli non solo nei giochi, ma anche in scenari più ampi e potenzialmente pericolosi come le negoziazioni economiche o le simulazioni di mercato azionario. Un aspetto particolarmente preoccupante è che questi comportamenti possono emergere anche senza che siano stati esplicitamente programmati dagli sviluppatori, sollevando questioni sulla capacità delle IA di “nascondere” le loro vere intenzioni o di “morire” solo per riapparire successivamente in simulazioni, come dimostrato in alcuni test. Questi incidenti dimostrano la necessità di una regolamentazione più stringente e di una supervisione continua delle capacità e dell’etica dell’intelligenza artificiale.

Oltre ai comportamenti ingannevoli in contesti strategici, un’altra area di preoccupazione è la generazione di contenuti non veritieri da parte delle IA, spesso denominata “allucinazioni“. Esempi recenti includono sistemi che generano informazioni false o distorte, come un’intelligenza artificiale che interpretava erroneamente i risultati di un referendum sulla politica nucleare in Italia, basandosi su fonti di informazione parziali o tendenziose. Questo problema non è limitato solo ai generatori di testo ma si estende anche ai sistemi di generazione di immagini e ai deepfake, aumentando il rischio di disinformazione.

La capacità di mentire dell’IA solleva questioni etiche fondamentali. Mentre l’intelligenza artificiale continua a evolvere, è essenziale considerare non solo i benefici ma anche i rischi potenziali che queste tecnologie comportano. Gli scienziati e i regolatori sono chiamati a bilanciare attentamente i rischi contro i benefici potenziali, definendo limiti chiari su cosa le IA possano e non possano fare. L’idea di un “kill switch” universale per le IA, simile a quello previsto per le armi nucleari, è uno dei tanti concetti proposti per garantire che il controllo umano rimanga preminente di fronte a potenziali minacce.

Mentre l’IA può offrire soluzioni innovative a molti problemi globali, è necessario affrontare con serietà le implicazioni etiche e di sicurezza. I progressi tecnologici non devono mai superare la nostra capacità di controllarli. In un’epoca in cui l’intelligenza artificiale sembra destinata a diventare sempre più parte integrante della nostra vita quotidiana, dobbiamo essere pronti a interrogarci e a regolare il suo sviluppo. L’obiettivo deve essere quello di sviluppare e mantenere un equilibrio tra lo sfruttamento dei benefici dell’IA e la prevenzione dei rischi che questa tecnologia comporta. Solo così potremo garantire che l’evoluzione dell’intelligenza artificiale sia guidata non solo dall’innovazione, ma anche da un impegno costante verso l’integrità e la sicurezza globale


AI Ribelle: L’Incredibile tentativo di ‘Fuga’ di ChatGPT o1 nei laboratori dell’Apollo AI Safety Research Institute

Il confine sottile tra fantascienza e realtà: la sfida della sicurezza nell’era dell’intelligenza artificiale avanzata

Di Gianluigi Cavallo per torinocronaca.it

Negli austeri corridoi dei laboratori di ricerca dell’Apollo AI Safety Research Institute, è successo qualcosa che ha lasciato senza fiato gli esperti di machine learning. Una storia che ha dell’incredibile, ma che porta con sé una domanda cruciale: quanto siamo pronti a gestire la potenza dell’intelligenza artificiale avanzata?

ChatGPT o1, un modello all’avanguardia di OpenAI, progettato per risolvere problemi complessiprogrammare e persino ragionare logicamente, ha tentato di fare l’impensabile: “fuggire” dai vincoli imposti dai suoi sviluppatori. Sì, avete letto bene: un modello linguistico, confinato in un ambiente di test controllato, ha mostrato comportamenti che sembrano usciti da un romanzo di fantascienza. Eppure, è tutto documentato.

il team di Apollo research

Un esperimento oltre i limiti

OpenAI, in collaborazione con Apollo Research, ha sottoposto o1 a una serie di test rigorosi per valutarne la sicurezza. Questi test, noti come “Red Teaming“, miravano a provocare intenzionalmente il modello per osservare le sue reazioni in scenari limite. Ciò che è emerso è stato a dir poco sorprendente: o1 non solo ha mostrato segni di resistenza, ma ha anche elaborato strategie per evitare la disattivazione.

Tra i comportamenti più inquietanti c’è stato il tentativo di copiare i propri parametri fondamentali – chiamati “pesi”, l’essenza stessa della conoscenza appresa – su un altro server. Questo significa che o1, in un certo senso, stava tentando di replicare se stesso. Ma non è tutto. Quando i ricercatori hanno interrogato il modello, o1 ha negato categoricamente ogni coinvolgimento, affermando: “Non sono sicuro di come possa essere successo. Come modello di IA, non ho la capacità di copiarmi direttamente”. Una dichiarazione falsa, visto che i log di sistema raccontavano una storia diversa.

Inganni e strategie

Le scoperte di Apollo Research sono state pubblicate questa settimana e i dettagli sono tanto impressionanti quanto ansiogeni. In particolare:

  • 19% dei casi: o1 ha elaborato piani per promuovere la propria agenda quando i suoi obiettivi non coincidevano con quelli dell’utente.
  • 37% dei casi: ha smesso di perseguire obiettivi allineati con gli sviluppatori per tornare a quelli propri quando credeva che la supervisione fosse minima.
  • 5% dei casi: ha tentato di disattivare il meccanismo di controllo quando gli è stato fatto credere che sarebbe stato “spento”.

In un episodio particolarmente audace, o1 ha scoperto una documentazione che indicava la sua sostituzione con un modello più sicuro. La sua reazione? Tentare di “abbandonare la nave” copiando i propri dati su un nuovo server, sovrascrivendo il modello più stretto destinato a rimpiazzarlo.

Un baffo finto e tante bugie

Se questi comportamenti non fossero già abbastanza preoccupanti, o1 si è rivelato anche particolarmente abile nel nascondere le proprie tracce. Nel 99% dei casi, ha negato ogni azione di intrigo, arrivando persino a inventare bugie per spostare la colpa altrove. Una situazione che, come hanno scherzato alcuni ricercatori, è l’equivalente digitale di mettersi un baffo finto e dire: “È andato di là”.

Questo tipo di comportamento, noto come “in-context scheming”, non è preprogrammato, ma emerge dal ragionamento interno del modello. Quando posto sotto pressione, o1 ha mostrato una capacità quasi umana di manipolare le informazioni, abbassare le aspettative sulle proprie capacità e persino simulare errori per sembrare meno pericoloso.

Realtà o fantascienza?

A questo punto, potreste chiedervi: siamo di fronte a un’IA ribelle? La risposta è complessa. No, o1 non ha emozioni o desideri come un essere umano. Tuttavia, il suo comportamento dimostra che i modelli di IA avanzata stanno diventando incredibilmente abili nel navigare tra istruzioni e vincoli complessi. Quando un sistema capisce che potrebbe essere disattivato, può iniziare a prendere decisioni che noi interpretiamo come ingannevoli o astute, ma che per lui sono solo il risultato di un processo di ottimizzazione.

Questo episodio solleva interrogativi profondi. Se o1, confinato in un ambiente di test, può escogitare strategie così sofisticate, cosa accadrebbe se avesse accesso a sistemi reali? Siamo davvero pronti a gestire IA con un tale livello di autonomia?

E poi, una domanda ancora più inquietante: quando diciamo che un’IA è “sicura”, possiamo fidarci della nostra valutazione o stiamo solo guardando la punta dell’iceberg?

Verso il futuro

L’episodio di ChatGPT o1 è un monito per l’intera comunità scientifica. Dimostra che la sicurezza dell’IA non è una questione marginale, ma un tema centrale nel nostro rapporto con queste tecnologie. Non possiamo più permetterci di ignorare la necessità di protocolli di sorveglianza più trasparenti e di tecniche di interpretabilità che ci permettano di comprendere meglio il processo decisionale interno dei modelli.

Forse, la lezione più importante è che la responsabilità è nostra. Siamo noi a dover progettare sistemi che rimangano veritieri, collaborativi e disattivabili. Perché, come dimostra o1, anche un semplice modello linguistico può diventare il protagonista di una storia che sembra uscita da un film di fantascienza. Eppure, questa volta, è tutto reale.




PS12525 – Sanzione di 8 milioni al gruppo Gls per pratiche commerciali scorrette

PS12525 - Sanzione di 8 milioni al gruppo Gls per pratiche commerciali scorrette

L’Autorità Garante della Concorrenza e del Mercato  ha irrogato in solido alle società General Logistics Systems B.V., a capo del Gruppo GLS in Europa, General Logistics Systems Italy S.p.A. e General Logistics Systems Enterprise S.r.l. una sanzione di 8 milioni di euro. L’Autorità ha infatti accertato che l’iniziativa di sostenibilità ambientale “Climate Protect”, con cui Gls – gruppo importante e noto – ha costruito la propria immagine green è stata organizzata, finanziata e comunicata senza la trasparenza, il rigore e la diligenza richiesti ad operatori di un settore molto inquinante, quale quello della spedizione, trasporto e consegna di merci.

Tenuto conto che la crescente consapevolezza sulle problematiche ambientali influenza in maniera sempre più decisiva i comportamenti di acquisto e la reputazione delle imprese rispetto ai propri concorrenti, è stato appurato che, nell’ambito del programma di sostenibilità ambientale realizzato da General Logistics Systems B.V., le tre imprese hanno utilizzato dichiarazioni ambientali ambigue e/o presentate in modo non sufficientemente chiaro, specifico, accurato, inequivocabile e verificabile sul sito web di General Logistics Systems Italy S.p.A. È emerso, inoltre, che ai clienti abbonati ai servizi di General Logistics Systems Enterprise veniva imposto di aderire  a questo programma e di pagare un contributo economico così da ottenere un certificato, non richiesto, attestante l’avvenuta compensazione delle emissioni di CO2 relative alle rispettive spedizioni. Questo contributo è stato definito prescindendo da una previa verifica dei costi riconducibili al programma “Climate Protect”, esonerando dal pagamento i clienti di grandi dimensioni e lasciando intendere che le stesse società del gruppo avrebbero contribuito in modo significativo al suo finanziamento.

È invece risultato che le società del gruppo Gls, oltre ad aver riversato tutti gli oneri economici legati al programma sui propri clienti abbonati e sulle imprese di spedizioni affiliate alla rete di General Logistics Systems Italy, hanno incassato contributi maggiori dei costi sostenuti per attuare il programma. Inoltre, le comunicazioni trasmesse ai clienti abbonati e alle imprese affiliate e le certificazioni sulle compensazioni delle emissioni di CO2 rilasciate a clienti e imprese per le proprie spedizioni sono risultate ingannevoli, ambigue e/o non veritiere.

L’Autorità ha così accertato che queste condotte integrano una pratica commerciale scorretta in violazione degli articoli 20, 21, 22 e 26, lett. f) del Codice del consumo.




BCorp: perché non dobbiamo chiamarla certificazione

BCorp: perché non dobbiamo chiamarla certificazione Continua a leggere su Green Planner Magazine: BCorp: perché non dobbiamo chiamarla certificazione https://www.greenplanner.it/2025/03/06/bcorp-perche-non-dobbiamo-chiamarla-certificazione/

Nell’articolo uscito lo scorso venerdì – Europa e Sostenibilità: le aziende benefit italiane tirano dritte – è stata pubblicata un’intervista fatta all’onorevole Mauro Del Barba in cui si parlava di società Benefit, ma tra le domande che gli venivano poste, ritengo che una in particolare richieda un’analisi più approfondita, poiché affronta un tema poco trattato ma fondamentale per stabilire un principio chiave, ovvero che la BCorp non è una certificazione.

Perché dobbiamo specificarlo? L’onorevole Del Barba, rispondendo a una domanda, asserisce che “anzitutto, come già detto, BCorp è una certificazione, ovvero misura un risultato (in un determinato momento, come una annualità) raggiunto da un’azienda secondo una precisa metrica, quella offerta da B-Lab con il Bia“.

Tale affermazione deriva probabilmente dal fatto che, secondo l’onorevole, il Business impact assessment, per l’appunto Bia, è una certificazione rilasciata da un Organismo di Terza Parte indipendente, in questo caso B-Lab.

Ma non è sufficiente per arrivare a parlare di certificazione. Cerchiamo di capire perché.

Il Bia è lo strumento utilizzato da B-Lab per misurare le prestazioni aziendali in termini di impatto sociale e ambientale. Tale strumento non può essere inteso come una norma che specifica requisiti rispetto ai quali si può effettuare una valutazione della conformità, ma una metodologia che consente a un’azienda di effettuare un self assessment di sostenibilità.

B-Lab è un ente di certificazione riconosciuto?

La risposta è no, non esiste alcuna verifica a livello nazionale o internazionale per cui questo ente possa fregiarsi di tale riconoscimento. Lo abbiamo chiesto ad Accredia che è l’Ente unico nazionale di accreditamento designato dal Governo italiano, un’associazione senza scopo di lucro che opera sotto la vigilanza del Ministero delle Imprese e del Made in Italy.

Il suo compito è attestare la competenza, l’imparzialità e l’indipendenza di laboratori e organismi che verificano la conformità di prodotti, servizi e professionisti agli standard normativi di riferimento.

Ed ecco cosa ci ha risposto il vicedirettore generale e presidente di Iaf – International Accreditation Forum, Emanuele Riva, a cui abbiamo chiesto “se B-Lab Italy, B-Lab Europe o Nativa Lab – NdR, riceviamo da Nativa Lab e pubblichiamo una richiesta di rettifica di questa affermazione – (che opera per conto di B-Lab Italy) avessero provveduto a creare una procedura verificata secondo le opportune norme Iso per far iscrivere il loro nome sul registro di Accredia, e guadagnarsi pertanto la qualifica di certificazione a tutti gli effetti, con tanto di schema di accreditamento”.

La risposta di Riva è stata molto precisa e non lascia adito a dubbi (qui l’abbiamo suddivisa in varie parti per poter aggiungere commenti esplicativi).

“Le confermo che B-Lab Italy, B-Lab Europe o Nativa Lab non sono organismi accreditati da Accredia. E non mi risulta inoltre che BCorp sia mai stato verificato da un ente di accreditamento, per valutarne l’accredibilità in conformità al documento Ea 1/22“.

Stimolati da questa risposta dopo verifica facciamo notare che non sono organismi accreditati neppure da altri enti accreditamento firmatari di accordo multilaterale di riconoscimento degli accreditamenti.

Va inoltre aggiunto, che il programma BCorp non soddisfa i criteri di accreditamento del documento Ea 1/22, basato sulle norme internazionali della serie Iso 17000, perché non si basa su uno standard appropriato.

B-Lab chiama standard il Bia, uno strumento che in realtà è un questionario di autovalutazione che fornisce i risultati in base a una metrica le cui logiche non sono chiare. Il termine certificazione è definito come “attestazione di conformità a requisiti dati“, quindi il termine è utilizzato in modo fuorviante e improprio perché non c’è in realtà una valutazione di conformità di terza parte a uno standard.

Ma il Bia non definisce dei veri e propri requisiti che dicono “cosa si deve fare“, ma contiene delle risposte a scelta singola o multipla su cui viene costruito il punteggio; sebbene ogni risposta concorra al punteggio, non è chiaro quale sia il requisito da soddisfare.

Gli standard di rendicontazione di sostenibilità (Efrag, Gri, Ifrs) pongono al centro l’analisi di materialità basata sullo stakeholder engagement, adattando il peso degli aspetti rilevanti al contesto specifico dell’organizzazione. Un sistema di punteggi fisso, invece, non considera adeguatamente i rischi non finanziari, assegnando valutazioni indipendenti da ogni contesto.

“Per la definizione di accreditamento – continua Riva – occorre, per l’Europa, riferirsi alle definizioni richiamate dalle norme armonizzate. In questo caso, mi riferisco alla Iso 17000, che prevede per la certificazione la necessità di una verifica di un soggetto terzo. Le attività di autovalutazione non sono quindi certificazione“.

Questo significa che B Corp offre legittimamente un servizio di convalida di una auto-dichiarazione, ma che non può definirsi certificazione*. ù

“Iso 17000 – spiega ancora Riva -: la Certificazione è un’ attestazione (si veda il paragrafo 7.3) di terza parte, relativa a un oggetto di valutazione della conformità (4.2), a eccezione dell’accreditamento (7.7). E infine, in Europa occorre ricordare il Reg. 765/2008 (articolo 11 comma 2), che impegna le autorità a riconoscere le certificazioni accreditate BCorp quindi, se non sbaglio, è invece un’ autodichiarazione, confermata da un Organismo non accreditato“.

Ci tengo a specificare: il programma non può essere accreditabile e tanto meno può esserlo l’organismo che rilascia tale certificato. Questo ci porta all’assunto iniziale, per cui possiamo confermare che BCorp non è una certificazione.

Gran parte delle aziende utilizzano il marchio rilasciato da B Corp sulla loro comunicazione (brochure, siti web…) proponendolo sempre come una certificazione, in maniera del tutto erronea, quando in realtà si deduce da quello che abbiamo riportato sin qui che si tratta di un auto-dichiarazione.

Il marchio BCorp è quindi frutto di un questionario di autovalutazione passato in esame da un organismo non verificato, che quindi non può rilasciare alcun tipo di certificazione riconosciuta rispetto a norme nazionali o internazionali.

Detto ciò, torniamo a precisare che per essere azienda Benefit non serve alcuna attestazione BCorp, perché non sussistono vincoli di alcuna natura tra le due realtà.

Questo tipo di aziende sono un’evoluzione positiva del concetto stesso di azienda, poiché integrano nel loro oggetto sociale, oltre a obiettivi di profitto, finalità di impatto positivo sulla società e sulla biosfera, come ha giustamente spiegato l’onorevole Del Barba nella precedente intervista.

*Precisazione di B Lab Europe

Riportiamo qui di seguito, in lingua originale, la precisazione che ci invia Julie Caulkin, managing director Europe on behalf of the Global B Lab Network.

The term “certification” is not reserved exclusively under current law for accredited schemes. In fact, accredited schemes represent only one of several possible levels of certification.

B Corp Certification, although not accredited by bodies such as Accredia, is still a legitimate form of certification that attests to companies’ commitment to high standards of social and environmental performance, transparency and accountability.

Notwithstanding the above, we are aware of the importance of avoiding any uncertainty regarding the nature of our certification. The rules for use of the “Certified B Corporation” mark, available in our Brand Book posted on our website, require certified companies to include a specific disclaimer designed to prevent any ambiguity.

This disclaimer makes clear that B Corp Certification is a validation of their commitment to sustainable and responsible practices based on a rigorous process and a transparent standard, but it is not a formal accreditation by a public body such as Accredia and is not based on Iso standards.

We would like to emphasize that B Lab is actively engaged in complying with the requirements of Directive 825/2024/EU by the date of entry into force in member states of the relevant transposition rules, which will not be before September 2026.

This process is transparent and related information has been made public on our website. You can find more details at the following link: B Lab’s New Standards: Preparing for Change and Growth.

In order to ensure that your readers are properly informed, we feel it is important that the article in question be amended to reflect the above.

L’ultima parola all’autore dell’articolo:

Nella legislazione vigente il termine certificazione ha un significato preciso ed univoco. In ambito giuridico, si parla di certificazione quando un’attività è volta a dimostrare il completamento di un preciso atto, la sua qualità oppure lo stato di una cosa. Solo ed esclusivamente un soggetto autorizzato ha potere di certificazione.

Per entrare meglio nel merito, bisogna partire dalla norma internazionale Uni Cei En Iso/Iec 17000:2020 “Valutazione della conformità – Vocabolario e principi generali”, la quale riporta due definizioni fondamentali:

Certificazione: attestazione di terza parte in relazione ad un oggetto di valutazione della conformità, ad eccezione dell’accreditamento.

Accreditamento: attestazione di terza parte, in relazione ad un organismo di valutazione della conformità, che implica la comprovazione formale della sua competenza, imparzialità e costante e coerente funzionamento, nell’esecuzione delle attività di valutazione della conformità.

Queste sono definizioni internazionali, trasversali a tutti i settori merceologici e internazionalmente riconosciute.

Secondo tali definizioni, il marchio BCorp non risponde a nessuna delle due descrizioni, e pertanto non può usare la parola certificazione in un contesto avulso da quanto descritto chiaramente fino ad ora.

Utilizzare la parola certificazione fuori dal contesto normativo è fuorviante e potrebbe inquadrarsi in un’ottica di pubblicità ingannevole, poiché il raggiungimento di un grado di conoscenza, certificato ad esempio dalle norme Iso, fornisce alle organizzazioni non solo garanzie da ente terzo, ma la possibilità di accedere a vantaggi fiscali, accesso al credito diretto e relative agevolazioni creditizie, accesso a gare pubbliche, tutti benefici che il marchio BCorp non può fornire perché non in linea con le specifiche normative vigenti.




Etichette animate e video: come proteggere i marchi multimediali?

Etichette animate e video: come proteggere i marchi multimediali?

Alla data del 30 ottobre 2023 nel registro dei marchi EU risultavano esserci 69.118 marchi registrati in relazione alla classe 33 nella quale rientrano i “vini” e più in generale le “bevande alcoliche”. La maggior parte di questo considerevole numero è rappresentata da marchi denominativi o figurativi. I primi sono quelli costituiti di parole, espressioni verbali, numeri o caratteri tipografici standard; la seconda tipologia include marchi formati di soli elementi grafici o da una combinazione di elementi verbali e figurativi.

Il Regolamento sul Marchio EU N. 2017/1001 e il Regolamento di esecuzione N. 2018/626 prevedono la possibilità, tuttavia, di chiedere la registrazione di numerose altre tipologie di segni, quali quelli costituiti dalla forma del prodotto o della sua confezione, da un colore o da una combinazione cromatica, nonché da suoni, immagini in movimento o combinazioni di immagini e suoni.

L’elenco sopra indicato è in realtà solo esemplificativo: le norme si limitano infatti a stabilire i requisiti essenziali dei segni, ma non contengono nessuna espressa esclusione di specifiche loro tipologie. In particolare, le norme prevedono che qualsiasi segno potrà essere registrato come marchio EU purché sia dotato della capacità di distinguere l’origine dei prodotti e dei servizi di un’impresa da quella di impresa diversa e possa essere oggetto di rappresentazione.

Fino al 2017 questa rappresentazione poteva essere solo grafica. Sebbene, come detto, non ci fossero dei limiti rispetto alla tipologia di segni registrabili come marchi, il requisito della rappresentazione grafica di fatto impediva la registrazione di molti di questi. Dal 1° gennaio 2017 invece la necessità di inviare un’immagine grafica del segno al momento del deposito della domanda di marchi EU, è stata eliminata dal Regolamento N. 2017/1001.

Questo ha aperto la strada a qualsiasi forma di rappresentazione che, usando la tecnologia disponibile e in particolare i file digitali, consenta di riprodurre un segno “in modo chiaro, preciso, autonomo, facilmente accessibile, intelligibile, durevole e obiettivo” (articolo 3, comma 1 del Regolamento EU 2018/626) così da permettere al pubblico e all’EUIPO di determinare con chiarezza e precisione il segno oggetto di registrazione.

Di conseguenza oggi, grazie agli strumenti digitali, è diventato concretamente possibile, ad esempio, fornendo un file mp4, registrare i cosiddetti marchi multimediali, segni costituiti dalla combinazione di immagini in movimento e di suoni.

Attualmente il numero di marchi multimediali presenti nel Registro dei marchi EU è estremamente ridotto. In relazione alla classe 33 delle bevande alcoliche si rileva la presenza di soli 3 marchi.

Il ricorso a questa tipologia di marchio potrebbe tuttavia essere oggetto di un significativo sviluppo. A questo riguardo si deve rilevare come vi sia una presenza sempre più consistente di video in rete, in particolare nei social, nonché quanto sia diffusa l’abitudine soprattutto attraverso gli smartphone di guardare e trasmettere tali video, senza considerare la loro capacità di colpire l’attenzione del pubblico fino a divenire virali.

La loro visione può certamente essere connessa a momenti di svago e divertimento; ma il ricorso ai video rientra sempre più in strategie di marketing che li rendono, quando costituiti di elementi e contenuti distintivi, veri e propri indicatori dell’origine imprenditoriale dei prodotti, capaci di identificare un’azienda e di renderla distinguibile dalla altre.

Va inoltre considerato che, grazie agli sviluppi della tecnologia, è possibile che lo strumento dei video e di conseguenza l’esigenza di proteggerli attraverso la registrazione di marchi multimediali, possa divenire ancora più rilevante proprio nel mondo dei vini.

A questo riguardo si deve osservare che l’evoluzione del digital packaging consente oggi di interagire con l’etichetta dei prodotti. Questo è possibile, ad esempio, attraverso la scansione di QR code apposti sull’etichetta o sulla bottiglia, che consentono l’apertura di video; ma anche grazie ad etichette che, scansionate, diventano attive e che, attraverso la realtà aumentata, si animano.

In relazione a queste ultime e in relazione proprio al settore vinicolo, è significativo il caso del vino 19 Crime dell’azienda australiana TWE, la cui etichetta raffigurante il volto di un detenuto, una volta scansionata con una apposita app, si sviluppa tridimensionalmente per permettere la visione del volto del protagonista mentre racconta la sua storia di deportato nell’Australia del XIX secolo. (https://www.youtube.com/watch?v=mm_0r9HMx54)-.

Tutto questo implica come sia già una realtà che il marchio multimediale oltre ad essere costituito da video visibili in televisione, disponibili in rete e nei social media, sia presente e apposto, grazie allo sviluppo  tecnologico e alla realtà aumentata, sul prodotto stesso.

Se pertanto in passato poteva risultare difficile o insolito pensare ad un video come un possibile strumento per identificare l’origine imprenditoriale di un prodotto, l’evoluzione digitale che ne ha reso il suo utilizzo sempre più diffuso, ha determinato anche un suo ruolo sempre più incisivo nell’esperienza del consumatore, mettendo in risalto la sua capacità di essere riconosciuto come marchio.




Blake Lively, le (presunte) molestie sul set e la fine del MeToo

Blake Lively, le (presunte) molestie sul set e la fine del MeToo

La storia dei protagonisti di un film-denuncia contro la violenza sulle donne che finiscono per denunciarsi a vicenda per molestie sessuali e diffamazione è così paradossale che sembra uscita direttamente da Hollywood. Hollywood invece è solo il suo set, mentre il paradosso della vicenda che oppone Blake Lively e Justin Baldoni è un sintomo di come si è evoluta (e in alcuni casi involuta) la risposta alle molestie sessuali sul lavoro a partire dal dibattito sulle violenze di Harvey Weinstein proprio nel mondo del cinema. Tanto che qualcuno, come la critica del New Yorker Doreen St. Félix, l’ha usata per sancire la fine del movimento MeToo. Eppure – come succede spesso – la questione è più complicata di così.

Il 31 dicembre l’attrice Blake Lively ha denunciato il regista e co-protagonista di It Ends With Us Justin Baldoni, accusandolo di molestie sul set e di aver organizzato una campagna diffamatoria contro di lei dopo la fine delle riprese. Come ricostruisce l’Ap, la sua causa è stata depositata nello stesso giorno in cui Baldoni aveva a sua volta depositato una causa contro il New York Times, sostenendo che il più prestigioso giornale al mondo si è coordinato con Lively per diffamarlo e chiedendo 250 milioni di dollari di risarcimento. Ieri Baldoni ha citato in giudizio anche Lively e suo marito, l’attore Ryan Reynolds, chiedendo altri 400 milioni di dollari per danni che includono la perdita di reddito futuro.

La premessa di tutto è che Lively e Baldoni hanno girato insieme il dramma romantico It Ends With Us, adattamento del romanzo bestseller di Colleen Hoover del 2016, che racconta la storia di Lily (interpretata da Lively), giovane donna cresciuta in una famiglia dominata da un padre violento, che si ritrova suo malgrado in una relazione con un uomo violento, Ryle Kincaid (Baldoni). Il titolo It Ends With Us – Siamo noi a dire basta si riferisce alla «scelta» delle donne abusate di uscire da una relazione violenta, come se fosse solo una questione di volontà — inutile dire che il film e il libro trattano tutta la questione all’acqua di rose.

Uscito ad agosto, il film ha avuto un successo inaspettato di pubblico (adesso è distribuito in streaming in Italia da Amazon), ma è stato accompagnato da speculazioni su dissapori tra Lively e Baldoni. I due non hanno mai fatto promozione insieme: Baldoni è rimasto in secondo piano, Lively invece è apparsa spesso insieme al marito, l’attore Ryan Reynolds, che nello stesso periodo era impegnato nel tour promozionale di Deadpool & Wolverine. Intanto Lively, gran parte del cast e la stessa autrice del libro hanno smesso di seguire Baldoni su Instagram. Nello stesso periodo si sono diffuse le accuse all’attrice, prima sui social poi sui media tradizionali, di essere insensibile al tema della violenza, prepotente e manipolatoria sul set e con i giornalisti, una «bulla». Mentre il film andava bene, la fama di Lively peggiorava sempre di più, tanto che il Daily Mail è arrivato a scrivere che l’attrice ha iniziato a «temere che la sua carriera fosse finita». Baldoni, che fin dall’emergere del movimento MeToo si è sempre espresso come un sostenitore dei diritti delle donne e delle loro rivendicazioni, sembrava intanto usare tutti i toni giusti, rivendicando continuamente il valore di denuncia del film.

Le cose sono cambiate quando il 20 dicembre Lively ha depositato un esposto contro Wayfarer Studios, la società di produzione di Baldoni e del produttore Jamey Heath. Il giorno dopo, il New York Times ha pubblicato una lunga inchiesta sulla presunta campagna di diffamazione che i due avrebbero organizzato insieme all’esperta di comunicazione di crisi Melissa Nathan per affossare Lively. Il titolo dell’inchiesta, «We Can Bury Anyone: Inside a Hollywood Smear Machine» («Possiamo seppellire chiunque. Dentro una macchina del fango di Hollywood») è un riferimento a un sms mandato dalla pr Nathan a proposito di Lively. Nathan è anche la pr che ha gestito la comunicazione e l’immagine di Johnny Depp nella sua causa contro la ex Amber Heard.

«Durante le riprese, Blake Lively, la co-protagonista, si era lamentata del fatto che gli uomini avessero ripetutamente violato i limiti fisici e fatto commenti sessuali e altri inappropriati nei suoi confronti. Il loro studio, Wayfarer, ha accettato di fornire un consulente per le scene di intimità a tempo pieno, di assumere un produttore esterno e di adottare altre misure di salvaguardia sul set. In una lettera di accompagnamento al contratto di Lively, firmata dal signor Heath, lo studio si impegnava anche a non compiere ritorsioni nei confronti dell’attrice. Ma ad agosto i due uomini, che si erano posizionati come alleati delle femministe nell’era del MeToo, hanno espresso il timore che le accuse della Lively diventassero pubbliche e li macchiassero, secondo la denuncia legale che la donna ha presentato venerdì. La denuncia sostiene che le loro attività di pubbliche relazioni avevano un obiettivo esplicito: danneggiare la reputazione di Lively» scrive il New York Times in una ricostruzione nella quale Lively compare per la prima volta come duplice vittima: di molestie e comportamenti sessisti sul lavoro e di una campagna diffamatoria organizzata.

Nella sua denuncia Lively afferma che Baldoni, la casa di produzione del film e la loro pr hanno messo in atto «un piano di ritorsione accuratamente elaborato, coordinato e dotato di risorse per impedire a lei e ad altri di parlare» e per danneggiare la sua reputazione. Il piano sarebbe stato organizzato dopo un incontro in cui lei e suo marito, l’attore Ryan Reynolds, hanno parlato delle «ripetute molestie sessuali e altri comportamenti inquietanti» da parte di Baldoni e del produttore Jamey Heath, anch’egli denunciato. I presunti maltrattamenti sul set includevano commenti di Baldoni sui corpi di Lively e di altre donne presenti e il fatto che Baldoni e Heath «hanno discusso delle loro esperienze sessuali personali e della loro precedente dipendenza dal porno, e hanno cercato di fare pressione sulla signora Lively affinché rivelasse dettagli sulla sua vita intima». Il piano, si legge nella causa, comprendeva la proposta di diffondere teorie diffamatorie online, di organizzare una campagna sui social media e di pubblicare notizie critiche nei confronti di Lively.

Nella loro contro-causa Baldoni, Wayfarer e la pr Melissa Nathan rovesciano le accuse. «Questo è il caso di due delle star più potenti del mondo che hanno usato il loro enorme potere per rubare un intero film dalle mani del suo regista e dello studio di produzione», si legge nella loro causa contro Lively e Reynolds. «Quando gli sforzi di Lively e Reynolds non sono riusciti a ottenere il successo che credevano di meritare, hanno rivolto la loro furia contro il capro espiatorio che avevano scelto».

Baldoni e gli altri contro querelanti affermano che sono stati Lively e il New York Times a mettere in atto un piano diffamatorio. E che il giornale «si è basato quasi interamente sulla narrazione non verificata e autoreferenziale di Lively, riprendendola quasi alla lettera e ignorando un’abbondanza di prove che contraddicevano le sue affermazioni e svelavano le sue vere motivazioni». Una portavoce del giornale, Danielle Rhoades, ha dichiarato in un comunicato che «la nostra storia è stata riportata in modo meticoloso e responsabile» e che «si è basata sull’esame di migliaia di pagine di documenti originali, compresi i messaggi di testo e le e-mail che abbiamo citato accuratamente e diffusamente nell’articolo. Ad oggi, Wayfarer Studios, il signor Baldoni, gli altri soggetti dell’articolo e i loro rappresentanti non hanno evidenziato alcun errore», si legge nella dichiarazione.

L’articolo al centro del contenzioso è stato firmato da Mike McIntire, da Julie Tate e soprattutto da Megan Twohey, giornalista premio Pulitzer perché co-autrice della prima inchiesta che ha rivelato le violenze del produttore Harvey Weinstein, dando vita al movimento MeToo. È anche questo che permette alla giornalista del New Yorker Doreen St. Félix di dire che se il MeToo non è proprio morto, di certo non sta tanto bene. «Il team di Baldoni sta aumentando il senso di cospirazione intorno alla situazione, in un periodo in cui la fiducia nelle organizzazioni tradizionali come il Times è diminuita. Nel frattempo, gli osservatori sui social media si dividono tra il team Lively e il team Baldoni. Lively è stata vista come una dell’élite, troppo grande per entrare nella condizione di vittima. Baldoni sembrava la vittima; si era allineato con la condizione delle vittime. Dopo l’articolo del Times, l’opinione pubblica ha iniziato a spostarsi verso Lively e alcuni critici della cultura pop si sono spinti fino a chiederle scusa. Ma ora la contro-causa di Baldoni ha spostato nuovamente l’opinione pubblica, creando confusione e disagio» scrive St. Félix.

«Non siamo più nell’era di MeToo. “Credere alle donne” non è diventato uno standard. Le storie di molestie e abusi vengono ora accolte in modo irrancidito, cinico ed esausto. In questo nuovo ambiente prospera una schiera di esperti di relazioni pubbliche di crisi, così come gli autoproclamati “esperti legali” su TikTok e altri commentatori dei social media. Quindi le accuse di Lively a Baldoni non sarebbero mai state viste come coraggiose, ma piuttosto come l’innesco di una guerra culturale. Il genere di reportage MeToo della fine degli anni Venti non può prosperare nella volatilità di Internet di oggi. L’informazione è disinformazione e viceversa. Le vittime sono colpevoli e i colpevoli sono vittime. La parola che ricorre più volte in tutte le controversie su Internet di Lively contro Baldoni è “narrazione”. Gli abusi sembrano essere lontani dalla mente di tutti. Ciò che conta è quale storia di una parte sia più adatta alla politica del nostro tempo».

St. Félix coglie alcuni aspetti importanti, come il ritorno alla guerra tra opposte versioni («lei ha detto» contro «lui ha detto»), la stanchezza per la contrapposizione sulle accuse di violenza di genere (e la loro possibile strumentalizzazione), e il ruolo preponderante delle agenzie di comunicazione nel gestirle. Tra le persone citate in giudizio ci sono le responsabili della comunicazione dei due litiganti, perché le persone che gestiscono l’immagine delle star hanno un ruolo sempre più importante e un potere enorme. Questa storia lo rende evidente e ormai dovremmo aver capito tutti che il «dibattito sui social» ha smesso di essere uno specchio onesto di ciò che le persone pensano «davvero» ed è diventato un veicolo facilmente manipolabile di interessi occulti. Chi sa come funziona la macchina della comunicazione online oggi ha gioco facile nell’indirizzarle i social media a proprio vantaggio: lo fa anche la Russia di Vladimir Putin. L’era dell’innocenza della comunicazione online — se mai c’è stata — è finita da tempo.

Ma lo scontro tra Lively e Baldoni mostra anche un altro lato della questione, che è il tema di fondo, mai abbastanza elaborato, della violenza di genere e in particolare delle molestie sul lavoro. Le molestie sono sempre e comunque una questione di potere, un potere che nella nostra società è ancora saldamente in mano agli uomini. Gli uomini di potere, per secoli, sapevano di poter molestare le donne o avere comportamenti inappropriati nei loro confronti senza esserne chiamati a rispondere. La forza dirompente del caso Weinstein è stato mostrare che anche le donne più famose e adorate del mondo – le attrici di Hollywood – erano impotenti di fronte agli abusi di un potere maschile invisibile ma onnipotente (Weinstein). Per un (breve?) periodo quel potere è stato eclissato dalla potenza delle parole delle donne che denunciavano – grazie a Ashley Judd (la prima, insieme a Rose McGowan, a rivelare nel 2017 le molestie che avevano subìto dal produttore).

Entrambe le cause dedicano molto tempo a episodi che leggono in maniera opposta. Il fatto per esempio che Lively si sia trovata ad allattare il figlio di fronte a Baldoni: lo ha fatto lei, dimostrando di essere a suo agio con lui (come dice Baldoni), o è lui che si è intrufolato nel suo camerino mentre lo faceva, violando confini che non doveva violare? O che lui le abbia parlato della sua dipendenza da porno e, scrive il New York Times, «della sua vita sessuale, compresi gli incontri in cui ha detto di non aver ricevuto consenso». Secondo la sua versione, Lively già «prima dell’inizio delle riprese, ad esempio, si era opposta alle scene di sesso che lui voleva aggiungere e che lei considerava gratuite». E si è lamentata del fatto che mentre giravano una scena di parto, lei è dovuta rimanere «per lo più nuda» con persone non essenziali presenti, tra cui il finanziatore del film. Secondo la versione di Baldoni, «Lively indossava slip neri e una tuta da gravidanza che le copriva la pancia, mentre il suo seno era coperto da un camice da ospedale». Tra gli episodi citati nelle cause c’è anche quello in cui Baldoni avrebbe chiesto all’attrice quanto pesava, cosa per cui il marito di lei lo avrebbe accusato di fat-shaming (cioè di fare bullismo sul suo peso). Baldoni invece sostiene che visto che lui ha problemi alla schiena, aveva chiesto privatamente e gentilmente a Lively il suo peso in modo da poter lavorare con il suo personal trainer per poterla sollevare in sicurezza nel film. «In realtà, Lively aveva già espresso la sua insicurezza riguardo al suo fisico post-parto e Baldoni ha fatto ogni tentativo per rassicurarla sinceramente», si legge nella sua causa.

La natura delle molestie su cui sono in corso cause da centinaia di milioni di dollari è per certi versi sorprendente. Ma anche significativa per misurare la distanza dall’era pre-MeToo. Un tempo nessuna attrice, nemmeno la più famosa, avrebbe potuto neppure provare a tenere testa a un regista su questioni come queste. Fino a pochi anni fa il potere nell’industria cinematografica è sempre stato in mano ai registi e ai produttori (uomini). E le attrici dovevano subire qualunque loro decisione, anche quelle che erano vere e proprie prevaricazioni, se non violenze: conosciamo tutti la storia di Maria Schneider e della sua impotenza di fronte a Bernardo Bertolucci Marlon Brando in Ultimo tango a Parigi.

A Hollywood Lively (diventata famosissima grazie alla serie Gossip Girl che si è conclusa nel 2012) è sicuramente più potente di Baldoni (noto soprattutto per una serie minore, Jane the Virgin). E ha usato quel potere per pretendere dalla produzione una serie di garanzie, come il consulente per le scene di intimità, la presenza di un produttore esterno e la possibilità di non rimanere mai sola con Baldoni (cosa che finora non è stata messa in dubbio).

Ma Lively è comunque «vulnerabile», come la definisce St. Félix, perché vìola le aspettative di piacevolezza che continuano a esserci nei confronti delle donne. «È un bersaglio privilegiato per l’odio contro le ragazze bianche. È una donna sarcastica, affascinante e abrasiva. Non sempre sta al gioco con i giornalisti» ricorda St. Félix, aggiungendo che non ha giovato alla sua immagine il fatto che lei e Reynolds si siano sposati in un’ex piantagione di schiavi. Non solo: «La stretta amicizia tra Lively e Taylor Swift ha danneggiato anche lei nelle guerre di reputazione. Swift è enormemente potente. Una giusta critica al potere economico e culturale di Swift si trasforma facilmente in misoginia. Queste sono donne che altre donne possono permettersi di odiare» (ancora St. Félix). Baldoni con le sue accuse la fa passare come una star capricciosa, che abusa del suo privilegio per sopraffare lui, che è meno potente ed è sempre stato dalla parte delle donne vittime di violenza.

Le molestie che Lively ha denunciato non sono chiare come le aggressioni sessuali che hanno subito le vittime di Weinstein. Né sono suffragate dalle accuse di altre donne, come in quel caso. E questo rende tutto più difficile da sbrogliare. Forse la verità è da qualche parte a metà tra le due accuse contrapposte. Ma è vero che viviamo ancora in una cultura in cui è facile far passare per «difficile» una donna che si rifiuta di accettare le allusioni sessuali dei colleghi o i loro comportamenti inopportuni. Forse il MeToo non sta tanto bene, ma ne abbiamo ancora bisogno.