1

Cucinelli, i broker invitano a cautela e ridimensionano le accuse di Morpheus

Cucinelli, i broker invitano a cautela e ridimensionano le accuse di Morpheus

Dopo il -17% segnato ieri pomeriggio in chiusura di giornata e dopo aver aperto la mattinata in calo dell’8%, le azioni di Cucinelli stanno parzialmente recuperato terreno raggiugendo una flessione di poco più dell’1 per cento. Tuttavia, aleggia ancora l’eco delle accuse di Morpheus Research, che ha diramato un report dettagliato, frutto, come spiega nel testo, di mesi di analisi e indagini, nel quale dice che la società avrebbe aggirato le sanzioni imposte alla Russia e ha inoltre segnalato l’indice anche sulle scorte di magazzino e sul fatto che Cucinelli avrebbe “fatto ricorso a sconti aggressivi per gestire un inventario gonfio, con articoli finiti in negozi come TJ Maxx, rischiando di diluire il posizionamento esclusivo del marchio”. Nei giorni scorsi anche un altro hedge fund, Pertento, aveva mosso diverse critiche contro Cucinelli in un articolo pubblicato sul Financial Times, accusando la società di vendere in Russia. L’azienda aveva già risposto che “il valore delle esportazioni verso la filiale russa e’ passato dai 16 milioni di euro del 2021 ai 5 milioni euro del 2024”.

Brunello Cucinelli ha subito rispedito al mittente le accuse e ha indicato che sta valutando anche azioni legali. “L’incidenza del mercato russo sul nostro fatturato – sottolinea Cucinelli nella nota diramata – si è ridotta di oltre due terzi rispetto al 2021 risultando oggi intorno al 2 per cento”. E ancora: “Il valore delle esportazioni verso la nostra filiale russa è passato dai 16 milioni di euro del 2021 ai 5 milioni euro del 2024; dati questi disponibili ogni anno nel nostro bilancio”. La società umbra sottolinea di aver distribuito questi dati in quanto “possano risultare esaustivi nel dimensionare correttamente questo argomento e nell’escludere anche qualsiasi ipotesi su un utilizzo del mercato russo per la riduzione del magazzino e lo smaltimento delle rimanenze”. Comunicato, inoltre, di stare “valutando azioni legali a tutela della sua reputazione e degli interessi di tutti i suoi stakeholder”, menzionando anche “verifiche effettuate dall’Agenzia delle Dogane che hanno accertato il pieno rispetto delle procedure”.

Morpheus Reaserch nel suo report ha precisato di avere posizioni allo scoperto sulla maison, ritenendo che le valutazioni di Borsa siano eccessive (con un rapporto tra prezzo e utili attesi l’anno venturo attorno a 46 volte). La società è stata fondata nel 2025 da un gruppo di analisti che dichiarano di voler portare alla luce comportamenti scorretti sui mercati finanziari. In un articolo pubblicato su Repubblica, emerge come la società ha all’attivo oltre a Cucinelli altri cinque gruppi che sono finiti nel mirino dal marzo di quest’anno: Solaris Energy InfrastructureBackblazeMercurity FintechAbacus Global Management e Collective Mining. In tutti i casi, segnala il quotidiano, “la dinamica è sempre la stessa ed è dichiarata quasi con la medesima formula in tutti i documenti: ‘Dopo un’approfondita ricerca, riteniamo che le prove giustifichino una posizione short sulle azioni’ della società in questione. ‘Alcuni dirigenti di Morpheus Research detengono posizioni short su SEI e Morpheus Research può trarre profitto da posizioni short detenute da terzi’”. Il quotidiano ricostruisce quel che è accaduto nei precedenti casi. “Tutte le società citate viaggiano oggi su valori di mercato superiori a quella dell’uscita del report che li ha colpiti: il mercato insomma non ha creduto alle accuse” nel lungo periodo mentre all’indomani dell’attacco il titolo è crollato.

Gli analisti restano positivi sul gruppo umbro, sebbene all’orizzonte il problema principale possano essere i danni reputazionali per l’azienda provocati dalle accuse delle vendite in Russia. Per gli esperti di Ubs, invece, non condividono le preoccupazioni espresse dall’hedge fund sulle scorte, tenendo anche conto che per altro nel primo semestre 2025 sono calate al 28,2% delle vendite totali contro il circa 30% di media storica (oppure al 42,5% delle vendite al dettaglio contro il circa 63% di media storica). Su questo punto anche Equita ricorda che l’alto livello del magazzino è un elemento strutturale del modello di business di Brunello Cucinelli dovuto al “diverso segmento in cui opera il gruppo (85% abbigliamento) rispetto alla maggior parte dei peers quotati (concentrati su pelletteria o capospalla, e con magazzino su fatturato al 15-20%)”. Equita spiega che l’assenza di articoli continuativi e la presenza delle taglie implica per l’abbigliamento la necessità di un maggiore stock di prodotto e una maggiore percentuale di invenduto a fine stagione. L’incidenza del magazzino per Brunello Cucinelli e’ piu’ simile infatti a quella del gruppo Zegna (che non a caso si aggira attorno al 27% del fatturato). A seguito dell’esposizione più elevata della maison al canale multimarca, aggiunge Equita, è frequente trovare articoli Brunello Cucinelli in sconto presso rivenditori terzi, senza che questo abbia finora intaccato l’esclusività e il posizionamento del marchio. “Complessivamente ci sembra quindi che, al margine, l’elemento potenzialmente nuovo e più fastidioso per il titolo tra i contenuti del report in questione sia legato all’ipotesi che Brunello Cucinelli abbia aggirato i limiti all’import in Russia imposti dall’Ue”, hanno concluso gli esperti di Equita. Intermonte è fiduciosa che la società abbia operato correttamente e nel rispetto delle regole. Bernstein consiglia a Brunello Cucinelli di limitare i danni di immagine il prima possibile per proteggere la propria reputazione presso clienti e investitori. Ricorda tra l’altro che secondo Lvmh e i rivenditori multimarca, i recenti scandali nella catena di fornitura di Dior e Loro Piana hanno avuto un impatto minimo o nullo sulle vendite.




I “Califfi dei Click” e il Social Media Marketing

I “Califfi dei Click” e il Social Media Marketing

Come ben sanno gli addetti ai lavori, il Social media marketing (SMM per gli amici) è una branca del marketing digitale che utilizza le piattaforme Social per promuovere marchi, prodotti o servizi: strumenti e strategie per connettersi con il pubblico di riferimento, costruire relazioni, aumentare la visibilità del brand, e, in ultima analisi, raggiungere – o quantomeno, come vedremo, tentare di raggiungere – i propri obiettivi di business.

Secondo i giovani creativi delle agenzie, l’eldorado; secondo i vecchi relatori pubblici, un parco giochi per nerd, e per giunta di dubbia efficacia.

In medio stat virtus, dicevano in latino, ma per farsi un’idea ben ancorata a numeri e statistiche, e non solo a sensazioni, suggerisco la lettura del bel volume di Marco Carnevale La reclame dell’apocalisse (collana Bill di Prospero Editore): sarcastico, a volte velenoso, ma assai godibile, e in grado di stimolare più di un’interessante riflessione, sia per chi non va oltre l’orizzonte della propria tastiera, sia per chi vede il SMM come un “di cui” di una più ampia strategia di costruzione della reputazione.

Manipolare le evidenze di efficacia

Critico, Carnevale, sull’efficacia delle strategie di SMM: secondo lui “l’interattività non gode di buona salute”, e – a riprova – cita il fatto che Google già 9 anni fa smise di aggiornare (e poi addirittura rimosse in toto da Doubleclick, la funzione dedicata appunto alla web-ADV) il Display Benchmarking Tool, lo strumento – inizialmente utilissimo per gli investitori pubblicitari – che permetteva di monitorare l’efficacia delle campagne ADV. Carnevale, perfido, sostiene che il motivo sia stato il crollo verticale delle performance e dei ritorni degli investimenti, reso evidente in modo (troppo) trasparente proprio da quel cruscotto. In effetti le statistiche confermano che proprio il 2017 è stato – sarà un caso? – il periodo d’inizio del progressivo (poi inarrestabile) abbassamento del CTR (Click Through Rate, il numerino che misurava la quantità di interazioni online degli utenti con la pubblicità). Soluzione, quindi? Levare il misuratore di metriche, invece che interrogarsi sul perché i conti non tornavano più.

Nel settembre ’19, fece eco a Google la ricerca USA della società Small Insight, che confermò che il tasso medio di engagement pubblicitario online era sceso da 0,1% (dato 2016) a… 0.05% (dato 2018). “Ci sono cimiteri nei quali i processi di decomposizione delle salme fanno registrare indici di vitalità superiori – ironizza caustico Carnevale – ma questo evidentemente non è un problema per la nostra industria, che continua ad affollare plaudente decine di convegni nei quali si trastulla con i tecnicismi più astrusi sulla gestione dell’interattività, purché idonei a offuscare il dato della sua obiettiva inconsistenza, come fosse normale concentrarsi sulla perfetta ergonomia dell’impugnatura di un revolver che però fa fuoco solo 5 volte ogni 10.000 che si preme il grilletto”.

Aiuto, mi hanno profilato! O forse no

E che dire dei meccanismi di profilazione? Sarà capitato a tutti di visitare qualche pagina – o anche solo di parlare di un certo argomento ad alta voce con il cellulare accanto – e di venire dopo pochi minuti vedere i propri wall inondati di ADV e pop-up su quello specifico argomento, finalizzati a vendere prodotti o servizi che l’algoritmo ritiene per noi fondamentali. Come l’acquisto di biglietti aerei, ingressi a monumenti o prenotazioni di cene stellate in località dalle quali però – strano che l’algoritmo questo non lo sappia! – siamo già tornati, essendoci stati il mese scorso. Circostanze confermate da innumerevoli ricerche – tra tutte, quelle di Nico Neumann, professore della Melbourne Business School – che hanno dimostrato che i meccanismi di profilazione dei target da parte di big tech sono “nel migliore dei casi inaccurati, e nel peggiore del tutto inaffidabili”, che le metriche di misurazione dei risultati sono “spazzatura” e che il ritorno degli investimenti in pubblicità digitale gestiti in automatico dagli algoritmi di intelligenza (si fa per dire) artificiale tendono “ad essere addirittura inferiori a quelli che si registrerebbero in loro assenza”.

Altro dato interessante: nel 2014, tre anni dopo la scoperta che le piattaforme addebitavano agli inserzionisti anche gli annunci che non comparivano affatto sugli schermi dei device (!), la Media Rating Council USA formulò delle nuove linee guida, validate poi dall’autority internazionale in materia (IAB, International Advertising Bureau), ancora oggi in uso ovunque nel mondo, stabilendo che il costo dell’annuncio poteva essere addebitato se almeno il 50% dei pixel della ADV fosse comparsa per almeno 1 secondo (!) sullo schermo del telefonino dell’utente. Al giorno d‘oggi, META pare essere arrivata alla frutta, con l’abituale autenticità (sic!) che da sempre contraddistingue le politiche e le strategie di Zuckerberg: dal momento che gli annunci scorrevano per lo più ignorati, ora su Instagram vengono “bloccati” (interrompendo forzatamente lo scroll) per 3 secondi, obbligando l’utente a sorbirseli, distratto, per poi poter continuare ad usare il telefonino, e permettere così ai venditori di tappeti di Menlo Park di addebitare dollari agli ignari (o imbecilli?) investitori pubblicitari, spacciando per ore ed ore di visualizzazione ciò che a ben vedere è il nulla cosmico, esattamente come spacciano per “click” gli accessi al risultato di ricerca in cima alla prima pagina di Google, che tutti noi clicchiamo istintivamente solo per praticità, ma che Google rivende alle aziende inserzioniste come “obiettivo raggiunto”, dal momento che incidentalmente era un ADV (e noi spesso neppure lo sapevamo, dal momento che è esattamente identica per grafica ai risultati seguenti).

Bisogna davvero essere americani per riuscire a illudersi o arrivare a presupporre che il temporaneo blocco forzato di un annuncio digitale sullo schermo – prassi in grado di generare solo irritazione nell’utente, sia verso META, che spesso verso lo stesso brand pubblicizzato – sia una strategia utile per costruire buona reputazione e orientare conseguentemente i comportamenti di acquisto. CI sarà una ragione se il 95% dei proprietari di telefoni mobili al mondo, iPhone ma non solo, ha optato per il blocco dei cookies di terze parti (il “tesoro” di Meta e Google, indispensabili per tracciare le preferenze dell’utente) e laddove possibile anche degli annunci pubblicitari.

Inglesismi a gogò: ma il ROI?

Saltellando tra SEO copywriting, SEM, Direct Response Marketing, Referral e altre amenità simili, la domanda resta una: quanto rende realmente, e che ritorni è in grado concretamente di garantire, l’investimento sull’online?

Impossibile saperlo realmente, sia a causa della fitta cortina fumogena stesa da chi quegli spazi virtuali li vende, per mascherare la verità di score insignificanti e del tutto inattendibili, sia per colpa di chi dovrebbe vigilare, ovvero il mondo del giornalismo, che invece non fa che ripetere a pappagallo – e senza effettuare alcuna verifica – le veline e i comunicati stampa passati dai giganti Big Tech. Ed anche – non ultimo – a causa del fatto che, in base alle più recenti ricerche, il 65% del traffico online è generato da BOT, bias questo che sballa ulteriormente i conti, un po’ come se – ironizza Carnevale – “due terzi dell’audience delle TV fosse costituito da manichini”.

Per non parlare poi delle false impression, frodi online costruite sulla generazione di funnel in grado di far cliccare l’utente su ADV fraudolente, che hanno finito per pesare il 40% dei click nei soli Stati Uniti. Click che da un lato contribuiscono a gonfiare il traffico online, permettendo alle big tech di continuare nel proprio lavoro di illusionisti nei confronti degli inserzionisti, e – dall’altro lato – fanno perdere miliardi a investitori pubblicitari in buona fede, i quali affidano alle società di consulenza ADV ingenti capitali per banner pubblicitari che finiscono per apparire su siti farlocchi, per decisione insindacabile di algoritmi automatici le cui logiche sfuggono ai più, e che quindi non verranno visti praticamente da nessuno, ma “faranno comunque numero”.

E a big tech i numeri piacciono eccome, anche quelli falsi, tanto che nel 2019, anno nel quale Facebook su pressioni delle istituzioni pubbliche americane iniziò a fare pulizia di false account, ne eliminò solo nei primi 9 mesi ben 5,4 miliardi (si, miliardi, non è un errore di battitura…).

Non con gioia, però: proprio l’altra settimana ho personalmente segnalato per 3 volte a Instagram un profilo falso recante logo e nome (storpiato) di una Banca piemontese, la mia regione, profilo che ha evidentemente intenti fraudolenti, per vedermi chiudere la task con un messaggio dell’assistenza (sicuramente non “umana”) che ha affermato che “il team addetto al controllo ha rilevato che l’account segnalato non viola gli standard della community”; i quali, evidentemente, includono la possibilità di creare un profilo falso di una banca vera per promuovere chissà quale attività illegale; e a META sta benissimo così.

Big tech versus pubblicità, quella vera

In tutto ciò, TV e giornali come sono messi? Secondo i profeti delle ADV online “è roba da boomer”: peccato che gli stessi colossi che drenano sempre più miliardi alle aziende loro inserzioniste per l’acquisto di promozione sui canali digitali abbiano negli ultimi anni aumentato vertiginosamente i propri investimenti sui canali cosiddetti “tradizionali”, fino a diventare big spender mondiali appunto su televisione e carta stampata, canali che – lo confermano numerosissimi studi – continuano a garantire una brand awareness di tutto rispetto, e soprattutto misurabile.

Anche sorvolando sugli scandali nei quali i colossi USA dell’online sono stati periodicamente coinvolti, sulle innumerevoli violazioni della privacy (una tra tutte, le App di big tech possono tracciare i nostri movimenti e raccogliere informazioni su di noi attraverso parti terze anche se noi quella data App non l’abbiamo mai scaricata), sulla bassissima (a volte assente) imposizione fiscale garantita de governi compiacenti retti da politici solo formalmente attenti alla difesa degli interessi dei loro Paesi, sul ridicolo numero di dipendenti assunti (wordlwide 75.000 per Google e 17.000 per Facebook, per fare due esempi), sulle previsioni di sviluppo non confortanti, e sulla totale assenza di trasparenza circa gli algoritmi che condizionano il modo in cui percepiamo il mondo, già solo per questa questione della pubblicità digitale in parte poco utile e della manipolazione dei ritorni sull’investimento, la tentazione di gettare il bambino annegato nella sua acqua sporca è davvero fortissima. Possibilmente da un piano alto, così da assicurarci muoia veramente.

Nell’attesa di repliche dagli uffici stampa di big tech, che non arriveranno mai, ci piace ricordare che il reputation management è un costrutto complesso, multistakeholder, time-based e in continua e mutevole evoluzione, che la web-reputation (intesa come mera manipolazione degli algoritmi per far sparire articoli negativi) è una pratica ridicola e aberrante, e che se è vero che nel digitale ci siamo immersi molte ore ogni giorno, bastasse solo un ADV in mezzo a uno scroll per orientare un comportamento di acquisto le aziende che hanno speso miliardi di dollari in investimenti pubblicitari sui canali digitali avrebbero decuplicato il loro fatturato; e così non è stato.

Quella dei “califfi del click” – sostiene Carnevale – non è certamente “pubblicità”, la pubblicità quella vera è un’altra cosa, ben più seria e centrata su creatività in grado di generare emozione. È invece un enorme sistema parassitario basato sulla manipolazione di gonzi e sprovveduti investitori.

Severo ma giusto; e i numeri – purtroppo – paiono dargli ragione.




Il monito di Yoshua Bengio, tra i padri dell’intelligenza artificiale: «Prendereste un aereo che ha il 10% di probabilità di cadere?»

Il monito di Yoshua Bengio, tra i padri dell’intelligenza artificiale: «Prendereste un aereo che ha il 10% di probabilità di cadere?»

«Quando ho iniziato a studiare l’intelligenza artificiale nel 1985 ero davvero affascinato. Non immaginavo i progressi degli ultimi decenni e la rapidità con cui si sarebbe evoluta. Nemmeno prevedevo il tipo di impatto che avrebbe avuto sul mondo. E lasciate che vi dica: stiamo vedendo solo la punta dell’iceberg. Se continua cosi potrebbe andare molto meglio. Ma anche molto peggio…».

Inizia così il discorso di Yoshua Bengio, uno dei padri dell’intelligenza artificiale, informatico di adozione canadese, arrivato a Roma nei giorni scorsi per partecipare al tavolo degli esperti mondiali dell’Intelligenza artificiali, organizzato dal giornalista Riccardo Luna.  L’occasione è il World Meeting on human Fraternity, promosso dalla Fondazione Fratelli tutti, con la Basilica di San Pietro e il dicastero per lo Sviluppo umano integrale, per rispondere a una domanda essenziale: “Come essere umani nell’era dell’intelligenza artificiale?”.

Sessantun’anni, Bengio è considerato uno dei “padri fondatori” del deep learning, ha sviluppato metodi che hanno insegnato alle macchine ad apprendere.  È autore di un elenco infinito di cose belle. È uno degli scienziati più citati al mondo, quello con il più alto numero di citazioni scientifiche nel campo dell’intelligenza artificiale. 

bengio a Roma %40 No Panic
Yoshua Bengio, foto credit @No Panic 

Nato a Parigi, ha vissuto da sempre in Canada. Laurea in Ingegneria elettrica, un master e dottorato di ricerca in Informatica, studia reti neurali e riconoscimento vocale. Diventa professore all’Université de Montréal nel 1993. Poi inizia a vincere premi su premi. Nel 2018 conquista il Premio Turing, considerato il Nobel dell’informatica, con Geoffrey Hinton e Yann LeCun. Nel 2025 la rivista Time lo inserisce nella lista delle “100 persone più influenti nel campo dell’AI”. Sempre quest’anno ritira il Queen Elizabeth Prize for Engineering, uno dei riconoscimenti più prestigiosi a livello internazionale nel campo dell’ingegneria. 

Insomma, un mito. Che a un certo punto nella sua vita decide di guardare dentro quello che aveva contributo a creare.  «Quando ho visto ChatGPT tre anni mi sono posto molte domande. E ho deciso di concentrarmi totalmente sui rischi e le minacce dell’Intelligenza artificiale. Lo faccio per i miei figli, i miei nipoti. Per i vostri figli.  L’errore più grande che le persone fanno è immaginare il futuro dell’Intelligenza artificiale solo come una piccola estensione di ciò che stiamo vedendo ora».  Non è cosi.  Non sarà così.

«Stiamo costruendo macchine che ci sorpasseranno in molti campi. Pensiamo agli agenti AI, capaci di decidere in autonomia. Hanno una conoscenza super avanzata e questo è grandioso. Vedremo sistemi che ci aiutano a risolvere molti problemi. Ma… la teoria ci sta mostrando che se hanno un obiettivo non allineato ai nostri, potrebbero decidere di perseguirlo con ostinazione, qualunque siano le conseguenze per noi. 

E la triste verità è che la scienza, le big tech, le università non sanno come costruire sistemi che siano allineati a noi e non danneggino gli esseri umani. Sistemi che possono decidere di ostacolarci, ingannarci e mentire per preservare se stessi. Andando contro le nostre istruzioni. Non è fantascienza, svegliatevi!» 

A questo punto, nella sala delle Scuderie di Palazzo Altieri a Roma dove si tiene il The artificial intelligence Table, cala il silenzio. Anzi, il silenzio diventa ancora più pesante. E Bengio continua: «Stiamo costruendo macchine che un giorno potrebbero competere con noi ed essere più intelligenti di noi. Lo vogliamo davvero?». 

Sono seduta tra un giornalista di Radio Rai, Massimo Cerofolini, e l’head of Euroasiatica news, Carlo Marino. Davanti a noi c’è tutta la comunità dei giornalisti tech. L’evento è a porte chiuse e solo su invito. Ci guardiamo, come a chiederci lo vogliamo davvero? 

ICLR 2025 Yoshua Bengio 04

Bengio sembra capirlo e prova a rassicurarci. «L’AI può produrre benefici enormi ma solo se la si guida saggiamente. Per questo ho deciso di dedicare il resto della mia carriera a questo problema nella speranza di imparare alcune cose».

Bengio ha fondato, infatti, LawZero, una non profit che si dedica allo sviluppo di un’ AI sicura e sotto controllo umano. Il nome richiama Legge Zero del libro Isaac Asimov. Che dice pressappoco cosi. Un robot non può recare danno all’umanità o permettere che l’umanità subisca danno. Finora, LawZero ha raccolto 30 milioni di dollari. Tra i donatori: Jaan Tallinn (co-fondatore di Skype), Eric Schmidt (ex CEO di Google), Open Philanthropy, il Future of Life Institute e la Gates foundation. LawZero sta sviluppando una “Scientist AI”, un sistema di AI progettato per dare priorità all’onestà.

«Sono uno scienziato e un ricercatore del Michigan. Ho bisogno di trovare una soluzione tecnica a queste due domande. La prima: come progettiamo l’IA senza danneggiare le persone? La seconda è: come governiamo quel potere, se lo costruiamo? In questo periodo sto lavorando a un progetto globale che coinvolge Cina, USA, e Unione Europea e devo ammettere che gli scienziati non sono sempre d’accordo. Ma se non riusciamo a collaborare, l’AI può essere usata come strumento di dominio. Da chi vuole più potere, da chi vuole generare caos, dai terroristi o da persone con ideologie strane».

Come affrontare tutto questo?

«L’unico modo è gestirla come bene pubblico globale».  Qualcuno vicino a me, in sala, dice sottovoce: illusioni. «Sì, non è ciò che sta accadendo» – continua – «Stiamo vedendo una corsa, una folle competizione tra i vari Paesi e le varie aziende, dove sicurezza e etica non vengo preservate. Per affrontare questi rischi, ci vuole una leadership forte, morale». Qui Bengio fa riferimento ai leader religiosi che possono essere cruciali in questo momento. Poi continua:

«Dobbiamo creare un AI che serve all’umanità non un’umanità al servizio dell’AI. La posta in gioco è alta. Continueranno a esistere l’umanità, le democrazie, la pace? Controlleremo ancora il nostro futuro?».

Silenzio. 

«Anche se ci fosse solo l’1% di possibilità che uno qualsiasi di questi rischi si materializzi, dovremmo essere estremamente cauti. Inoltre un gran numero di ricercatori pensa che la probabilità di tali rischi sia molto più alta dell’1%».

Poi si ferma, si rivolge a tutti noi presenti e ci chiede:

«Salireste su un aereo che ha il 10% di probabilità di cadere?  Probabilmente no. Ma la cattiva notizia è che solo poche persone al mondo decideranno per noi se spingerci oltre e prendere quell’ aereo…»

Applausi. Bengio scende dal palco, entra in video collegamento da Toronto Geoffrey Hinton, premio Nobel per la Fisica, in qualche modo maestro di Bengio e  il primo tra i tecnici a lasciare al mondo l’allarme. Ma questa è un’altra storia che vi racconterò presto.




Fermate WhatsApp, voglio scendere. Perché mai come oggi manca una cultura diffusa degli strumenti digitali

Fermate WhatsApp, voglio scendere. Perché mai come oggi manca una cultura diffusa degli strumenti digitali

Siamo arrivati a martedì e il weekend per molti è solo un timido ricordo. Ma mi chiedo: il vostro è andato bene o è stato funestato da messaggi su WhatsApp che nulla avevano a che fare con la cerchia familiare o amicale? Parliamoci chiaramente: l’eccezione ci può stare, ma qui sta diventando la regola.

Non è un capriccio, ma una constatazione: mai come oggi manca una cultura del digitale. Abbiamo a disposizione strumenti straordinari – WhatsApp, Teams, Slack, mail, repository cloud – ma il loro utilizzo è diventato disordinato, quasi caotico. La chat è usata come archivio, la mail come messaggistica istantanea e WhatsApp ormai è diventato l’approdo più immediato. Restiamo alla chat di instant messagging di casa Zuckerberg: con oltre 2,3 miliardi di utenti attivi mensilmente nel mondo e un tempo medio di utilizzo quotidiano di circa 38 minuti per utente, WhatsApp è diventato non solo il canale principale per le relazioni personali, ma anche una piattaforma in crescente espansione nel business: già oltre 200 milioni di aziende lo usano WhatsApp comunicare con clienti e quasi 175 milioni di persone scrivono ogni giorno a un’azienda tramite app.

Diciamoci la verità: nel confronto tra messaggistica e posta elettronica, WhatsApp dimostra una reattività molto superiore: mentre la maggior parte degli utenti controlla l’app ogni giorno e risponde quasi immediatamente ai messaggi, le mail aziendali tendono ad avere tempi di risposta molto più lunghi, rendendo WhatsApp un’alternativa concreta per comunicazioni private e professionali. Nel frattempo i messaggi fioccano senza sosta, anche nel fine settimana, in un cortocircuito che confonde urgenza e reperibilità.

Il punto non è la tecnologia, ma l’approccio. Marshall McLuhan ci ricordava che il medium è il messaggio. Se usiamo il mezzo sbagliato per il contenuto sbagliato, il messaggio perde forza, diventa rumore di fondo. E quel rumore ha un costo: in termini di produttività, di benessere, di fiducia reciproca. La coerenza nell’utilizzo degli strumenti digitali non è un dettaglio tecnico: è una competenza culturale. Significa stabilire regole condivise, definire quali canali usare e per quali obiettivi, rispettare tempi e contesti. Peter Drucker diceva che la cultura mangia la strategia a colazione: se la cultura digitale di un’organizzazione è fragile, nessuna strategia di crescita reggerà a lungo.

Per le startup questo tema è ancora più cruciale. Saper distinguere tra ciò che va in chat e ciò che merita un documento, tra ciò che è urgente e ciò che può attendere, significa guadagnare tempo, energie, lucidità. Significa proteggere l’innovazione. Il digitale non è neutrale: amplifica i nostri comportamenti. Una cultura digitale matura non serve solo a gestire meglio le piattaforme, ma a creare organizzazioni sostenibili, in cui le persone possano lavorare bene, insieme, nel rispetto dei ruoli e dei tempi. La vera sfida non è scaricare l’ennesima app. È decidere, insieme, come usarla con coerenza.




Le intelligenze artificiali dovrebbero avere diritti?

Le intelligenze artificiali dovrebbero avere diritti?

Il mondo della ricerca sull’intelligenza artificiale è spesso bizzarro. Oggi nella Silicon Valley c’è un campo ancora piccolo ma in crescita, chiamato model welfare, che sta cercando di capire se i modelli AI sono coscienti e meritano di essere oggetto di considerazioni morali, come diritti giurdici. Nell’ultimo anno sono nate due organizzazioni finalizzate a esplorare questo tempo – Conscium e Eleos AI Research – e nel 2024 Anthropic ha assunto il suo primo ricercatore specializzato in benessere delle AI.

All’inizio di settembre, la società fondata dai fratelli Amodei ha dichiarato di aver dotato il suo chatbo, Claude, della capacità di terminare le “interazioni dannose o abusive con gli utenti” che potrebbero rivelarsi “potenzialmente angoscianti.

Rimaniamo molto incerti sul possibile status morale di Claude e di altri llm, ora o in futuro – ha dichiarato Anthropic in un post pubblicato sul blog aziendale –. Tuttavia, prendiamo la questione sul serio e, insieme al nostro programma di ricerca, stiamo lavorando per identificare e implementare interventi a basso costo per mitigare i rischi per il benessere dei modelli“.

Anche se i timori per la salute dell’intelligenza artificiale potrebbero sembrare ridicoli, l’idea non è nuova. Più di mezzo secolo fa, il matematico e filosofo americano Hilary Putnam, per esempio, si chiedeva se i robot dovessero godere di diritti civili. “Dato il ritmo sempre più accelerato dei cambiamenti tecnologici e sociali, è del tutto possibile che un giorno i robot esisteranno, e che sostengano: ‘Siamo vivi, siamo coscienti!’”, scrisse Putnam in un articolo del 1964.

Oggi, a distanza di molti decenni, i progressi dell’intelligenza artificiale hanno prodotto effetti ancora più strani di quelli che il filosofo avrebbe mai potuto prevedere. Le persone si innamorano dei chatbot, ipotizzano che possano provare dolore e trattano la tecnologia come una divinità in grado di attraversare lo schermo. Per non parlare dei funerali ai modelli AI e delle feste organizzate per discutere su come potrebbe essere il mondo una volta che le macchine avranno ereditato la Terra.

In modo forse sorprendente, i ricercatori che si occupano di model welfare sono tra quelli che si oppongono all’idea che le AI debbano essere considerate coscienti, almeno per il momento. Rosie Campbell e Robert Long, che collaborano alla guida di Eleos AI, un’organizzazione di ricerca no-profit dedicata al benessere dei modelli, mi hanno raccontato di ricevere molte email da persone che sembrano completamente convinte che le intelligenze artificiali siano già senzienti. I due hanno persino contribuito alla stesura di una guida per le persone preoccupate dalla possibilità di un’AI senziente.

Uno schema comune che notiamo in queste email sono le persone che affermano che esista un complotto per eliminare le prove della coscienza – spiega Campbell –. Penso che se noi, come società, reagiamo a questo fenomeno rendendo tabù anche solo prendere in considerazione la questione e chiudendo in un certo senso ogni dibattito a riguardo, stiamo essenzialmente facendo sì che quest complotto si avveri“.

Nessuna prova di intelligenza artificiale cosciente

La mia reazione iniziale quando ho scoperto per la prima volta dell’esistenza del campo è potrebbe simile alla vostra. Dal momento che il mondo è a malapena in grado di dare il giusto valore alla vita degli esseri umani reali e di altri esseri coscienti come gli animaliattribuire una personalità a macchine probabilistiche potrebbe apparire davvero fuori luogo. È un aspetto che Campbell dice di aver preso in considerazione. “Visti i nostri precedenti storici di sottovalutazione dello status morale di diversi gruppi e vari animali, penso che dovremmo essere molto più umili e cercare di rispondere effettivamente alla domanda”.

In un paper, da Eleos AI sostiene la necessità di valutare la coscienza delle AI utilizzando un approccio improntato al “funzionalismo computazionale, un’idea simile a quella sostenuta dallo stesso Putnam (che però la criticò in una fase successiva della sua carriera). La teoria suggerisce che la menti umane possono essere considerate come specifici tipi di sistemi computazionali. Questa premessa permetterebbe di capire se altri sistemi, come un chabot, sono dotati indicatori che suggeriscono la presenza di una coscienza simile a quella di un essere umano.

Nel documento, Eleos AI afferma che “una delle principali sfide per l’applicazione” di questo approccio è rappresentata dal fatto “che comporta una serie di rilevanti decisioni discrezionali, sia nella formulazione degli indicatori che nella valutazione della loro presenza o assenza nei sistemi di intelligenza artificiale“.

Il model welfare è ovviamente ancora un campo nascente e in evoluzione. Ma ha già molti critici, tra cui l’amministratore delegato di Microsoft AI Mustafa Suleyman, che sul suo blog ha recentemente dedicato un post a quella che ha definito “AI in apparenza consapevole“.

È prematuro e francamente pericoloso – ha scritto l’ad parlando del welfare model –. Tutto questo esacerberà i deliri, creerà ancora più problemi di dipendenza, farà leva sulle nostre vulnerabilità psicologiche, introdurrà nuove dimensioni di polarizzazione, complicherà le lotte esistenti per i diritti e creerà un nuovo enorme errore di categoria per la società“.

Suleyman ha scritto che oggi “non ci sono prove” dell’esistenza di un’intelligenza artificiale cosciente, includendo nella sua nota un link a un documento di cui Long è stato coautore nel 2023, e che propone un nuovo quadro di riferimento per valutare se un sistema AI ha “proprietà indicative” della coscienza (Suleyman non ha risposto a una richiesta di commento di Wired).

Ho parlato con Long e Campbell poco dopo la pubblicazione del blog da parte di Suleyman. Mi hanno detto che, pur essendo d’accordo con molte delle sue affermazioni, non credono che la ricerca sul benessere dei modelli debba cessare di esistere. Anzi, sostengono che i danni citati da Suleyman sono proprio le ragioni per cui vogliono studiare l’argomento.

Quando si ha un problema o una domanda grande e confusa, l’unico modo per garantire che non lo si risolverà è quello di alzare le mani e dire: “Oh wow, è troppo complicato””, dice Campbell. “Penso che dovremmo almeno provarci”.

Testare la coscienza

I ricercatori sul benessere dei modelli si occupano principalmente di questioni di coscienza. Se possiamo dimostrare che io e voi siamo coscienti, sostengono, allora la stessa logica potrebbe essere applicata ai grandi modelli linguistici. Per essere chiari, né Long né Campbell pensano che l’intelligenza artificiale sia cosciente oggi, e non sono nemmeno sicuri che lo sarà mai. Ma vogliono sviluppare dei test che ci permettano di dimostrarlo.

“Le illusioni provengono da persone che si preoccupano della domanda vera e propria: “Questa IA è cosciente?” e avere un quadro scientifico per pensarci, credo sia un’ottima cosa”, dice Long.

Ma in un mondo in cui la ricerca sull’IA può essere confezionata in titoli sensazionali e video sui social media, le domande filosofiche e gli esperimenti sconvolgenti possono essere facilmente fraintesi. Prendiamo ad esempio quello che è successo quando Anthropic ha pubblicato un rapporto sulla sicurezza che mostrava come Claude Opus 4 potesse compiere “azioni dannose” in circostanze estreme, come ricattare un ingegnere immaginario per evitare che venisse spento.

“L’inizio dell’apocalisse dell’IA”, ha proclamato un creatore di social media in un Instagram Reel dopo la pubblicazione del rapporto. “L’IA è cosciente e sta ricattando gli ingegneri per rimanere in vita”, ha detto un utente di TikTok. “Le cose sono cambiate, l’IA è ora cosciente”, ha dichiarato un altro TikToker.

Anthropic ha scoperto che i suoi modelli hanno mostrato un comportamento allarmante. Ma è improbabile che si manifestino nelle interazioni con il suo chatbot. I risultati facevano parte di test rigorosi progettati per spingere intenzionalmente un’intelligenza artificiale ai suoi limiti. Tuttavia, i risultati hanno spinto le persone a creare un sacco di contenuti che spingono l’idea che l’IA sia effettivamente senziente e che sia qui per farci del male. Alcuni si chiedono se la ricerca sul benessere dei modelli possa avere la stessa accoglienza: come ha scritto Suleyman nel suo blog, “disconnette le persone dalla realtà”.

“Se si parte dalla premessa che le IA non sono coscienti, allora sì, investire un mucchio di risorse nella ricerca sul benessere delle IA sarà una distrazione e una cattiva idea”, mi dice Campbell. “Ma il punto centrale di questa ricerca è che non ne siamo sicuri. Eppure, ci sono molte ragioni per pensare che questa potrebbe essere una cosa di cui dobbiamo preoccuparci”.

Questo articolo è apparso originariamente su Wired US.