B Lab pubblica i nuovi standard per la certificazione B Corp
|
“In un momento in cui altri leader fanno un passo indietro, il business deve guidare il progresso” ha affermato Clay Brown, co-Direttore Esecutivo di B Lab Global. “Non si tratta di un semplice aggiornamento, ma di una rivisitazione completa dell’impatto aziendale per rispondere alle sfide del nostro tempo. I nuovi standard di B Lab possono servire come tabella di marcia per la leadership sulle questioni sociali e ambientali quando è più necessario”.
Con la community delle B Corp in procinto di raggiungere un traguardo significativo, ovvero un gruppo di quasi 10.000 aziende in 100 Paesi, che impiegano quasi 1 milione di lavoratori in 160 settori, i nuovi standard di B Lab, giunti alla settima evoluzione, spingono le aziende a scalare l’impatto verso obiettivi sociali e ambientali condivisi, fornendo alle aziende chiarezza su come intraprendere un’azione significativa e tangibile sulle questioni che riguardano le persone e il pianeta e alzando l’asticella per tutte le imprese.
Dopo aver coinvolto diversi stakeholder attraverso un processo di consultazione pluriennale, B Lab ha introdotto requisiti che tutte le B Corp devono soddisfare in sette argomenti di impatto e abbandona l’assegnazione di un punteggio cumulativo. Questo creerà la possibilità per le B Corp di gestire il loro impatto in modo olistico, aumentando al contempo la trasparenza e la chiarezza per il pubblico.
“Dopo quattro anni, due consultazioni pubbliche e 26.000 feedback da parte di aziende, pubblico ed esperti, siamo fiduciosi che i nuovi standard siano chiari, ambiziosi e realmente in grado di alzare il livello delle aziende in tutto il mondo” ha affermato Judy Rodrigues, Direttrice degli Standard di B Lab Global. “Non vediamo l’ora di collaborare con la nostra comunità per abbracciare questi nuovi standard e creare uno slancio per il cambiamento dei sistemi”.
Le B Corp devono soddisfare gli standard di performance dei seguenti sette argomenti d’impatto:
Purpose & Stakeholder Governance: l’azione ha lo scopo definito e integrare la governance degli stakeholder nel processo decisionale, creando strutture di governance per monitorare lo scopo, le prestazioni sociali e ambientali.
Climate Action: sviluppo di un piano d’azione a sostegno della limitazione del riscaldamento globale a 1,5°C e, per le aziende più grandi, includere le emissioni di gas serra e obiettivi basati sulla scienza (science-based).
Human Right: comprensione dell’impatto negativi delle proprie operazioni e della catena del valore sui diritti umani e adozione di misure per prevenire e mitigare gli stessi.
Fair Work: Fornimento di posti di lavoro di buona qualità e ottenere culture aziendali positive, con l’implementazione di pratiche salariali eque e l’integrazione del feedback dei lavoratori nel processo decisionale.
Environmental Stewardship & Circularity: Valutazione dei propri impatti ambientali e la messa in atto di azioni significative per la riduzione al minimo nelle proprie operazioni e nella catena del valore.
Justice, Equity, Diversity & Inclusion: Promozione di ambienti di lavoro inclusivi e diversificati che contribuscono in modo significativo a comunità giuste ed eque.
Government Affairs & Collective Action: Impegno negli sforzi collettivi per la promozione un cambiamento sistemico, sostegno delle politiche che creano risultati sociali e ambientali positivi e, per le aziende più grandi, la condivisione pubblica della reportistica fiscale di ciascun Paese.
“In un mercato in continua trasformazione, con aziende sempre più mature e nuove normative, è essenziale che gli standard e il modello B Corp continuino a evolvere e a spingersi oltre, come fanno con coerenza dal 2006” ha dichiarato Francesco Serventi, Evolution Flow Leader di NATIVA, prima B Corp italiana. “Siamo entusiasti di questa notizia e non vediamo l’ora di confrontarci con i nuovi standard, applicandoli su di noi e su tante aziende desiderose di intraprendere un percorso di miglioramento continuo del proprio impatto”.
Mentre le aziende si trovano ad affrontare una crescente complessità normativa e una crescente pressione a ritirarsi dalle iniziative per il clima e la giustizia sociale, i nuovi standard di B Lab forniscono un percorso chiaro per un impegno duraturo. Riconoscendo le pressioni che le aziende devono affrontare oggi, essi incorporano dati e metodologie di altri schemi di certificazione, quadri di riferimento per la sostenibilità e rapporti di divulgazione, tra cui GRI, SBTi e Fairtrade, consentendo alle aziende di concentrarsi su ciò che conta: operare a beneficio di tutti gli stakeholder.
Sebbene la certificazione B Corp affermi che un’azienda soddisfa elevati standard di performance sociale e ambientale, l’impegno si conferma con il miglioramento continuo da parte dei nuovi standard di B Lab, con le aziende che devono dimostrare il miglioramento dell’impatto nel tempo, compresi i traguardi dopo 3 anni e 5 anni, consentendo ai leader di continuare a guidare progressi significativi durante il loro percorso come B Corp.
“I nuovi standard di B Lab offrono una visione chiara di cosa significhi essere un’azienda rigenerativa e un percorso concreto per generare impatto positivo” ha affermato Elena Pellizzoni, ESG Chief di Flowe Società Benefit. “Grazie al processo di consultazione, integrano le best practice e stimolano le B Corp a misurarsi su scale sempre più ambiziose e a contribuire a un cambiamento sistemico”.
“Direttiva Greenwashing” in vigore, tutto parte dalla definizione di “certificazione”
|
Gli aspetti fondamentali della “Direttiva Greenwashing” in vigore
Pubblicata il 6 marzo e in vigore dal 26 marzo 2024 la cd. “Direttiva Greenwashing”, ovvero la direttiva 2024/825/UE (“Responsabilizzazione dei consumatori per la transizione verde mediante il miglioramento della tutela dalle pratiche sleali e dell’informazione”, che modifica la Direttiva 2005/29/Ce sulle pratiche commerciali sleali).
Quali sono gli aspetti fondamentali della Direttiva (il cui testo, approvato in via definitiva dal Parlamento Ue il 17 gennaio 2024, è già noto da tempo)?
Si chiarisce cosa si intende con sistema di certificazione (o etichetta) ambientale.
Si definisce il concetto di “terza parte” (se manca è pratica commerciale sleale).
Le nuove etichette private saranno ammesse ma solo se apportano un “valore aggiunto” sul mercato (quindi rispetto a quelle già esistenti.
Vengono definite le regole che devono stare alla base della messa sul mercato di nuove certificazioni, altrimenti le certificazioni dovranno essere proibite perché, appunto, lesive della concorrenza leale.
Il panorama normativo in fase di definizione
Ma partiamo dall’inizio. Il quadro normativo delle asserzioni ambientali (cd. green claims) è in fase di definizione e di forte cambiamento. Lo è per effetto di due importanti documenti che si avvicinano al termine del loro iter normativo comunitario. Si tratta della proposta di Direttiva Green Claims [1] del 22/3/2023, che è derivazione (lex specialis) della più ampia proposta di Direttiva responsabilizzazione consumatori, la direttiva 2024/825/UE pubblicata il 6 marzo e in vigore dal 26 marzo 2024.
ll concetto di partenza è che uno dei maggiori rischi per la libertà di scelta del consumatore e della libera concorrenza tra le imprese, è rappresentato dal greenwashing. I consumatori, con le loro scelte green che devono essere libere e consapevoli, sono i veri motori del cambiamento. Quindi prima di tutto la Direttiva sulla responsabilizzazione dei consumatori definisce l’elenco delle pratiche commerciali considerate in ogni caso sleali e associate al greenwashing:
esibire un marchio di sostenibilità che non sia basato su un sistema di certificazione o non è stabilito da autorità pubbliche;
formulare un’asserzione ambientale generica per la quale il professionista non è in grado di dimostrare l’eccellenza riconosciuta delle prestazioni ambientali pertinenti all’asserzione;
formulare un’asserzione ambientale concernente il prodotto nel suo complesso quando riguarda soltanto un determinato aspetto;
presentare requisiti imposti per legge sul mercato dell’Unione per tutti i prodotti appartenenti a una data categoria come se fossero un tratto distintivo dell’offerta del professionista.
Il secondo passaggio fondamentale è che vengono per la prima volta [3]introdotte nel sistema due definizioni fondamentali: cosa si intende con “sistema di certificazione” e, di conseguenza, cosa si deve intendere con “terza parte”.
La definizione di “sistema di certificazione”
Per la Direttiva sulla responsabilizzazione dei consumatori la definizione si trova all’articolo 1 (Modifiche alla Direttiva 2005/29/CE) comma 1, lettera r): – “sistema di certificazione”: un sistema di verifica da parte di terzi che certifica che un prodotto, un processo o un’impresa è conforme a determinati requisiti, che consente l’uso di un corrispondente marchio di sostenibilità e le cui condizioni, compresi i requisiti, sono accessibili al pubblico e soddisfano i criteri seguenti: i) il sistema, nel rispetto di condizioni trasparenti, eque e non discriminatorie, è aperto a tutti gli operatori economici disposti e in grado di conformarsi ai suoi requisiti; ii) i requisiti del sistema sono elaborati dal titolare dello stesso in consultazione con gli esperti pertinenti e i portatori di interessi; iii) il sistema stabilisce procedure per affrontare i casi di non conformità ai requisiti del sistema e prevede la revoca o la sospensione dell’uso del marchio di sostenibilità da parte dell’operatore economico in caso di non conformità ai requisiti del sistema; e iv) il monitoraggio della conformità dell’operatore economico ai requisiti del sistema è oggetto di una procedura obiettiva ed è svolto da un terzo la cui competenza e la cui indipendenza sia dal titolare del sistema sia dall’operatore economico si basano su norme e procedure internazionali, dell’Unione o nazionali;
Sulla definizione anche la Direttiva Green Claims è assolutamente coerente: con sistema di certificazione si intende (articolo 2, punto 10): “un sistema di verifica da parte di terzi che, nel rispetto di condizioni trasparenti, eque e non discriminatorie, è aperto a tutti i professionisti disposti e in grado di conformarsi ai suoi requisiti, il quale certifica che un dato prodotto è conforme a determinati requisiti e nel cui ambito il monitoraggio della conformità è oggettivo, basato su norme e procedure internazionali, unionali o nazionali, ed è svolto da un soggetto che è indipendente sia dal titolare del sistema sia dal professionista;”.
Quindi, nelle definizioni, i primi aspetti riportati riguardano l’affidabilità e la scientificità che devono stare alla base della definizione delle regole sulle quali l’etichetta ambientale si basa, che deve inoltre essere democratica e aperta.
La definizione di “terza parte”
Quello che è un aspetto inedito nel sistema normativo delle etichette ambientali è la definizione di “terza parte”: le verifiche per il rilascio della certificazione devono essere svolte da un soggetto indipendente e separato nella sostanza (e non solo formalmente) rispetto al titolare del sistema di certificazione e, ovviamente, rispetto all’azienda che chiede la certificazione. Nella sostanza, chi elabora e definisce un sistema di certificazione non può essere legato in alcun modo al soggetto che effettua le verifiche.
La violazione di questo aspetto è ritenuta pratica commerciale sleale (come spiegato nell’Explanatory Memorandum che precede la Proposta di Direttiva) per cui meritevole di sanzioni che dovranno essere attuate dagli Stati membri.
La proposta di Direttiva Green Claims è severa sul punto: “l’esposizione di un’etichetta di sostenibilità non basata su un sistema di certificazione o non istituita dalle autorità pubbliche costituisce una pratica commerciale sleale in tutte le circostanze. Ciò significa che sono vietate le etichette di sostenibilità “autocertificate”, ovvero quelle in cui non viene effettuata alcuna verifica da parte terza (come sopra definita)”.
Quindi, se non esiste una netta separazione dei soggetti, si ricade nell’auto-dichiarazione ambientale, strettamente vietata dalle nuove norme europee.
Il sistema di certificazione (o etichettatura) ambientale deve soddisfare le seguenti prescrizioni (articolo 8 direttiva Green claims):
le informazioni sulla titolarità e sugli organi decisionali del sistema di etichettatura ambientale sono trasparenti, accessibili gratuitamente, di facile comprensione e sufficientemente dettagliate;
le informazioni sugli obiettivi del sistema di etichettatura ambientale e sulle prescrizioni e procedure per monitorare la conformità dei sistemi di etichettatura ambientale sono trasparenti, accessibili gratuitamente, di facile comprensione e sufficientemente dettagliate;
le condizioni per aderire ai sistemi di etichettatura ambientale sono proporzionate alle dimensioni e al fatturato delle imprese così da non escludere le piccole e medie imprese;
le prescrizioni per il sistema di etichettatura ambientale sono state elaborate da esperti in grado di garantirne la solidità scientifica e sono state presentate per consultazione a un gruppo eterogeneo di portatori di interessi che le ha riesaminate garantendone la rilevanza dal punto di vista della società;
il sistema di etichettatura ambientale dispone di un meccanismo di risoluzione dei reclami e delle controversie;
il sistema di etichettatura ambientale stabilisce procedure per affrontare i casi di non conformità e prevede la revoca o la sospensione del marchio ambientale in caso di inosservanza persistente e flagrante delle prescrizioni del sistema.
La limitazione per nuove etichette ambientali
Viene poi normato che gli Stati membri non potranno più istituire nuovi sistemi nazionali o regionali di etichettatura ambientale, dalla data di entrata in vigore della direttiva, se non conformi al diritto dell’Ue e alle disposizioni della prossima Direttiva Green Claims.
Tuttavia, i sistemi nazionali o regionali di etichettatura ambientale istituiti prima dell’entrata in vigore della Direttiva possono continuare a rilasciare i marchi ambientali nel mercato dell’Unione, a condizione che soddisfino le prescrizioni della presente direttiva.
Per evitare l’ulteriore moltiplicarsi dei sistemi di etichettatura ambientale (“marchi di qualità ecologica”) di tipo I in conformità della norma EN ISO 14024 riconosciuti ufficialmente a livello nazionale o regionale e di altri sistemi di etichettatura ambientale, è opportuno che nuovi sistemi nazionali o regionali possano essere sviluppati soltanto in conformità del diritto dell’Unione.
Le sanzioni
In caso di violazione delle disposizioni sui marchi ambientali le sanzioni comprendono anche l’esclusione temporanea, per un periodo massimo di 12 mesi, dalle procedure di appalto pubblico e dall’accesso ai finanziamenti pubblici, comprese procedure di gara, sovvenzioni e concessioni.
Il documento comunitario spiega che attualmente sul mercato dell’Unione sono utilizzate più di 200 etichette ambientali. Presentano importanti differenze nel modo in cui operano per quanto riguarda, ad esempio, la trasparenza e la completezza delle norme o dei metodi utilizzati, la frequenza delle revisioni o il livello di audit o verifica. Queste differenze hanno un impatto sull’affidabilità delle informazioni comunicate sulle etichette ambientali. Sebbene le dichiarazioni basate sull’Ecolabel UE o sui suoi equivalenti nazionali seguano una solida base scientifica, abbiano uno sviluppo trasparente dei criteri, richiedano prove e verifiche da parte di terzi e prevedano un monitoraggio regolare, le prove suggeriscono che molte etichette ambientali attualmente sul mercato dell’UE sono fuorvianti. In particolare, molte etichette ambientali mancano di procedure di verifica affidabili. Pertanto, le dichiarazioni ambientali esplicite riportate sulle etichette ambientali dovranno essere basate su un sistema di certificazione, così come sopra definito.
La proposta di Direttiva Green claims stringe, come preannunciato sopra, sulla proliferazione di nuovi schemi proprietari privati, che quindi dovranno essere sottoposti ad una procedura di convalida preventiva, valutati dalle autorità nazionali e convalidati solo se dimostrano un valore aggiunto (articolo 8, comma 5) rispetto agli schemi già esistenti, in termini di caratteristica ambientale coperta, impatti ambientali, gruppo di categorie di prodotti o settore e la loro capacità di sostenere la transizione verde delle PMI rispetto ai regimi esistenti dell’Unione, nazionali o regionali. Per facilitare la valutazione del valore aggiunto, sarà pubblicata una lista delle etichette ambientali esistenti e affidabili.
I nuovi regimi privati saranno consentiti solo se possono mostrare ambizioni ambientali più elevate rispetto a quelli esistenti e ottenere quindi una pre-approvazione.
[3] In realtà la definizione di “sistema di certificazione” era già presente nell’articolo 2 lettera s) della direttiva 2005/59/CE dell’11 maggio 2005 relativa alle pratiche commerciali sleali delle imprese nei confronti dei consumatori nel mercato interno.
Maggiore sicurezza nell’era digitale: riflessioni sui Trusted Flaggers
|
Il 2 aprile è stato l’International Fact-Checking Day, giornata promossa dall’International Fact-Checking Network (IFCN) insieme a organizzazioni di fact-checking di tutto il mondo per celebrare l’importanza della verifica delle notizie. Questa ricorrenza mette in luce un principio chiave: combattere la disinformazione è una responsabilità condivisa. Non a caso l’IFCN promuove lo slogan #FactCheckingisEssential, per indicare che un ecosistema informativo sano richiede il contributo di tutti, non solo degli addetti ai lavori.
Oggi il fact-checking è più importante che mai, in un ecosistema mediatico profondamente trasformato dai social network e dalla comunicazione istantanea. Miliardi di persone producono e diffondono contenuti in tempo reale, e notizie infondate possono propagarsi globalmente in pochi minuti. In un contesto così fluido, la verifica di fonti e fatti è essenziale per mantenere la fiducia del pubblico e arginare i danni della disinformazione. Allo stesso tempo, anche le strategie di moderazione dei contenuti online stanno cambiando, come dimostrano le mosse recenti di alcune piattaforme.
In Europa, invece, il Digital Services Act (DSA) ha introdotto da poco i Trusted Flaggers: enti specializzati incaricati di segnalare con priorità alle piattaforme i contenuti illegali, che le piattaforme devono esaminare con urgenza. Invece di ridurre l’intervento umano, l’Europa lo istituzionalizza creando “segnalatori di fiducia” per rafforzare la moderazione online. In Italia, questo ruolo è stato affidato ad Argo Business Solutions, un’azienda specializzata in servizi di sicurezza digitale, riconosciuta per la sua competenza nella lotta contro le violazioni dei diritti di proprietà intellettuale e le frodi online.
Nel mio caso, per la mia tesi magistrale presso l’Università di Amsterdam, sto conducendo interviste a livello europeo sul ruolo dei Trusted Flaggers nel rendere Internet più sicuro. Per questo vorrei coinvolgere chi legge, invitando i colleghi a condividere spunti, contatti o riflessioni utili per arricchire la ricerca. Ogni contributo sarà prezioso per alimentare un dialogo costruttivo sia per la parte teorica che quella applicata della mia tesi. Attenzione! Potreste farvi fare una strategia marketing dal sottoscritto come riconoscimento.
L’approccio di Meta e quello europeo incarnano due modelli molto diversi di governance dei contenuti. Quello statunitense affida il controllo alla comunità degli utenti, riducendo al minimo l’intervento della piattaforma in nome di una libertà di espressione quasi illimitata; quello europeo, definito dal DSA, enfatizza invece la responsabilità condivisa, con obblighi per le piattaforme e la collaborazione di enti qualificati (come i Trusted Flaggers) per rimuovere attivamente i contenuti illegali o falsi. Questi approcci rispecchiano filosofie distanti, espressione di visioni culturali differenti sul ruolo della tecnologia e dei regolatori nel tutelare il dibattito pubblico.
L’evoluzione di questi scenari sarà al centro di un imminente momento di confronto. Il 16 maggio, a Venezia, si terrà il Summit Europeo organizzato da FERPI insieme alla Global Alliance, dedicato alle trasformazioni della comunicazione e all’etica dell’intelligenza artificiale. Sarà un’occasione per discutere i nuovi modelli di regolazione assieme ai membri del Comitato Scientifico FERPILab e come i professionisti della comunicazione possano contribuire a un ecosistema informativo più sano. In tempi di cambiamenti rapidi, appuntamenti come questo sono preziosi per ribadire principi etici e individuare soluzioni che coniughino libertà di espressione e tutela del pubblico.
AI e comunicazione: la responsabilità è (ancora) nostra
|
L’intelligenza artificiale generativa sta trasformando il mondo della comunicazione, mettendo a disposizione strumenti sempre più sofisticati per creare testi, immagini, video e suoni. Ma di fronte a questa rivoluzione, il punto non è se l’AI debba essere usata o meno. Il vero tema è come i comunicatori scelgono di governarla.
Nel dibattito sulle AI generative si cade spesso in una contrapposizione ingannevole: da un lato, il timore che la macchina possa sostituire l’essere umano; dall’altro, l’entusiasmo per l’efficienza che può garantire. Ma questa lettura è limitante. L’intelligenza artificiale generativa non è un’entità autonoma: è il riflesso dei dati, dei modelli e delle logiche che gli esseri umani decidono di applicare. Per questo, chi si occupa di comunicazione ha una responsabilità fondamentale: capire come utilizzarla in modo etico e consapevole, senza alimentare disinformazione, bias e distorsioni.
AI e disinformazione: uno strumento nelle nostre mani
Le intelligenze artificiali generative non pensano, non mentono e non hanno intenzioni proprie. Semplicemente, elaborano i dati a cui hanno accesso e producono contenuti basati su schemi probabilistici. Questo significa che, se i dati di partenza sono incompleti o distorti, il risultato sarà altrettanto parziale.
Chi lavora nella comunicazione deve essere consapevole di questa dinamica. L’AI può amplificare la disinformazione, ma non ne è la causa: la responsabilità resta umana. I professionisti e le professioniste del settore devono quindi sviluppare una cultura dell’uso critico di questi strumenti, verificando le fonti, contestualizzando le informazioni e riconoscendo i limiti della tecnologia.
L’AI può diventare un alleato nella lotta alla disinformazione, ma solo se viene utilizzata con metodo e trasparenza. Automatizzare la produzione di contenuti non significa rinunciare alla loro qualità e affidabilità.
Non subire l’innovazione, ma governarla
Ad oggi, il quadro normativo sull’AI è ancora in fase di definizione, e i vincoli per chi sviluppa questi strumenti sono limitati. Chi progetta algoritmi ha il dovere di garantire trasparenza, ma chi li usa ha la responsabilità di comprenderne il funzionamento.
Ci sono ancora molte incognite, per esempio sugli impatti ambientali di questa tecnologia: l’addestramento di modelli come GPT-4 consuma un’enorme quantità di energia, paragonabile al fabbisogno annuo di migliaia di famiglie. Oppure sul tema dei bias: se i dati su cui si basano gli algoritmi sono sbilanciati (e oggi lo sono, basti pensare al gender gap nel settore tecnologico), il rischio è che l’AI amplifichi disuguaglianze già esistenti.
Per questo, i comunicatori non possono limitarsi a “usare” le AI generative, ma devono capire come funzionano, quali sono i limiti e come evitare effetti indesiderati (se non sappiamo come funziona la macchina, non possiamo certo “accusarla” di fare un cattivo lavoro). La formazione continua diventa essenziale: solo chi conosce davvero questi strumenti può governarli, evitando di subirne passivamente le conseguenze.
Un nuovo ruolo per chi comunica: competenza, etica e visione
Cambiano i profili e le modalità del nostro lavoro ma non è – e non può essere – l’AI a decidere se un messaggio è corretto, etico o trasparente.Questa responsabilità resta in mano a noi persone.
Chi lavora in comunicazione deve oggi più che mai esercitare pensiero critico, verifica delle fonti e capacità di contestualizzazione. L’AI generativa può automatizzare alcuni processi, ma non potrà mai sostituire la capacità di interpretare il contesto, di creare connessioni significative e di costruire narrazioni autentiche. Più di tutto, di nutrire le relazioni.
Come sottolineano Massimo Lapucci e Stefano Lucchini nel saggio Ritrovare l’umano, non c’è vera sostenibilità senza mettere al centro la componente Human. Questo vale anche per la comunicazione: se la tecnologia non è al servizio del benessere collettivo, rischia di diventare solo un acceleratore di squilibri.
Quindi, il punto non è se l’AI sia un rischio o un’opportunità. Il punto è quale ruolo vogliamo avere come professioniste e professionisti della comunicazione in questa trasformazione. E la risposta sta nella nostra capacità di usarla con consapevolezza, competenza ed etica.
Facebook, da accogliente ritrovo di vecchi amici a luogo di «distorsione collettiva della realtà»: cosa è andato storto
|
Cos’è andato storto? Come è successo che il primo social network, nato per«il libro delle facce» che aveva lo scopo di riunire vecchi amici e creare rapporti virtuali con nuovi sia diventato una vetrina che distorce la realtà? Quand’è, precisamente, che la storia è cambiata? Ecco la seconda puntata di una serie che proverà a rispondere a questa domanda. Trovate qui la prima, mentre da martedì 25 marzo sarà online la terza.
Eppure Facebook non è sempre stato così. Ricordate com’era all’inizio, quando divenne disponibile a tutti? Era il 26 settembre 2006 e, oggi lo possiamo dire, fu davvero l’inizio di una nuova era. Prima, per oltre diciotto mesi, “Thefacebook” (questo il nome originario: il libro delle facce, quello che nelle scuole americane ha le facce di tutti gli studenti), prima era stato solo un progetto studentesco. Al debutto, nel febbraio 2004, era aperto solo per gli studenti di Harvard, l’università dove Mark Zuckerberg studiava; poi si era allargato a Stanford, Columbia e Yale e ad altri atenei della Ivy League, l’esclusiva costa nord orientale degli Stati Uniti. Ebbe subito una crescita esponenziale, sebbene disponesse di un target così circoscritto: alla fine del primo anno aveva già raggiunto l’incredibile traguardo di un milione di utenti; allora si era aperto alle scuole superiori di tutto il mondo (ottobre 2005) e solo il 26 settembre 2006 aveva aperto le porte «a chiunque avesse più di 13 anni e un valido indirizzo email». Come adesso.
Di fatto insomma Facebook come lo conosciamo ha meno di venti anni e all’inizio era molto, ma molto diverso. Com’era? Era un posto normale, addirittura piacevole; accogliente, eccitante a volte, ma nel senso migliore del termine. Per esempio era eccitante ritrovare all’improvviso vecchi compagni di scuola che si erano persi di vista una vita fa e che improvvisamente erano solo ad un clic di distanza: bastava cliccare sul pulsante «add as a friend, aggiungi come amico» per far tornare indietro il calendario e rivivere i bei tempi («che fine hai fatto?», un tormentone). Oltre a ciò, presto ci abituammo al rito quotidiano di partecipare ad appassionanti discussioni con gli amici e con gli amici degli amici sulla qualunque senza timore di essere sbranati al primo errore o al primo dissidio come accade adesso. La vita social era ancora un mondo nuovo e ci si addentrava nelle bacheche digitali degli altri in punta di piedi, con circospezione e un vago senso di rispetto. Non si ricordano grandi liti e non avevamo bisogno di bloccare legioni di troll per vivere sereni: certo, il tempo potrebbe averci fatto idealizzare quel periodo, è possibile; ma oggi si ha quasi la certezza che su Facebook imperasse una regola, o meglio, una postura che col tempo si è completamente perduta: la gentilezza. Del resto stavamo fra amici, perché non avremmo dovuto essere gentili?
Inoltre non aggiungevamo «amici» alla nostra rete solo per fare numero e diventare degli influencer con tanti followers, anzi gli influencer neppure esistevano, sarebbero arrivati con Instagram; e i follower c’era ma stavano solo su Twitter, un’altra storia. E soprattutto non scrivevamo post andando a compulsare ogni mezz’ora le visualizzazioni che oggi misurano il nostro successo digitale, qualunque cosa questo significhi, anche perché non erano ancora in mostra e quindi non c’era questa gara quotidiana che facciamo con noi stessi e gli altri per far salire il nostro contatore digitale come se la vita fosse diventata il flipper con cui giocavamo da giovani. Non dico che fossimo migliori prima, assolutamente no, ma sicuramente c’era in rete un minor narcisismo. Non era una nostra scelta, sia chiaro, il narcisismo è un tratto ineliminabile della natura umana; ma non veniva alimentato dalla tecnologia, non veniva incoraggiato. E questa cosa avveniva by design: la piattaforma infatti non era stata progettata per il culto della nostra personalità e neanche per sfruttare le nostre vulnerabilità psicologiche (e far diventare in tal modo sempre più ricchi il fondatore e i suoi azionisti).
Ma ad un certo punto la storia, di Facebook ma anche la nostra, è cambiata. Anzi, non è soltanto cambiata. Si è ribaltata. Quando? Forse la prima svolta c’è stata il 24 marzo 2008 quando Mark Zuckerberg assunse Sheryl Sandberg e praticamente le diede il timone dell’astronave che stava costruendo nominandola chief operating officer. Ovvero il mega direttore di tutte le operazioni, subordinata soltanto al fondatore e capo supremo («capo supremo» non è una esagerazione: all’epoca il biglietto da visita di Mark recava l’amabile scritta «I’m the Ceo, bitch!», che potremmo tradurre come «sono io il capo, testa di cazzo!»). Per dare un’idea dell’impatto che ebbe l’arrivo di Sandberg sull’azienda, se guardiamo al fatturato e al profitto, Facebook oggi è mille volte più grande di come era quando fu assunta. Immaginate un paese che in meno di venti anni aumenti il suo Pil e il suo surplus di bilancio di mille volte. Mille volte: accade solo se improvvisamente nei tuoi confini scopri una gigantesca miniera d’oro o un giacimento di petrolio. E in effetti è successo proprio questo. A Facebook ancora non lo sapevano ma nei server da dove erogavano un servizio gratuito globale che presto sarebbe diventato essenziale, stavano per trovare un nuovo tipo di petrolio: i nostri dati.
Torniamo alla primavera del 2008. Nel quartier generale, che ai tempi stava ancora Palo Alto (il trasferimento a Menlo Park sarebbe avvenuto più tardi), c’erano in tutto poco più di duecento giovanissimi nerd, o se preferite, smanettoni, compreso «Zuck», che giravano nei corridoi in felpa col cappuccio e infradito; e poi c’era Sheryl Sandberg che era un po’ «l’adulto nella stanza». Lei aveva 39 anni, Zuckerberg 23: non era come una mamma quindi, ma sicuramente come una sorella maggiore. Fino a qualche mese prima era stata uno dei vice presidenti di Google dove aveva contribuito a costruire il motore commerciale di quella impressionante macchina di soldi che era diventata l’azienda di Mountain View, la cittadina della Silicon Valley dove ha sede Google.
La leggenda narra che Mark e Sheryl si siano conosciuti ad una festa di Natale nel 2007. Lei aveva da poco lasciato il lavoro ed era in cerca di una nuova sfida, lui si stava chiedendo come fare a monetizzare il successo travolgente della sua startup, ovvero cosa farci di tutti quegli iscritti ad un servizio gratuito e ancora senza un modello di business. Come guadagnarci? Avevano iniziato a frequentarsi e probabilmente avevano scoperto di avere in comune il fatto di avere entrambi studiato ad Harvard, solo che lei si era laureata in economia summa cum laude e con la menzione di miglior studente dell’anno; mentre Zuckerberg aveva lasciato gli studi subito dopo aver lanciato Facebook (la laurea ad Harvard l’avrebbe però presa dieci anni più tardi, honoris causa, quando era già uno degli uomini più potenti del mondo. Una laurea in legge che per uno che si è sempre vantato di infrangere le regole – «move fast and break things» era il suo motto – oggi appare davvero fuori luogo).
Avevano in comune anche la conoscenza con il leggendario economista Larry Summers, che oggi, dopo un lunghissimo cursus honorum, è presidente di OpenAI, la più importante startup di intelligenza artificiale del mondo, quella di Sam Altman e ChatGpt. Nel 1991 Summers era stato il relatore della tesi di laurea della giovane Sandberg rimanendo folgorato dal talento di lei; e così quando divenne Segretario del Tesoro, con Bill Clinton alla Casa Bianca, la nominò chief of staff (la famosa rete di contatti che la Sandberg mise al servizio di Facebook fu creata in quegli anni a Washington). Finita la stagione della politica, Summers tornò ad Harvard come presidente e stava ancora lì mentre Zuckerberg nella sua cameretta aveva appena creato “thefacebook”; e cosi quando i gemelli Winklevoss andarono da lui a protestare dicendo che Mark gli aveva rubato l’idea!, il professore li liquidò con la famosa frase: «I giovani non vengono qui per trovare un lavoro, vengono qui per inventarsi un lavoro» (o almeno questo è ciò che lo sceneggiatore Aaron Sorkin gli fa dire nel film The Social Network, uscito nel 2010).
Erano gli anni in cui pensavamo che le startup, grazie alla rivoluzione digitale, avrebbero creato tutta l’occupazione di cui avevamo bisogno dando a tutti un’economia più prospera e un mondo migliore. Internet era ancora «un’arma di costruzione di massa» e di questa nuova religione Mark Zuckerberg era uno degli apostoli più brillanti.
Ma sto divagando. Torniamo alla trasformazione di Facebook. Se l’arrivo della Sandberg fu la prima mossa, la seconda fu la creazione del tasto «like, mi piace», che debuttò sulle nostre bacheche digitali undici mesi più tardi, il 9 febbraio 2009. Sembrava soltanto una nuova cosa carina in realtà era molto di più. Il successo commerciale di Google lo aveva dimostrato: se è vero che i dati degli utenti erano il nuovo petrolio – perché consentivano di profilarci meglio in cluster da rivendere agli inserzionisti pubblicitari che così possono mostrare i loro annunci solo a chi è realmente interessato -, serviva uno strumento attraverso il quale fossimo portati ad esprimere le nostre preferenze in continuazione. Uno strumento attraverso il quale far sapere, registrare, ogni giorno cosa ci piaceva e cosa no. Chi siamo davvero.
Si narra che fu Mark Zuckerberg in persona a inventare «il pollice blu» mentre il suo team dibatteva su quale immagine associare al gradimento di un post senza che l’utente scrivesse soltanto «mi piace, sono d’accordo» (cosa che ai tempi rendeva la sfilza di commenti troppo monotona per essere minimamente eccitante). Qualcuno aveva proposto l’immagine di una bomba con la miccia accesa, un altro la scritta «awesome, fantastico»; ma Zuckerberg che ha il mito dell’Antica Roma, che considera Enea «il primo startupper della storia» e che si sente un po’ un nuovo Cesare Augusto, se ne uscì col pollice, come quello che l’imperatore al Colosseo poteva girare verso l’alto o verso il basso determinando la sorte del gladiatore. Sul significato del pollice si è poi scoperto che ci sono alcuni falsi miti (miti che il film il Gladiatore ha confermato) ma non è questa la sede per parlarne: qui ci serve soltanto aggiungere un mattoncino alla storia di Facebook e dei social network.
La trasformazione dei social network in un Colosseo quotidiano inizia lì, con l’introduzione del tasto «mi piace».
La terza mossa fu l’introduzione di EdgeRank, letteralmente «la classifica delle interazioni» fra noi utenti e i post. In pratica si tratta dell’algoritmo che per anni ha deciso quali post ciascuno di noi avrebbe visto ogni volta arrivando sulla piattaforma. All’inizio per Facebook, e per tutti gli altri social, l’unico criterio era cronologico: il nostro «feed», il flusso di post che ci venivano proposti, era temporale. In pratica vedevamo quello che gli amici avevano pubblicato in ordine cronologico. Ricordate quando postavamo la foto del cappuccino e del cornetto per dare il buongiorno a tutti, anzi il «buongiornissimo», e tutti i nostri amici la vedevano? Ecco, da tempo non è più così. Quello era il Facebook degli inizi. Oggi quello che vediamo lo decide un algoritmo e lo fa in base ad altri criteri. E ad altri obiettivi, che non sono esattamente «connettere tutte le persone del mondo» come ci è stato ripetuto fino allo sfinimento. Ecco perché non vediamo più tanti cappuccini e cornetti.
Quando si usa la parola algoritmo molti pensano a qualcosa di misterioso, di esoterico o religioso, addirittura: «L’ha deciso l’algoritmo!», diciamo, come se fosse una divinità. Ma volendo semplificare molto, l’algoritmo è soltanto una formula o, meglio, una ricetta, predisposta da un essere umano per automatizzare certi processi ed essere certi che si producano certi risultati. Per esempio la ricetta della pasta alla carbonara (pancetta+uova+pecorino) è una specie di algoritmo: indica gli ingredienti, le quantità e l’ordine in cui vanno aggiunti e anche il modo in cui vanno trattati (cucinati, sbattuti, soffritti eccetera).
La ricetta di EdgeRank è questa: affinità moltiplicata per il peso moltiplicati per il tempo (o meglio, l’invecchiamento di un post).
Seguitemi perché così finalmente capiamo cosa abbiamo visto sui social fin qui. L’affinità, o l’affinity score (u) calcola quanto l’utente è interessato ad un altro utente e quindi valuta quando e come ha interagito in passato con i contenuti che l’altro ha postato; è un fattore unidirezionale, nel senso che il suo valore aumenta anche se uno legge sempre i post dell’altro e l’altro non ricambia e non ne guarda nemmeno uno. Esempio: se io seguo una star ma quella non sa nemmeno chi sono, io vedrò tutti i post della star e non accadrà il contrario. Il secondo fattore, weight (w) è il peso ed è probabilmente il più importante: misura il tipo di interazione che abbiamo avuto in passato con certi contenuti: hai commentato o condiviso un post su un certo argomento? Quando in rete ci sarà un altro post sullo stesso argomento, questo valore aumenterà. Nel “peso” sono contenute un sacco di altre variabili fondamentali, ma ci torniamo dopo. Il terzo fattore è il tempo, o meglio l’obsolescenza, time decay (d), ed è molto intuitivo: più un post è vecchio è meno è rilevante (ma se improvvisamente dopo tanto tempo per qualche ragione quel post torna attuale, il “time decay” si azzera).
Eccola insomma, la formula di EdgeRank («la misteriosa formula che rende Facebook ancora più intrigante» come titolò allegramente un importante blog della Silicon Valley quando venne presentata al pubblico, il 22 aprile 2010):
Σuwd
Per un decennio EdgeRank è stato il pannello di controllo delle nostre vite social: a Menlo Park in qualunque momento potevano decidere di farci vedere più foto e meno video, più news e meno storie, più gattini e meno cappuccini, semplicemente usando quell’algoritmo. EdgeRank è stato il regolatore di buona parte del traffico online e quindi in un certo senso delle nostre vite con effetti di cui ancora oggi paghiamo le conseguenze. I danni collaterali. Il problema non è aver visto più o meno inserzioni pubblicitarie in target con i nostri gusti; quel fatto può persino essere sensato, comodo. Il problema è stata una progressiva distorsione dell’idea di mondo che abbiamo e che è tracimata dall’ambito dei social network contagiando anche istituzioni, i famosi produttori di contenuti e informazione, che avrebbero dovuto essere invece i garanti della «verità dei fatti».
Prendiamo i giornali: per alcuni anni gran parte del traffico ai siti web dei giornali arrivava da Facebook. Ci sono addirittura testate online che sono nate e hanno prosperato sul presupposto di avere dei contenuti «adatti a Facebook». Questo dipendeva – semplificando un po’ – dal fatto che nell’algoritmo di EdgeRank era stato dato più peso alle news rispetto per esempio ai contenuti postati «dagli amici». Non era un caso, si trattava dell’attuazione di precisi accordi commerciali con gli editori i quali prima avevano minacciato di fare causa a Facebook per farsi pagare il traffico legato alle news condivise sulle nostre bacheche; e poi si erano convinti che fosse meglio «scendere a patti con il nemico» e portare a casa qualche soldo e un po’ di traffico. Epperò questa cosa ha anche cambiato la natura stessa dei giornali, li ha fatti diventare altro: per intercettare porzioni di traffico sempre maggiori, indispensabili a sopravvivere visto che nel frattempo Google e Facebook si spartivano la stragrande maggioranza degli investimenti pubblicitari online, i giornali si sono facebookizzati, hanno cercato di fare contenuti adatti all’algoritmo di Facebook. Risultato: per troppo tempo l’obiettivo di molte redazioni è stato fare contenuti “virali”. E quindi largo a titolazioni “clickbait”, che portavano il lettore a cliccarci sopra promettendo un contenuto che in realtà non c’era o era stato molto esagerato; e soprattutto predilezione per contenuti “estremi”, scelti solo per catturare la nostra attenzione.
Finchè è durata, ovvero fino a quando Mark Zuckerberg ha decretato che le news non gli interessavano più e quindi le ha declassate toccando una manopola del suo algoritmo («i nostri utenti non vengono da noi per le news o per i contenuti politici», 1 marzo 2024), i siti web dei giornali presentavano ogni giorno una sfilza di delitti più o meno efferati manco fossimo a Gotham City. Chiariamo: la cronaca nera è da sempre molto “virale”, attira l’attenzione, non è colpa di Facebook certo; ma il risultato di questa corsa dei giornali a privilegiare contenuti “adatti a Facebook” ha creato la percezione, falsa, di vivere in un mondo molto più pericoloso di quello che in realtà è. Giorno dopo giorno “l’allarme sicurezza” è entrato nelle nostre vite, è diventato lo sfondo delle nostre giornate, la colonna sonora dei nostri pensieri, sebbene la realtà fosse non leggermente diversa ma esattamente il contrario. E questo ha contribuito al successo di quei partiti politici che hanno deciso di lucrare su una paura largamente infondata («Fuori ci sono i barbari, vi proteggiamo noi. Alziamo dei muri, chiudiamo le frontiere e comprimiamo un po’ di libertà personali in nome dell’ordine pubblico»).
É bene fermarsi su questo punto perché è decisivo. Viviamo davvero in un mondo sempre più pericoloso (Trump a parte)? Lo scorso anno in Italia gli omicidi sono stati circa 300, quasi uno al giorno. Sono tanti? Sono pochissimi. Venti anni fa erano circa il doppio; quarant’anni fa il quadruplo. Nella storia d’Italia non sono mai stati così pochi e quel dato, paragonato al totale della popolazione, è uno dei più bassi al mondo. Uno-dei-più-bassi-al-mondo. Lo sapevate? Probabilmente no. Gli omicidi sono in calo netto anche nell’Unione europea (circa 4000 mila lo scorso anno, erano 13 mila nel 2004); e sono rimasti stabili negli Stati Uniti sebbene siano in calo rispetto a quarant’anni fa (da 20 mila a 16 mila). Restando all’Italia la stessa dinamica si verifica per i furti, (meno 30 per cento rispetto al 2004); per le rapine (dimezzate nello stesso periodo di tempo); e per i morti per incidenti stradali (meno 70 per cento).
Non va tutto bene, ovviamente: sono in forte crescita le truffe, soprattutto quelle online; sono sostanzialmente stabili i morti di cancro, nonostante i progressi della scienza; e non calano i suicidi e questo ci dice qualcosa sul mondo in cui viviamo e su come lo percepiamo. Ma ci torneremo. Prima fissiamo questo concetto: Facebook e la facebookizzazione di molti giornali hanno creato l’errata percezione di un allarme sicurezza che nei numeri non esiste o – quantomeno – non nella misura percepita. É un esempio della famosa «distorsione collettiva della realtà» di cui parla il papa.
Perché è successo? Per capirlo è necessario introdurre un altro protagonista di questa storia: l’engagement.
Cos’è andato storto? La seconda puntata di una serie che proverà a rispondere a questa domanda. Da martedì 25 marzo sarà online la terza puntata .