1

Gli algoritmi e i “mostri” della tecnologia

Gli algoritmi e i “mostri” della tecnologia

Ho visto lo sventurato, il miserabile mostro che avevo creato (…) demoniaco cadavere a cui avevo così miseramente dato la vita (Mary Wollstonecraft Godwin)


Nel 2007 l’allora sindaco di Washington, Adrian Fenty, era determinato a risolvere un problema: gli studenti di molte scuole non raggiungevano buoni risultati. Si partì dall’idea che la colpa doveva essere degli insegnanti, che non facevano bene il loro lavoro. Per cui si affidò il compito di valutare gli insegnanti ad un software denominato IMPACT.
L’algoritmo prendeva in considerazione una serie di elementi, tra i quali dei test da somministrare agli studenti e da ripetere nel tempo. Il modello, detto a valore aggiunto (value added model) è fondamentalmente un modello statistico che cerca di distinguere l’impatto causale di un insegnante sull’apprendimento dei suoi studenti da altri elementi, quali abilità degli studenti e fattori extrascolastici.

Gli algoritmi si espandono

I modelli statistici per la valutazione degli insegnanti negli Usa risalgono agli anni ‘70. Man mano che la potenza di calcolo degli elaboratori aumentava, questi sistemi automatizzati si sono diffusi e perfezionati. Ma il primo settore nel quale sono stati applicati gli algoritmi è probabilmente quello finanziario. I sistemi automatizzati hanno rivoluzionato l’intero settore, finendo per sostituire gli esseri umani nelle “decisioni” su vendite e acquisti. Poi, nel 2008, il crollo della borsa fece comprendere che non solo gli algoritmi erano sempre più connessi al mondo degli uomini, ma che potevano anche alimentare ed amplificare i problemi della società.
Negli anni seguenti, come se nulla fosse accaduto, sorsero algoritmi sempre più sofisticati, intelligenze artificiali che imparavano da sole (machine learning) e prendevano decisioni in totale autonomia. Il loro uso si è progressivamente espanso a tutti i settori della società. La statistica e la matematica iniziarono ad occuparsi attivamente di comportamenti, desideri, movimenti, acquisti, crimine e terrorismo.
La presenza di algoritmi nelle nostre vite ormai è pervasiva. Un algoritmo può essere usato (Nicholas Diakopoulos, Algorithmic accountability reporting: on the investigation of black boxes) a fini di prioritizzazione, per stabilire come devono essere distribuite le risorse dei servizi. Ad esempio, per le ispezioni agli edifici per verificare se sono adeguati i servizi antincendio, oppure se reggono in caso di terremoto. La polizia americana utilizza spesso algoritmi di prioritizzazione (es. Predpol) per stabilire in quali zone della città deve inviare le pattuglie disponibili.
Un altro utilizzo comune degli algoritmi è a fini di classificazione, ad esempio per distinguere tra contenuti leciti o illeciti online. Un algoritmo di associazione, invece, crea relazione tra elementi, come se fossero hyperlink. Serve a raggruppare elementi, ad esempio i pregiudicati che hanno avuto problemi con droghe. Infine abbiamo gli algoritmi di filtraggio, che includono o escludono informazioni in base a specifiche regole o criteri. Ovviamente ogni algoritmo può avere anche più scopi.
Un algoritmo di filtraggio può, quindi, essere anche un algoritmo di classificazione. Come ContentID di Youtube che classifica i contenuti presunti illeciti online e li filtra. Oppure come una App di news personalizzate che classifica le notizie, le filtra in base a criteri prefissati dagli utenti (utilizzando i criteri inseriti dal programmatore) e quindi le associa agli utenti, prioritizzandole.
Il passo dalla valutazione alla predizione è stato relativamente breve. Oggi gli algoritmi predicono la nostra attendibilità, il nostro potenziale, il nostro futuro. C’è un algoritmo per stabilire se siamo (saremo?) bravi insegnanti, un altro per prevedere se saremo buoni studenti, e poi lavoratori, mariti o mogli, amanti, criminali, perfino terroristi.
Sarah Wysocki, insegnante della MCFarland Middle School, era unanimemente considerata tra le migliori. La descrivevano entusiasta, creativa, visionaria, flessibile, motivante e incoraggiante. Eppure venne licenziata, insieme ad oltre 200 insegnanti, a causa di un pessimo punteggio calcolato da Impact. I bassi punteggi ottenuti dai suoi studenti delle elementari forse erano dovuti alle problematiche del quartiere popolare, forse alla povertà delle famiglie, forse anche a problemi di salute dei ragazzi. Ma per i programmatori di Impact non erano motivi validi. La fine della sua carriera è stata decisa da un algoritmo.

Black Box

Un algoritmo consta di tre elementi: i dati di input, il processo algoritmo vero e proprio, il risultato, cioè l’output, si tratti di una previsione o un punteggio. Di questi tre elementi molto spesso si conosce solo l’output. L’algoritmo vero e proprio (il codice) non è conoscibile perché è una “proprietà intellettuale”, ed è protetta anche in base alla recente direttiva Trade Secrets dell’Unione europea.
Le nostre vite sono sempre più esposte e trasparenti, in base a leggi introdotte dai nostri governi e logiche di mercato. Il regime di “sorveglianza” al quale siamo sottoposti pervasivamente è giustificato da ragioni di “sicurezza”, o semplicemente per motivi di “efficienza economica” o per “semplificare la navigazione online”.
Nel contempo i metodi operativi delle aziende e delle stesse istituzioni sono sempre più opachi, gli algoritmi non sono trasparenti ma vere e proprie black box (Frank Pasquale, The black box society). La segretezza degli algoritmi è tale da impedirci di comprenderne le logiche e quindi di distinguerne il buon funzionamento dall’abuso. Eppure, sono gli algoritmi che ormai dettano le regole di tantissime attività umane, come ad esempio nella selezione del personale.
Il problema è che gli algoritmi, prima di prendere decisioni autonomamente, devono essere addestrati. Il training prevede che siano forniti al sistema degli input, opportunamente identificati (taggati), in modo che l’algoritmo impari cosa riconoscere.
Nel 2009 (HP Computers are racist) un software di rilevamento facciale non riesce a riconoscere una persona di colore. Secondo l’azienda non era un problema “razziale”, ma una questione di insufficiente illuminazione dello sfondo che determinava problemi di contrasto. Il software aveva difficoltà a “vedere” persone di pelle scura. In realtà un software non “vede”, ma umanizzandolo l’azienda nascondeva il vero problema, e cioè che il software di fatto determinava, ovviamente non intenzionalmente, uno svantaggio per le persone di pelle scura. In sostanza non era “neutrale”. Quello che per l’azienda era un problema meramente “tecnico”, poteva però avere delle implicazioni nella vita reale sotto forma di discriminazione sociale. La causa probabilmente stava nel fatto che nel laboratorio la maggior parte dei dipendenti erano bianchi.
Altro caso interessante riguarda un sistema algoritmico che produceva risultati “sessisti”, associando alle donne immagini di cucina e così via. Analizzando gli input forniti alla macchina, si vide che due collezioni di immagini, tra cui una supportata da Microsoft e Facebook, presentavano una distorsione di genere nella raffigurazione di attività come la cucina e lo sport: mentre le immagini di cucina, shopping e lavaggio erano associate a donne, quelle di sport erano legate ad uomini. Il software di apprendimento automatico in fondo non faceva altro che il suo lavoro: apprendeva.
L’esperimento più interessante è quello del chatbot Tay della Microsoft. Doveva essere un esperimento intelligente di apprendimento automatico, imparando direttamente dalle persone con le quali interagiva su Twitter. L’idea era che diventasse indistinguibile dai millennial, ma ci sono volute meno di 24 ore perché Tay si trasformasse in un razzista xenofobo. Secondo alcuni, in realtà, l’esperimento è stato un successo. Il bot, preda dei troll, ha imparato fin troppo bene dagli utenti. La debacle è l’esempio di come gli esseri umani possono corrompere la tecnologia.
Gli algoritmi sono costruiti per approssimare il mondo in modo da soddisfare gli scopi del loro architetto e incorporano una serie di presupposti su come funziona e su come dovrebbe funzionare il mondo. Gli algoritmi, quindi, possono riflettere i pregiudizi dei programmatori incorporati nel codice, nel momento in cui interpretano e leggono i dati. Perché un programmatore generalmente non riconosce come pregiudizievoli i suoi criteri e quindi può inavvertitamente (ma anche volontariamente, volendo) introdurre dei criteri non neutrali. Il processo decisionale dipendente da algoritmi finirà per replicare i pregiudizi strutturali su vasta scala, ampliandoli.
Un software di screening valuta i candidati in base a criteri che vengono inseriti nel codice, criteri spesso soggettivi, come il nome. Se un nome “suona” da bianco piuttosto che da nero, da italiano piuttosto che straniero, da settentrionale piuttosto che meridionale, da uomo piuttosto che donna (Amazon e l’intelligenza artificiale sessista: non assumeva donne). Perché un algoritmo sia davvero “neutrale” occorre che i dati di training siano neutrali anch’essi, che i criteri di selezione inseriti nel codice siano neutrali.
Le forme di discriminazione ipotizzabili sono molte. Alcune polizze assicurative potrebbero essere limitate in base al luogo in cui si vive, le migliori condizioni per le carte di credito potrebbero essere offerte solo a determinate persone, un negozio online potrebbe mostrare prezzi diversi per gli stessi prodotti in base alle caratteristiche individuali, un prestito potrebbe essere rifiutato a chi ha amici poveri sui social, l’applicazione di misure di prevenzione potrebbe avvenire in base ai vicini di casa.

I bias degli algoritmi

Sui bias (pregiudizi) degli algoritmi, Carlo Blengino fa una interessante riflessione su Il Post, che conclude con una serie di domande:

Può una macchina, un algoritmo evoluto, aiutare, correggere e fin anche sostituire il giudizio umano? Ma soprattutto, i nostri inevitabili bias cognitivi saranno amplificati o troveranno invece mitigazione, se non soluzione, nell’uso di sistemi esperti artificiali?.

Gli esseri umani, è noto, sono intrisi di pregiudizi, è il meccanismo di funzionamento del cervello che alimenta tali bias. Ciò che differenzia un essere umano da una scimmia è il meccanismo di compressione cognitiva col quale analizziamo le informazioni in blocchi piuttosto che singolarmente, che è alla base della creazione delle procedure complesse e automatizzate che ci governano (abitudini). In tal modo il cervello può concentrarsi su più cose contemporaneamente rendendoci molto più efficienti. Di contro, molte informazioni non sono più analizzate dalla coscienza critica.
La capacità di riconoscimento dei pattern e la capacità combinatoria, ci hanno permesso di essere la specie animale più avanzata, ma porta anche un lato oscuro. Quel processo comporta la possibilità di saltare a conclusioni sbagliate per il semplice motivo che le informazioni iniziali non vengono sempre sottoposte ad analisi. Siamo così desiderosi di cercare dei modelli nel mondo che ci circonda, e così soddisfatti quando li abbiamo trovati, che non effettuiamo controlli sufficienti sulle nostre intuizioni apparenti.
E gli inevitabili bias degli essere umani possono essere introdotti negli algoritmi nella fase di programmazione o di addestramento. Con l’amplificazione dovuta alla scala, enormemente più vasta, di applicazione dell’algoritmo.
Quindi, un algoritmo aiuterà l’uomo a liberarsi dei suoi bias? Oppure sarà l’uomo a risolvere i bias degli algoritmi con maggiori controlli sulla neutralità dei codici?

Una “soffiata” digitale

Una fonte confidenziale chiama la Polizia, comunicando che in un certo luogo vi sono due persone intente a spacciare droghe. La Polizia si reca sul posto. Dopo solo due minuti di osservazione, un evento imprevisto (sopraggiunge qualcuno che potrebbe vederli?) decidono di intervenire. Hanno visto due persone, sono lì ferme. Nonostante vi fossero degli elementi per ritenere che una delle due persone fosse solo un acquirente, entrambe vengono arrestate per spaccio.
La “fonte confidenziale”, infatti, parlava di “due” spacciatori. Giunti sul posto, i poliziotti vedono due persone, e, poiché la fonte confidenziale era stata “riscontrata” (cioè trovata attendibile) più volte, “leggono” gli elementi che si presentano ai loro occhi in base alla “soffiata”.
Secondo il “principio di coerenza”, infatti, si tende a scegliere o a creare l’interpretazione dei fatti più coerente con i dati disponibili. Il principio del “minimo impegno” fa sì che il soggetto tenda a compiere solo le inferenze minime indispensabili a produrre un’interpretazione coerente, per cui tra due spiegazioni ugualmente coerenti sceglierebbe quella che richiede il minor numero di supposizioni. Elementi tali da far ritenere che una delle due persone è solo un acquirente non vengono considerati, oppure sono ridotti a coerenza con le informazioni fornite dalla “fonte confidenziale”.

Autorità e controllo

Il processo di interpretazione dei dati è un processo complesso che può portare ad errori, specialmente in casi dubbi, nei quali i dati possono essere interpretati in modi diversi. Il modo di rapportarsi dell’“interprete” ai dati è fondamentale, perché un pregiudizio dell’interprete può portare a risultati sbagliati.
Se il risultato, cioè l’interpretazione dei dati, viene da un algoritmo, l’output potrebbe essere discriminatorio, se l’algoritmo non è neutrale. Ma il problema primario è che per verificare se l’algoritmo è neutrale o meno è innanzitutto necessario essere coscienti del fatto che l’algoritmo possa sbagliare. Ma, chi utilizza i risultati dell’algoritmo spesso non è a conoscenza del codice di programmazione né dei dati di input (addestramento). Se l’algoritmo è stato utilizzato varie volte e in molti casi è risultato attendibile (è stato “riscontrato”) si tende a credere che lo sia sempre. Il poliziotto che decide di inviare una pattuglia in una determinata zona in base all’algoritmo difficilmente penserà che l’algoritmo si può sbagliare.
Una black box in fondo, non è altro che una soffiata digitale. Se riscontrata più volte la si ritiene affidabile. Diventa incontestabile, una sorta di “autorità” che non è possibile mettere in discussione.
Come ha evidenziato Milgram con i suoi esperimenti, le persone sono estremamente disponibili ad assoggettarsi a un’autorità. E l’intera società è strutturata in modo da condizionare, attraverso le istituzioni (scuola, famiglia, lavoro), l’individuo a sottostare alla regola dell’obbedienza all’autorità. Ma oggi l’autorità è sempre più espressa in forma di algoritmo.
È l’impenetrabile black box, difesa dalle leggi moderne, a garantire l’esercizio del potere nelle società moderne. La strutturazione del sistema in black box rimuove le responsabilità dei singoli rendendo difficile nell’ambito delle gerarchie e delle competenze stabilire chi deve pagare per un eventuale errore. L’obbedienza all’autorità fa il resto.
Sulla segretezza degli algoritmi si fonda l’elemento essenziale della “sorveglianza”, cioè il “controllo”. L’individuo viene frammentato in dati e ricomposto a creare quella che non è la banale transcodifica della sua vita in informazioni gestibili da un elaboratore, quanto piuttosto l’esercizio di un vero e proprio potere, una forma di controllo (John Cheney-Lippold, We are data). Essere governati non è altro che essere controllati costantemente, osservati, indottrinati, valutati e censurati. Se un medico per svolgere il suo lavoro necessita di un badge che gli consente l’ingresso nel reparto, vuol dire che c’è un algoritmo che stabilisce quando e se quel medico può essere un medico. Basta revocargli i permessi perché non lo sia più. Così per uno studente, e per un insegnante. È un algoritmo a decidere chi o cosa siamo. Dipende dall’algoritmo se noi abbiamo dei diritti, perché in fondo dipende dall’algoritmo se siamo identificati come soggetti che hanno diritti. Questa è la “datificazione”.
Oggi una persona è datificata non tanto in base a ciò che è, ma per come è vista dal programmatore. L’esempio più classico: il “terrorista”. Un terrorista oggi non è più una persona, quanto piuttosto un modello (type) ricavato dalla datificazione di una serie di comportamenti tipici di soggetti ritenuti terroristi (signature, o firma). I dati (comportamenti) da estrarre sono selezionati dai programmatori del modello, quindi alla fine il modello di terrorista non descrive affatto un terrorista quanto piuttosto come un terrorista è visto dal programmatore (lo schema di un terrorista).
Ad esempio, se delle persone sono viste con armi in prossimità di un luogo frequentato da terroristi, oppure se sono viste comunicare con terroristi, o dare ordini a terroristi. È anche possibile che l’algoritmo confonda e riunisca in un unico individuo il comportamento di più soggetti che abitano lo stesso appartamento. La costruzione di un modello ideale nel quale far rientrare una persona fisica non si basa sulla realtà quanto piuttosto è un’approssimazione di un fenomeno dinamico, la traduzione in una quantità di numeri trattabili da un software. In tal senso la costruzione di un modello di terrorista (ma anche di altre tipologie) non è tanto l’estrazione di dati dalla realtà (raw data), quanto piuttosto la costruzione di dati a partire dall’osservazione della realtà (cooked data). E, come tale, è soggetta a molteplici errori e fenomeni discriminatori.
La classificazione in base ad algoritmi non riscontra l’individuo effettivo come si estrinseca nella vita reale, quanto piuttosto un suo “doppio” virtuale, che può essere “maschio” ma anche “femmina”, “famoso” o “non famoso”, “giovane” o “vecchio”. La categorizzazione di “uomo” non è un uomo bensì la datificazione dello schema di attività che generalmente pone in essere un “uomo”. Per un algoritmo una donna che si “comporta” da uomo, legge riviste da “uomo”, fa acquisti da “uomo”, è un “uomo”, con un disallineamento tra la vita reale e la vita basata sui dati (vita online o virtuale). E la classificazione è del tutto indipendente dalla volontà dell’individuo. Nella sua visione più ottimistica, quella “Silicon Valley oriented”, i problemi degli algoritmi sono facilmente risolvibili. Come? Accumulando più dati. Sempre più dati.
Nella sua visione più ottimistica, quella “Silicon Valley oriented”, i problemi degli algoritmi sono facilmente risolvibili. Come? Accumulando più dati. Sempre più dati.

Cosa è normale?

I modelli algoritmici utilizzano i dati dei comportamenti passati per prevedere il futuro. In tal modo si realizza una serie di schemi comportamentali (profili) che servono a classificare le persone fisiche. I cittadini vengono categorizzati assegnando loro un profilo di rischio. L’inclusione in categorie dipende e rafforza l’idea che certi comportamenti siano la “norma”.
Porre in essere comportamenti che si discostano da tale “normalità”, comporta automaticamente l’inclusione in categorie a rischio, finendo per indicare anche l’avvio di un percorso delinquenziale o terroristico. E il discrimine tra attività sovversiva e semplice attività di protesta è molto sottile agli occhi dello stato.
Così, il sistema finisce per discriminare tutti coloro che non si comportano a “norma”, favorendo il conformismo. Tende a replicare possibili disuguaglianze (si pensi ai musulmani, ritenuti spesso non a norma in paesi occidentali), oltre a creare difficoltà nell’affrontare eventi del tutto nuovi od inaspettati.

Monstrum

“Ho visto lo sventurato, il miserabile mostro che avevo creato (…) demoniaco cadavere a cui avevo così miseramente dato la vita”.

Così Mary Wollstonecraft Godwin introduce la “creatura” nel libro “Frankenstein o del Prometeo moderno”. Il suo artefice crea il mostro perché lo riverisca come un dio. Ma il mostro (dal latino “monere”, avvertire) è anche una critica spietata, non tanto alla scienza e alla tecnologia, ma a ciò che con essa viene fornita (Anne k. Mellor, Mary Shelley: Her Life, Her Fiction, Her Monsters).
Il mostro, in realtà, è un’inevitabilità storica, una necessità per stabilire i confini tra la società e ciò che la minaccia, ciò che deve rimanerne fuori, ciò che le è alieno. Nel romanzo al di fuori dei confini della città (della società) stanno i demoni, fatti di parti di cadavere, di frammenti e pezzi presi qua e là e ricomposti in un tutt’uno (come i dati raccolti e ricomposti dagli algoritmi), per creare ciò su cui devono essere focalizzate le paure e i timori della società intera (così come oggi si fa con gli islamici, i migranti, i terroristi, ecc…). Il mostro rappresenta i mali della società, e una volta cacciato, ci assicurano, i problemi saranno tutti risolti. Ma la scomoda verità è che il mostro non è affatto a noi estraneo o diverso o separato, bensì è la tecnologia (la creazione) a separarlo dal resto della società. Al punto che senza di essa il mostro non ha più motivo di esistere (nel romanzo senza il suo creatore il mostro si uccide).
“Cosa è normale in un mondo retto dagli algoritmi?”, si chiede John Cheney-Lippold in We are data. Nella società capitalista, in quella moderna retta da algoritmi, il mostro è tutto ciò che non rientra nella normalità, che non rientra nelle categorie accettate nella società, tutto ciò che è diverso, coloro che non si assoggettano all’autorità costituita, quelli che sfuggono alla black box. Creare il mostro ci consente di definire i confini di cosa è normale e cosa no. Nella società moderna, dove regna l’imperativo tecnologico, mirabilmente riassunto nelle parole del nipote del professore in Frankenstein Junior di Mel Brooks (“si può fare!”), per cui tutto ciò che è potenzialmente fattibile va fatto senza tenere conto delle implicazioni etiche, il compito di creare il “mostro” è svolto sempre più dagli algoritmi.
E Sarah Wysocky, l’insegnante licenziata a causa di un pessimo punteggio calcolato da un algoritmo? L’algoritmo che la licenziò fu contestato. Un modello statistico dovrebbe essere basato su grandi quantità di dati, ma nel caso specifico il tutto si riduceva ai test di una trentina di studenti. In particolare si evidenziò che il modello non funzionava correttamente perché la distribuzione degli studenti non era casuale. Piuttosto dipendeva da fattori quali le richieste specifiche dei genitori, dalle specializzazioni degli insegnanti, e così via. Un insegnante ritenuto particolarmente portato per bambini con problemi di concentrazione otteneva inevitabilmente punteggi più bassi. Così la selezione in base all’algoritmo finiva per creare forti disincentivi per gli insegnanti ad occuparsi degli studenti più problematici.
Ciò non portò ad alcun ripensamento del sistema, che anzi fu giustificato anche di fronte a evidenze contrarie. Buoni punteggi ottenuti dagli studenti di insegnanti con basso punteggio erano ritenuti confermativi della valutazione del sistema perché in tali casi l’insegnante, a rischio di licenziamento, era portato ad alterare i punteggi degli studenti. Infine, si concluse, il modello statistico può anche sbagliare in casi singoli, ma l’efficacia si vede nel complesso. In sostanza non era il sistema che si adattava alla realtà, ma in alcuni casi si adattava la realtà per giustificare il sistema.
Sarah Wysocki fu licenziata. Ma, essendo comunque un’ottima insegnante venne immediatamente assunta da un’altra scuola. In un quartiere per ricchi, che non utilizzava quel modello di valutazione degli insegnanti.




Brasile, allarme fake news su WhatsApp alle presidenziali. Il Tribunale elettorale: «Ci vogliono misure severe»

Secondo il sito anti-bufale Aos Fatos soltanto le principali dodici notizie false circolate nel fine settimana delle elezioni sono state condivise 1,17 milioni di volte su Facebook

RIO DE JANEIRO – L’influenza di WhatsApp sulla corsa presidenziale, con il trionfo delle fake news, ha raggiunto un livello non più tollerabile e andrebbe contrastata, sostiene il Tribunale elettorale brasiliano. Bisogna «stabilire una qualche forma di controllo sul flusso di informazioni per impedire che si ripeta quanto accaduto al primo turno, quando bugie e montature hanno causato danni notevoli ad alcuni candidati», scrive il consiglio di esperti dell’Authority elettorale. Con alcuni dei suoi membri suggerendo addirittura «misure dure». Inutile continuare a ignorare la realtà, dicono: WhatsApp da «messaggero» di informazioni e opinioni personali si è trasformato esso stesso in un social network, e deve essere responsabilizzato per i propri contenuti. L’opinione è però assai controversa.

Elezione falsata?

Secondo il sito Aos Fatos, implacabile cacciatore di bufale in Rete, soltanto le principali dodici notizie false circolate nel fine settimana delle elezioni sono state condivise 1,17 milioni di volte su Facebook. Campione di clic un video taroccato dove si vede l’urna elettronica con la quale si vota in Brasile che da sola compone il numero del candidato di sinistra Fernando Haddad (al ballottaggio del 28 ottobre col 28% dei voti), a testimoniare una frode elettorale imbastita dalla sinistra. «Non possiamo stimare la diffusione su WhatsApp, in quanto network chiuso. Ma riteniamo che le persone esposte in Brasile alle principali fake news che abbiamo controllato sono nell’ordine delle decine di milioni di elettori», dicono i fact checkerbrasiliani. «Il dirompente effetto WhatsApp in Brasile non credo sia dovuto ai bassi indici di lettura e scolarità, come qualcuno sostiene – spiega Tai Nalon, giornalista fondatrice di Aos Fatos -. Indagini dimostrano che la pseudonotizia arrivata da un familiare, un amico, la tua chiesa è ritenuta più plausibile in un momento di cattiva reputazione dei media tradizionali, come questo, in tutte le classi sociali». Un altro fattore decisivo sono le offerte degli operatori telefonici. «WhatsApp ormai è gratis, è l’unica cosa che funziona bene dove il segnale è di bassa qualità e molti non possono nemmeno cliccare su un link per controllare la notizia, perché pagherebbero».

Pime azioni

La campagna di Haddad (l’erede di Lula) è riuscita finora ad ottenere dal Tribunale elettorale che vengano rimossi dalla rete i video con i riferimenti al cosiddetto «kit gay», uno dei pezzi da novanta dalla propaganda di Jair Bolsonaro (che al primo turno ha vinto con quasi il 47% dei voti). Secondo il candidato di estrema destra, negli anni di Haddad come ministro dell’Educazione venne distribuito nelle elementari un libro, «una collezione di assurdità che stimolava precocemente i bambini ad interessarsi al sesso, alle diverse opzioni sessuali, vale a dire una porta aperta per la pedofilia». La leggenda circola da un paio di anni, è stata smentita numerose volte ma ha continuato a girare in Rete. Da qui la richiesta all’Authority elettorale. Haddad ha anche querelato un noto opinionista di destra che di recente lo ha accusato di essere «a favore dell’incesto». Come si vede, siamo al vale tutto. Ma quella del «kit gay» è stata un’arma potente di diffusione del pensiero di Bolsonaro. Indagini hanno dimostrato che la stragrande maggioranza delle famiglie in Brasile ritiene che l’educazione sessuale è compito esclusivo dei genitori.

Il network chiuso

Quanto all’ipotesi di una azione forte su WhatsApp, non è ancora chiaro se i giudici del Tribunale elettorale accoglieranno le tesi dei loro consiglieri, e ancor meno prevedere che misure concrete si potrebbero adottare a meno di un paio di settimane dal ballottaggio elettorale. Come è noto gli scambi di messaggi su WhatsApp – e app simili – avvengono tra singole utenze telefoniche o tra loro gruppi, e la società ha sempre negato di avere il benché minimo controllo sui contenuti criptati. Molto meno che su Facebook e Twitter, dove testi e foto o gli stessi account possono essere rimossi in caso di reclami di utenti che i sistemi di controllo ritengano fondati. L’unica decisione presa di recente da WhatsApp è indicare quando un messaggio è un forward rispetto ad uno scritto di proprio pugno dalla persona che lo invia. Il problema è ormai universale, ma il Brasile (quarto Paese con più iscritti al mondo, 120 milioni di utenti, 6 volte più che negli Usa) è un caso a sé. Negli ultimi anni, giudici locali sono arrivati a bloccare WhatsApp per alcune ore in tutto il Paese, come rappresaglia contro la casa madre americana che si era rifiutata di fornire dati di utenti utili a indagini criminali.




La “Social Crisis” dei #Ferragnez e il Paradosso del Controllo

La “Social Crisis” dei #Ferragnez e il Paradosso del Controllo

Quante aziende oggi si trovano ad affrontare improvvise situazioni di crisi che vengono gestite senza minimamente tenere conto del fatto che ciò che avviene sui social non è controllabile? Giuseppe Mastromattei, presidente del Laboratorio per la Sicurezza prende spunto dal recente episodio Ferragni-Fedez per un’analisi delle nuove crisi nell’era social.

Nel 1998, usciva nelle sale un Film che ha segnato un’epoca. Mi riferisco a “The Truman Show” diretto da Peter Weir, su soggetto di Andrew Niccol, e interpretato da Jim Carrey, in una delle sue interpretazioni più apprezzate. La pellicola fu definita allora una satira fantascientifica, ispirata parzialmente a un episodio di “Ai confini della realtà” e alla moda allora nascente di raccontare la vita in televisione attraverso i reality show, immaginando una situazione paradossale, portata all’estremo, dalla quale emergono temi filosofici.
Chi di voi ha visto il film, uscito dalla sala, avrà provato una immensa sensazione di amarezza, tristezza e sconforto, consolato però dal fatto che si trattava di “fantascienza”…
Era il 1998, sono passati 20 anni, sono arrivati gli smartphone i social media, e non è più fantascienza…
Proviamo per un attimo a ritornare indietro nel tempo e analizziamo, con un approccio diverso quello che è successo nei giorni scorsi e che ha visto protagonisti i coniugi Chiara Ferragni e Fedez, ovvero i Ferragnez (almeno così mi risulta si facciano chiamare…).
La moglie organizza una festa a sorpresa per il compleanno del marito e sceglie di farla in una location assolutamente innovativa: un supermercato.
Un’idea meravigliosa, quanti di noi hanno desiderato, da bambini, di avere la possibilità di passare una sera in un supermercato ed essere liberi di consumare tutto quello che si vuole.
E fin qui tutto normale, a parte il fatto che trovo leggermente assurda l’idea di poter affittare un supermercato, ma andiamo avanti.
Se fossimo veramente stati nel 1998, forse ci sarebbe stato qualche articolo sui giornali che avrebbe raccontato i fatti, lasciandosi andare a commenti entusiasti per l’idea e la sua originalità, un po’ come quella pubblicità di molti anni fa dove un uomo portava al cinema la moglie ed invece di un film, in sala venivano proiettati filmati (in super8) e fotografie, della loro storia d’amore e lui le regalava un diamante. WOW!
Ma purtroppo per i Ferragnez siamo nel 2018, e tutto viene condiviso su social, volontariamente; sin dal primo momento, i filmati iniziano nell’ascensore di casa per poi raccontare ogni momento della festa, che ben conosciamo e che trovo inutile commentare.
Non riesco però a non fare un paragone con un altro film, questa volta un capolavoro   di animazione, e soprattutto di soli 10 anni fa: “Wall-e” (nel settembre 2008 Facebook fece il primo salto di visibilità che portò gli utenti, in Italia, a superare il milione e l’iPhone era stato appena lanciato sul mercato).
Bene, nel film c’è una scena dove un uomo e una donna, seppur vicini, si parlano, seduti su una poltrona mobile, attraverso un dispositivo che altro non è uno schermo.
Quello che è successo quella sera ha scatenato una serie infinita di reazioni negative sui social, facendo diventare quella che doveva essere una festa in una vera e propria crisi, una Social Crisis, che ha coinvolto non solo la celebre coppia ma anche Carrefour che non aveva resistito all’idea di affiancare il proprio marchio a quello dei Ferragnez, sperando in un ritorno in termini di immagine che purtroppo così non è stato, anzi.
Torniamo ai fatti, ad un certo momento si è costituita una unità di crisi, così composta: Chiara Ferragni, Fedez e la madre. Durante una riunione lampo è stato deciso di comunicare, immediatamente che tutto sarebbe stato messo a posto e che sarebbe stata fatta beneficienza, scusandosi di essere stati fraintesi; bella intenzione, forse comunicata troppo in fretta e con un linguaggio non verbale poco adeguato, ma soprattutto senza sapere che sui social andavano in onda i filmati della “riunione del comitato di crisi” e del briefing fatto prima per decidere i contenuti da diffondere.
Cosa è successo quindi? Ecco il paradosso del controllo, pensando di avere il pieno controllo dell’evento e di quello che si stava svolgendo, sia all’interno del supermercato sia in rete, il controllo è stato perso completamente.
Al punto che una delle prime reazioni è stata quella, dopo l’ennesimo filmato di scuse, questa volta con gli occhi pieni di lacrime, di chiudere uno degli account sui social, proprio come successe al povero Truman, che andando a sbattere sulla scenografia, che delimitava il suo mondo con il mondo reale, decise di salire le scale ed uscire da una porta di servizio, da cui però non è più rientrato.
Quello che ha fatto una famosa “youtuber” italiana che ha deciso di chiudere il proprio canale (almeno queste le ultime notizie) ed una sua fan ha commentato questa decisione con il seguente tweet: “sono contenta che voglia provare a vivere al di fuori di esso…” (sic!)
Aldilà delle considerazioni su questi recenti ed interessanti casi che si sono verificati nei giorni passati, che, proprio come “The Truman Show” fanno emergere infiniti temi filosofici, forse è arrivato il momento di prendere piena consapevolezza dei limiti e dei conseguenti rischi che le nuove tecnologie, ma soprattutto il loro utilizzo eccessivo, possano comportare, non solo per i singoli individui ma anche per le organizzazioni.
Quante aziende oggi si trovano ad affrontare improvvise situazioni di crisi che vengono gestite senza minimamente tenere conto del fatto che ciò che avviene sui social non è controllabile. Proprio per questo motivo è fondamentale tenere presente che in fondo esiste una parete, aldilà della quale c’è il mondo reale, e che basta uscire dalla porta di servizio per rendersi conto che alla fine basta un po’ di coerenza e un pizzico di buon senso per non perdere il controllo.
A dimenticavo, “casomai non vi rivedessi, buon pomeriggio, buona sera e buona notte!” (Truman Burbank)




Il conversational commerce nell’era dell’on demand

Il conversational commerce nell’era dell’on demand

Il conversational commerce sta cambiando il modo in cui usufruiamo della rete e acquistiamo. Domani essere trovati sul web non sarà più sufficiente, le aziende devono adeguarsi


Viviamo in un mondo in cui tutto è a portata di click. Siamo stati abituati a desiderare e ottenere immediatamente le nostre canzoni e film preferiti attraverso Spotify e Netflix. Siamo ora viziati dalla possibilità di ricevere a casa, nel giro di pochi attimi o di pochissime ore, anche prodotti, cibo, servizi grazie ad Amazon Prime, Deliveroo e tanti altri servizi. È l’economia on demand, che dopo aver modificato il rapporto tra persone e aziende sta ora ristrutturando il ruolo dei canali di contatto e delle informazioni a disposizione delle persone.
È dagli anni Novanta che troviamo una risposta ai nostri bisogni informativi attraverso la ricerca sui motori di ricerca e sui siti web, mutuando peraltro l’approccio che vede l’uomo, da oltre due millenni, informarsi entrando nelle biblioteche e ricercando tra gli scaffali il contenuto più adatto per rispondere ai suoi quesiti.
Con i social network abbiamo imparato a raccogliere informazioni più velocemente e ottenere supporto immediato scavalcando i call center e aggirando i menu telefonici (nel dubbio premete sempre il numero 9 e attendete un operatore): al di là dei messaggi più o meno simpatici proposti dai brand nelle loro pagine, agli utenti interessa risolvere un problema e farlo immediatamente, sconvolgendo le linee editoriali e mettendo in crisi i social media manager.
Dopo l’era dello sviluppo del web nei primi anni 2000 e quella della diffusione dei social network e instant messages dieci anni dopo, stiamo ora entrando in un nuovo ciclo legato al conversational commerce: una modalità che permette alle persone di raccogliere informazioni, ottenere supporto e fare shopping ponendo delle semplici domande sia in modalità testuale, sia attraverso la nostra voce.
Le aziende si stanno adeguando inserendo finestre di chat nei loro siti con operatori disponibili a risponderci immediatamente; in molti hanno previsto chat bot nei loro social network per offrire supporto 24/7.
Secondo i dati dello State of Chatbots Report 2018, tra i cui autori figurano aziende come SalesForce, le persone usano i chat bot per avere un supporto continuativo (64% delle risposte), immediato (55%), e ottenere risposte a semplici quesiti (55%). Il contributo dell’uomo non sarà comunque messo in discussione: il 43% delle persone preferisce comunque un contatto umano e il 34% dichiara di tollerare un primo contatto con un chat bot, per poi essere connesso a una persona che possa gestire domande complesse e con cui creare un contatto più empatico.
Con l’avvento dei personal assistant, accessibili oggi da smartphone e smart speaker, domani da automobili e oggetti connessi, il contatto tra persone, contenuti e prodotti sarà sempre più immediato e l’interfaccia di riferimento sarà la voce.
Da una recente ricerca di Wavemaker è emerso che a oggi in Italia l’80% degli intervistati conosce gli assistenti vocali come Google Assistant Siri , il 20%  li utilizza e solo il 5% li considera per la creazione di shopping list in ottica di conversational shopping. Secondo eMarketer, negli Stati Uniti l’utilizzo è del 95%, circa il 40% ricerca vocalmente informazioni sui negozi e il 25% sui prodotti.
Gli smart speaker in particolare stanno rivoluzionando il rapporto tra persone e contenuti: per la prima volta riusciamo a interagire senza prendere in mano un device elettronico. eMarketer ha rivisto al rialzo le sue stime e descrive un mercato americano che oggi ha più di 60 milioni tra Amazon Echo (Alexa), Google Home e altri smart speaker. Come spesso accade, guardiamo gli Stati Uniti per ipotizzare cosa potrà succedere anche da noi tra uno o due anni. In una famiglia su quattro oggi si trova uno smart speaker in salotto, cucina o camera da letto, con cui le persone interagiscono costantemente per ascoltare musica (74%), fare domande di varia natura (72%), informarsi su prodotti (39%), attivare oggetti connessi, come per esempio accendere le lampadine in casa (33%) e acquistare prodotti (28%).
È evidente che siamo ancora in una fase piuttosto embrionale dell’utilizzo delle voice interface almeno in termini di “conversational shopping”. Se ci focalizziamo sul 28% che acquistano prodotti, i “conversational shopper”, la maggior parte fa ricerche attraverso gli smart speaker (51%), aggiunge prodotti alla shopping list (36%), chiede informazioni sullo stato di consegna (30%), fa un acquisto vero e proprio (22%), fa una review di prodotto o dà un punteggio (20%).

Le implicazioni per i brand

Per quanto ai primi passi della sua esistenza, il conversational shopping promette di rivoluzionare il modo in cui siamo abituati a concepire la ricerca: oggi cerchiamo una cosa su un motore di ricerca e se è rilevante il fatto di trovarla o meno dipende dall’efficacia del Seo e della Sea.
Domani la ricerca verrà “filtrata” da un assistente personale, un’intelligenza artificiale che impara a conoscere le nostre abitudini e i nostri gusti: essere pertinenti da un lato (Seo) e pagare per essere visibili (Sea) semplicemente non sarà più sufficiente per essere trovati.
I brand dovranno necessariamente entrare nel repertorio dei consumatori.
Se i brand vorranno competere dovranno lavorare nuovamente sul loro posizionamento top of mind: i loro prodotti compariranno in cima alle proposte degli smart speaker solo quando saranno chiamati esplicitamente con ricerche del tipo “Alexa, acquista il caffè in cialde della marca ABC” piuttosto che “Alexa, acquista il caffè in cialde”.
Le implicazioni per le aziende sono evidenti: dovranno tornare a lavorare sul branding, (ri)creando una forte associazione a un determinato prodotto per vincere le logiche degli algoritmi e apparire in testa alle preferenze.

Il purchase journey

In termini di impatto sul purchase journey  il conversational commerce avrà implicazioni tecniche soprattutto nella fase attiva, dove è più rilevante: quando le persone hanno bisogno di supporto occorre rispondere immediatamente, predisponendo chat bot ma anche customer care (personali o artificiali) che rispondo attraverso instant messaging.
Il purchase journey è un servizio che fotografa il mercato valutando la pubblicità online, quella offline, l’impegno dei marchi o dei brand e il ruolo dei social media nelle esperienze di acquisto dei singoli.
Le ricerche vocali, che ora stiamo imparando a fare attraverso gli smartphone, devono essere intercettate da chiavi di ricerca che rispecchiano il linguaggio naturale e con porzioni di siti web capaci di essere riconosciute e lette dagli assistenti virtuali in modo naturale.
Ma per quanto concerne le implicazioni più strategiche, l’avvento del conversational commerce promette implicazioni ancora maggiori sulla fase del purchase journey che in Wavemaker chiamiamo “priming stage”, quella che precede la ricerca delle informazioni finalizzate all’acquisto.
Noi chiamiamo bias la forza con cui il priming stage condiziona le scelte di acquisto ed essa varia a seconda delle categorie oscillando fra un 30% a 60% medio: per convertire l’interesse in vendite occorre sviluppare e mantenere una forte conoscenza del brand e un posizionamento chiaro nella mente delle persone.




La consapevolezza del proprio scopo

LARRY FINK - CEO Blackrock

Lettera annuale di  LARRY FINK  – CEO Blackrock, agli Amministratori Delegati
 

 

Mentre BlackRock si avvicina quest’anno al suo trentesimo anniversario, ho avuto l’opportunità di riflettere sulle questioni più urgenti che gli investitori oggi devono affrontare e su come BlackRock deve sapersi adattare per servire meglio i nostri clienti. È un grande privilegio e responsabilità gestire le risorse che i clienti ci hanno affidato, la maggior parte delle quali sono investite per obiettivi a lungo termine come la pensione. Come gestore fiduciario, BlackRock si  impegna con le aziende per guidare la crescita sostenibile a lungo termine che i nostri clienti hanno bisogno per raggiungere i loro obiettivi.
Nel 2017, i titoli azionari hanno goduto di una corsa straordinaria – con massimi storici in un’ampia gamma di settori – e tuttavia la frustrazione popolare e l’apprensione per il futuro hanno raggiunto simultaneamente nuove vette. Stiamo assistendo a un paradosso di alti rendimenti e ansia elevata. Dalla crisi finanziaria, quelli con il capitale hanno raccolto enormi benefici; allo stesso tempo, molte persone in tutto il mondo si trovano ad affrontare una combinazione di bassi tassi, bassa crescita dei salari e sistemi di pensionamento inadeguati. Molti non hanno la capacità finanziaria, le risorse o gli strumenti per risparmiare in modo efficace. Per milioni di persone, la prospettiva di un pensionamento sicuro sta scivolando sempre più lontano, soprattutto tra i lavoratori meno istruiti, la cui sicurezza del lavoro è sempre più tenue.
Vediamo anche che molti governi non riescono a prepararsi per il futuro, su questioni che vanno dalla pensione e dalle infrastrutture all’automazione e alla riqualificazione dei lavoratori. Di conseguenza, la società si rivolge sempre più al settore privato e chiede alle aziende di rispondere a sfide sociali più ampie. In effetti, le aspettative del pubblico della tua azienda non sono mai state così grandi: la società chiede che le società, sia pubbliche che private, abbiano uno scopo sociale. Per prosperare nel tempo, ogni azienda deve non solo fornire prestazioni finanziarie, ma anche mostrare come contribuisca positivamente alla società. Le aziende devono saper beneficiare tutti i loro stakeholder, inclusi azionisti, dipendenti, clienti e le comunità in cui operano.
Senza la consapevolezza del proprio scopo, nessuna azienda, pubblica o privata, può raggiungere il suo pieno potenziale. Alla fine, perderà la licenza di operare ottenuta dai suoi principali stakeholder. cadrà travolto dalle pressioni a breve termine per distribuire guadagni e, nel processo, sacrificherà gli investimenti nello sviluppo dei dipendenti, nell’innovazione e nelle spese in conto capitale che sono necessarie per la crescita a lungo termine. Rimarrà esposto a campagne di attivisti che articolano un obiettivo più chiaro, anche se questo obiettivo serve solo gli obiettivi più a breve termine. E alla fine, questa società non potrà più fornire agli investitori i rendimenti da quali questi dipendono per finanziare la pensione, gli acquisti a casa o l’istruzione superiore.

Un nuovo modello per il governo societario

A livello globale, il crescente utilizzo da parte degli investitori dei fondi indicizzati sta determinando una trasformazione della responsabilità fiduciaria di BlackRock e del più ampio panorama della governance societaria. Nei $ 1.7 trilioni di fondi attivi che gestiamo, BlackRock può scegliere di vendere i titoli di una società se dubitiamo della sua direzione strategica o della sua capacità di crescita a lungo termine. Tuttavia, nella gestione dei nostri fondi indicizzati, BlackRock non può esprimere la propria disapprovazione vendendo i titoli della società fintanto che tale società rimane quotata nell’indice pertinente. Di conseguenza, la nostra responsabilità di impegnarci e votare nei consigli di amministrazione è più importante che mai. In questo senso: gli investitori istituzionali hanno responsabilità di investitori finali a lungo termine che forniscono capitale per le aziende, per crescere e prosperare.
Proprio come le responsabilità della tua azienda sono cresciute, anche le responsabilità dei gestori patrimoniali sono cresciute. Dobbiamo essere agenti attivi e impegnati per conto dei clienti che investono con BlackRock, che sono i veri proprietari della vostra azienda. Questa responsabilità va al di là del voto per delega alle riunioni annuali: significa investire il tempo e le risorse necessarie per promuovere il valore a lungo termine.
È giunto il momento per concepire un nuovo modello di coinvolgimento degli azionisti, che rafforzi e approfondisca la comunicazione tra gli azionisti e le società che possiedono. Ho già scritto che le società si sono concentrate troppo sui risultati trimestrali; allo stesso modo, l’impegno degli azionisti è stato troppo focalizzato sulle riunioni annuali e sui voti dei delegati. Se l’impegno deve essere significativo e produttivo – se collettivamente ci concentreremo sul vantaggio degli azionisti invece di sprecare tempo e denaro in “lotte per procura” – allora l’impegno deve essere come una conversazione che dura tutto l’anno sul miglioramento del valore a lungo termine.
BlackRock riconosce e sostiene la nostra responsabilità di contribuire a guidare questo cambiamento. Negli ultimi anni, abbiamo intrapreso uno sforzo concentrato per far evolvere il nostro approccio, guidato da Michelle Edkins, la nostra responsabile globale della gestione degli investimenti. Dal 2011, Michelle ha contribuito a trasformare la nostra pratica comune dall’essere prevalentemente focalizzati sul voto per delega verso un approccio basato sul coinvolgimento reale con le aziende.
La crescita dell’indicizzazione richiede che ora portiamo questa funzione ad un nuovo livello. Riflettendo la crescente importanza della gestione degli investimenti, ho chiesto a Barbara Novick, Vice Presidente e co-fondatore di BlackRock, di supervisionare gli sforzi delle aziende nelle quali investiamo. Michelle continuerà a guidare quotidianamente il gruppo globale di stewardship degli investimenti. Intendiamo anche raddoppiare le dimensioni del team di stewardship per gli investimenti nei prossimi tre anni. La crescita del nostro team contribuirà a promuovere un coinvolgimento ancora più efficace con la tua azienda creando un framework utile per garantire conversazioni più profonde, più frequenti e più produttive.

La tua strategia, il tuo consiglio e il tuo scopo

Al fine di rendere l’impegno con gli azionisti il ​​più produttivo possibile, le aziende devono essere in grado di descrivere la loro strategia per una crescita a lungo termine. Voglio ribadire la nostra richiesta, delineata nelle lettere precedenti, di articolare pubblicamente il quadro strategico della vostra azienda orientandolo verso la creazione di valore a lungo termine, e di affermare esplicitamente che è stato esaminato dal vostro consiglio di amministrazione. Ciò dimostra agli investitori che il tuo consiglio di amministrazione è impegnato nella direzione strategica dell’azienda. Quando ci incontriamo con i direttori esecutivi, ci aspettiamo anche che descrivano il processo fissato dal Board per supervisionare la tua strategia.
La dichiarazione della strategia a lungo termine è essenziale per comprendere le azioni e le politiche di un’azienda, la sua preparazione a potenziali sfide e il contesto delle sue decisioni a più breve termine. La strategia della tua azienda deve articolare un percorso per raggiungere la migliore performance finanziaria. Per sostenere questa performance, tuttavia, è necessario comprendere anche l’impatto sulla società della propria attività e il modo in cui le tendenze generali e strutturali – dalla crescita dei salari lenta alla crescente automazione ai cambiamenti climatici – influiscono sul potenziale di crescita.
Queste affermazioni strategiche non sono pensate per essere scolpite nella pietra, piuttosto dovrebbero continuare ad evolversi insieme all’ambiente imprenditoriale e saper riconoscere esplicitamente le possibili aree di insoddisfazione degli investitori. Naturalmente, riconosciamo che affrontare il mercato è molto più agevole se si usano strumenti standard come i report trimestrali alle autorità di controllo e soluzioni semplicistiche, piuttosto che facendo complesse discussioni strategiche. Ma una delle ragioni principali per l’aumento dell’attivismo di certi stakeholder – e la dispendiosa lotta contro i patti di sindacato degli azionisti di minoranza – è che le aziende non sono state abbastanza esplicite riguardo alle loro strategie a lungo termine.
Negli Stati Uniti, ad esempio, le aziende dovrebbero spiegare agli investitori in che modo le modifiche significative apportate alla legislazione fiscale rientrano nella loro strategia a lungo termine. Cosa farai con un aumento del flusso di cassa al netto delle imposte, e in che modo lo utilizzerai per creare valore a lungo termine? Questo è un momento particolarmente critico per le aziende per spiegare i loro piani a lungo termine agli investitori. I cambiamenti fiscali incoraggeranno gli azionisti più attivi e con un focus a breve termine a chiedere risposte sull’uso di maggiori flussi di cassa, e le aziende che non hanno ancora sviluppato e spiegato i loro piani troveranno difficile difendersi da queste campagne propagandistiche. 
Laddove gli attivisti offrono idee preziose – il che succede più spesso di quanto suggeriscono alcuni detrattori – essi incoraggiamo le aziende a iniziare le discussioni in anticipo, a coinvolgere azionisti come BlackRock e a mettere in campo altri stakeholder critici. Ma quando un’azienda attende e non riesce a esprimere la sua strategia a lungo termine in modo convincente, crediamo che l’opportunità di un dialogo significativo spesso sia già da considerare un’occasione persa.
L’impegno del vostro Consiglio di Amministrazione nello sviluppo della strategia a lungo termine è essenziale, perché un Consiglio impegnato e un approccio a lungo termine sono preziosi indicatori della capacità di un’azienda di creare valore a lungo termine per gli azionisti. Proprio mentre cerchiamo una conversazione più profonda tra aziende e azionisti, chiediamo anche che i direttori assumano un coinvolgimento più profondo con la strategia a lungo termine di un’azienda. Le commissioni si incontrano solo periodicamente, ma la loro responsabilità è continua; gli amministratori le cui conoscenze derivano solo da riunioni sporadiche non assolvono il loro dovere nei confronti degli azionisti. Allo stesso modo, i dirigenti che vedono questi temi solo come un fastidio minano se stessi e le prospettive dell’azienda di ottenere una crescita a lungo termine.
Continueremo anche a sottolineare l’importanza di un Consiglio di Amministrazione rispettoso della diversità. I Consigli con un mix eterogeneo di generi, etnie, esperienze di carriera e modi di pensare hanno, di conseguenza, una mentalità più diversificata e consapevole. Sono meno propensi a soccombere o a finire succubi di nuove minacce al modello di business di un’azienda. E sono più in grado di identificare le opportunità che promuovono la crescita a lungo termine.
Inoltre, il Consiglio è essenziale per aiutare un’azienda a articolare e perseguire il suo scopo, oltre a rispondere alle domande che sono sempre più importanti per i suoi investitori, i suoi consumatori e le comunità in cui opera. Nell’attuale contesto, questi stakeholder chiedono che le aziende esercitino la leadership su una più ampia gamma di problemi. E hanno ragione: la capacità di un’azienda di gestire le questioni ambientali, sociali e di governance dimostra la leadership e il buon governo di un’azienda, che sono così essenziali per una crescita sostenibile, motivo per cui stiamo integrando sempre più queste problematiche nel nostro processo di investimento.
Le aziende devono chiedersi: quale ruolo giochiamo nella comunità? Come gestiamo il nostro impatto sull’ambiente? Stiamo lavorando per creare una forza lavoro diversificata? Ci stiamo adattando ai cambiamenti tecnologici? Stiamo fornendo la riqualificazione e le opportunità che i nostri dipendenti e il nostro business dovranno adeguare a un mondo sempre più automatizzato? Usiamo la finanza comportamentale e altri strumenti per preparare i lavoratori alla pensione, in modo che investano in un modo che li aiuti a raggiungere i loro obiettivi?
Entrando nel 2018, BlackRock è desideroso di partecipare a discussioni sulla creazione di valore a lungo termine e di lavorare per costruire un quadro migliore per servire tutti i vostri stakeholder. Oggi, i nostri clienti – che sono i proprietari della vostra azienda – vi chiedono di dimostrare la leadership e la chiarezza che guideranno non solo i loro ritorni sugli investimenti, ma anche la prosperità e la sicurezza dei loro concittadini. Non vediamo l’ora di interagire con voi su questi temi.
Cordiali saluti, LARRY FINK  – CEO Blackrock