1

TGLFF – Lovers Festival, Torino 2017

Recentemente concluso il TLGFF, ora Lovers” Festival di Torino, una panoramica su questa edizione, con intervista al regista Andrea Meroni, autore del documentario “Ne avete di finocchi in casa?”
Ascolta il servizio:




L'ERA DEI ROBOT E LA FINE DEL LAVORO

Un bene o un male per l’umanità?
 
È un giorno qualunque, nell’era dei robot, e il lavoratore tipo esce di casa per recarsi in ufficio. Le macchine, per strada, si guidano da sole. Il traffico pure: si dirige da sé. Lo sguardo può dunque alzarsi sopra la testa, dove, come ogni giorno, droni consegnano prodotti e generi alimentari di ogni tipo – oggi, per esempio, il pranzo suggerito dal frigorifero “intelligente”.
Sul giornale – quel che ne resta – gli articoli sono firmati da algoritmi. Giunto alla pagina finanziaria, il nostro si abbandona a un sorriso beffardo: il pezzo, scritto da un robot, parla delle transazioni finanziarie compiute, in automatico, da altri algoritmi.
Entrato in fabbrica, poi, l’ipotetico lavoratore di questo futuro (molto) prossimo si trova ancora circondato dall’automazione; per la produzione, ma anche per l’organizzazione, la manutenzione, perfino l’ideazione del prodotto: a dirci cosa piace ai clienti, del resto, sono ancora algoritmi. Quel che mi resta, pensa ora senza più sorridere, è coordinare robot, o robot che coordinano altri robot. Finché ne avranno bisogno.
Ma per quanto ancora? Per rispondere, basta tornare al presente. Nei giorni scorsi, l’intelligenza artificiale di Google chiamata ‘AlphaGoha umiliato il campione Lee Sedol in uno dei giochi più complessi, astratti, e dunque tipicamente umani – così pensavamo – mai esistiti: il millenario Go.
Secondo gli esperti, sbalorditi, alcune mosse hanno esibito un comportamento non solo “creativo”, ma in un caso, secondo Wired, addirittura geniale in un modo del tutto incomprensibile a giocatori in carne e ossa. Peggio: il campione battuto dalla versione precedente di quella intelligenza sintetica ora scala le classifiche proprio grazie a ciò che sta imparando dalla macchina. E questo, dicono a Google, è solo l’inizio. Quando si parla di automazione, robot e lavoro, dunque, la questione ci riguarda tutti – senza distinzione tra operai, impiegati, intellettuali o manager d’azienda. Nessuno è più immune dal rischio di vedersi sostituito da una macchina.
Dice un sondaggio appena pubblicato dal Pew Research Center che gli interpellati statunitensi ne sono consci: due terzi immaginano che, entro i prossimi 50 anni, gran parte delle occupazioni attualmente svolte da esseri umani finiranno per essere assegnate a computer e intelligenze artificiali. Il rischio è tuttavia che pecchino di ottimismo quando aggiungono di ritenere – e in massa, l’80% – che «il loro lavoro rimarrà in buona parte immutato e continuerà a esistere nella forma attuale» tra mezzo secolo.
Sempre più analisi, infatti, sottolineano che lo scenario potrebbe essere presto ben diverso. Secondo i ricercatori di Oxford, Carl Benedikt Frey e Michael A. Osborne, il 47% dei lavori negli Stati Uniti è già arischio computerizzazione – e un ulteriore 13% vi si potrebbe aggiungere, nota McKinsey, quando le macchine diverranno capaci di “comprendere” e processare davvero il linguaggio naturale. Per l’Europa, poi, le percentuali ottenute rielaborando quei dati sono perfino più elevate.
Da qui le profezie di sventura. Per il docente della Rice University, Moshe Vardi, per esempio, entro i prossimi 30 anni i robot potrebbero portare a tassi di disoccupazione superiori al 50%. «Se le macchine sanno fare tutto», chiede Vardi, «che resta agli umani?»
Qualche istituzione se l’è chiesto. La Commissione britannica per ‘Impiego e Competenze’, per dirne una, ne ha ricavato un rapporto intitolato ‘The Future of Work: Jobs and Skills in 2030’. Uno studio che, fin dall’inizio, sottolinea come sul tema si sia passati dalla promessa di orari di lavoro ridotti e di più tempo libero, alla realtà in cui lavoro e tempo libero finiscono per confondersi, troppo spesso senza che sia più possibile distinguerli. Altri soggetti istituzionali, invece, devono ancora cominciare a problematizzare la questione. E sarebbe ora lo facessero, governo e sindacati in testa. A partire dall’Italia, dove manca qualunque elaborazione. E, di conseguenza, è inutile chiedersi se siano stati previsti e valutati i diversi scenari possibili; figurarsi le relative proposte di soluzione in termini di policy-making.

 Alle origini del cyber-lavoro

E dire che il problema si pone in questi esatti termini, anche a livello mediatico e di massa, fin dagli anni ’60. «L’automazione è davvero qui, i posti di lavoro diminuiscono», scriveva – echeggiando le cronache odierne – la prima pagina di Life del 13 luglio 1963. Attenti, ammoniva il settimanale: “siamo al punto di non ritorno per tutti”.

L’attualità della provocazione sconcerta. Significa che, mezzo secolo più tardi, il problema rimane lo stesso: non abbiamo imparato a capire se, passato il bivio, si è imboccata davvero la strada che conduce a un mondo di lavoratori umani sostituiti in massa dalle macchine, se la stiamo per prendere, o se piuttosto sono solamente le preoccupazioni infondate di nuovi “luddisti” intenti a spaccare gli algoritmi e le intelligenze artificiali della “quarta rivoluzione industriale” – invece dei telai meccanici delle precedenti.
Non stupisce dunque che, mentre si moltiplicano studi accademici, ricerche, volumi divulgativi e scientifici, resoconti giornalistici, interventi di analisti e leader di vecchi e nuovi colossi economici sul tema, sia un’analisi del 1964 a delimitare i contorni della domanda che ci poniamo oggi, su quale sia il reale impatto dell’automazione sul lavoro. È quella che un apposito gruppo di studio, l’Ad Hoc Committee, pubblicò nel rapporto intitolato ‘The Triple Revolution’. Pagine attuali, troppo attuali.
 Oggi come allora, infatti, si può dire di essere in presenza di una “rivoluzione” – chiamata all’epoca della “cybernazione” – la cui esistenza è dovuta interamente alla “combinazione dei computer con macchine che si autoregolano automaticamente”. Il risultato? “Un sistema dalla capacità produttiva pressoché illimitata”, che richiede tuttavia “sempre meno lavoro umano”. A meno che non ci sia “una reale comprensione” del fenomeno, concludevano gli autori di quel visionario rapporto, “potremmo stare consentendo l’emergenza di una comunità efficiente e disumanizzata senza alternative”.
Il padre della cibernetica, Norbert Wiener, ne aveva già scritto in forma di profezia nel 1949, sulNew York Times. Come ricorda Martin Ford in ‘Rise of the Robots’, secondo Wiener il dominio delle macchine avrebbe potuto condurre a una «rivoluzione industriale di assoluta crudeltà», capace di ridurre il valore del lavoro al punto di rendere impossibile trovare un prezzo a cui fosse conveniente, per il datore di lavoro, assumere un essere umano in carne e ossa. Dalla piena occupazione, si potrebbe dire, siamo passati alla prospettiva di una “piena automazione”. Con un mercato per la robotica destinato a passare dai circa 27 miliardi di dollari attuali ai 67 previsti tra un decennio, potrebbe presto diventare ben più di una provocazione.

Se anche il lavoro finisse, non sarebbe utopia

Davvero un mondo – come quello immaginato già da Oscar Wilde – in cui all’uomo non resta che tempo libero è un’utopia? Per Vardi è piuttosto il suo contrario, una distopia. La lezione dell’opera di Carel Kapek che diede i natali, a inizio Novecento, alla parola “robot” non fa che confermarlo. Ciò che si presenta con le fattezze di un paradiso edonistico, nel suo seminale ‘R.U.R.’ (1920) si rivela infatti presto essere un inferno disumano. La promessa è di uno dei protagonisti, Domin: i robot “produrranno talmente tanto grano, stoffe e molto altro, da poter dire che le cose non avranno più alcun valore”.

È l’antenato dell’odierna “era dell’abbondanza”, in cui “ognuno potrà prendere ciò di cui ha bisogno. Non ci sarà più miseria”. Insomma, il problema di Life è risolto alla radice. Perché sì, gli uomini “resteranno senza lavoro. Ma poi non ci sarà più bisogno di lavorare per nessuno. Tutto verrà fatto dalle macchine vive. L’uomo farà solo ciò che più gli piace. Vivrà solo per perfezionarsi”.

Il sogno è però in realtà un incubo. A spiegarlo, nell’opera, è l’architetto Alquist, dopo avere appreso che in un tale mondo le donne finiscono per non mettere più figli al mondo:

Perché non è più necessario il dolore, perché l’uomo non deve fare più nulla, tranne godere… Oh, che paradiso maledetto è questo! (…) non c’è niente di più terribile che dare alla gente il paradiso in terra.

Se anche gli ottimisti avessero ragione, insomma, e si lavorasse sempre meno (come vorrebbe Larry Page di Google) fino a non lavorare più, avremmo dei grossi problemi con il senso delle nostre esistenze. E sì, anche senza coinvolgere l’idea di un “governo dei robot”, come nella finzione di Capek o nei foschi presagi di Stephen Hawking («lo sviluppo di una completa intelligenza artificiale potrebbe segnare la fine della razza umana»).

La tecnologia crea o distrugge lavoro?

Qui i pericoli sollevati dagli scettici sono ben più concreti. Il rischio è di trovarci molto presto ad abitare un mondo in cui i “robot” causeranno tassi di disoccupazione insostenibili e senza precedenti nella storia umana, distruggendo i lavori ripetitivi e manuali così come le professioni intellettuali, e lasciando l’umanità schiava della tecnologia e dei suoi creatori. Come insegna la storia delle forme di repressione, non sempre è necessaria la violenza – in questo caso, di un Terminator – per governare il mondo. Bastano l’astuzia di un HAL 9000 o, più banalmente, di qualche buona rete neurale: ovvero, proprio del tipo di intelligenza artificiale che sconfigge i campioni di Go, riconosce oggetti e azioni nelle nostre foto e video “taggandoli” da sé, e un domani vicino o lontano guiderà le vetture di Uber.

Non tutti però concordano con gli allarmi. Una seconda via, al contrario, continua a indicare come destinazione un paradiso in cui le macchine e l’uomo collaborano e si integrano, aumentando le opportunità lavorative, moltiplicando efficienza e profitti, e garantendo un futuro in cui ozio, creatività e tenore di vita si coniugano al meglio. «Gli ultimi 200 anni», scrive per esempio l’analista di Deloitte, Ian Stewart, in ‘Technology and People: the Great Job-Creating Machine’, «dimostrano che quando una macchina rimpiazza un umano il risultato, paradossalmente, sono una crescita più rapida e, col tempo, occupazione in aumento».
Ma gli argomenti per sperare che il problema si risolva magicamente da sé, con una robotica mano invisibile, si assottigliano col passare del tempo. E se si considera poi che nemmeno delle soluzioni c’è traccia, si capisce perché sembri proprio di stare vivendo la «congiuntura storica che richiede un ripensamento radicale dei nostri valori e delle nostre istituzioni» di cui scriveva l’Ad Hoc Committee.
 E allora come è possibile quella “reale comprensione” manchi non solo nell’opinione pubblica, ma anche e soprattutto nei progetti della politica e delle forze sindacali – soggetti che non sembrano adeguatamente preparati a una sfida sistemica e dai contorni potenzialmente devastanti per milioni e milioni di cittadini come quella che ci troviamo invece ad affrontare?
E dire che le domande che la compongono sono fondamentali. Quanto è reale lo spettro della “disoccupazione tecnologica” coniata negli anni ’30 da John Maynard Keynes, e quali conseguenze avrà sulle vite di ogni singolo individuo, e per la società tutta? Quali forme di impiego sopravviveranno, quali ne sbocceranno e quali invece diverranno un retaggio del passato? E come cambia il significato della stessa parola “lavoro” quando si possono automatizzare perfino mansioni e compiti un tempo considerati dominio unico dell’umano?

 Quello che gli esperti non dicono

Rispondere è difficile, perché il progresso tecnologico avanza anche se non ne anticipiamo gli effetti. E perfino gli esperti sono divisi, esattamente in due. Si pensi al sondaggio che il Pew ha pubblicato ad agosto 2014, dopo averne interpellati quasi duemila: impossibile ricavarne un’indicazione che chiarisca il tragitto e, soprattutto, la meta. “Metà (48%)”, si legge tra i risultati, immagina per il 2025 “un futuro in cui robot e agenti digitali avranno rimpiazzato un numero significativo sia di colletti blu che di colletti bianchi”, con “un forte aumento nelle disuguaglianze di reddito, masse di persone di fatto non impiegabili, e rotture nell’ordine sociale”. L’altra metà (52%), invece, vede l’esatto opposto: “la tecnologia non distruggerà più posti di lavoro di quanti ne crea”.

Al netto delle percentuali, sono le argomentazioni degli esperti riportate dal Pew a destare perplessità. Perché i punti di contatto e consenso sono pochi, deboli e generici: sì, entro il prossimo decennio il concetto stesso di “lavoro” subirà una mutazione genetica, fino a significare qualcosa d’altro rispetto a oggi.

«Non avevamo mai visto niente di simile prima», ammette candidamente Eric Brynjolfsson del MIT

 E sì, il sistema educativo non sta facendo abbastanza per preparare la forza lavoro a uno shock che non è più del futuro (come in Toffler) né del semplice presente (come in Rushkoff), ma di un presente sempre automatizzato e condiviso. Ma è dell’impatto sull’occupazione che vogliamo sapere, del peso specifico concreto della robotizzazione delle fabbriche come delle mansioni cognitive, della trasformazione di trasporti e alloggi nei beni precari dei “volontari” della sharing economy, in valore da scambiare nel mercato del nuovo “capitalismo delle piattaforme”.
E su questo i pareri divergono al punto di diventare una (pur utile) guida all’argomentare pro e contro ogni scenario immaginabile, più che un modo per informare i policy-maker e il pubblico su che cosa sta realmente accadendo.

Nulla è come prima

Uno degli argomenti degli ottimisti è che non stiamo vivendo un’epoca senza precedenti, un “punto di non ritorno” mai raggiunto prima. Prendendo a esempio la storia delle rivoluzioni produttive, gli entusiasti dell’automazione sostengono che il problema si è già posto, e il capitalismo l’ha sempre risolto con la tecnologia nel ruolo di ciò che crea – piuttosto che distruggere – posti di lavoro. Gli analisti di Deloitte affermano per esempio di averlo dimostrato valutando l’evoluzione di 144 anni del mercato del lavoro in Inghilterra e Galles. E il risultato è che, lungi dall’essere in opposizione, tecnologia e lavoro sono potenti alleati – come dimostrato dagli aumenti occupazionali registrati nella medicina, nei servizi professionali e nell’area business. Anzi: negli ultimi 35 anni, scrivono, i settori maggiormente in crescita sono stati proprio quelli tecnologici.

Certo, “la storia dimostra che il processo è dinamico”. E sì, alcune occupazioni vanno in fumo. Ma il punto è che nuove tecnologie aprono nuovi mercati, e dunque nuove mansioni o anche solo nuovi compiti per quelle già esistenti – quando non nuovi interi settori dell’economia. Per questo il saldo sarebbe, dicono, positivo. Dall’altro, e in tutta risposta, è facile ribattere che quello induttivo potrebbe non essere un buon metodo per predire il comportamento umano in questo contesto: se una tecnologia ha creato posti di lavoro in passato, non è detto che la prossima debba fare altrettanto. C’è del determinismo senza giustificazione, nell’assumerlo; e nessuno degli ottimisti ne sembra immune.
 Sempre più dati e considerazioni analitiche, del resto, mostrano la fallacia di quell’assunto. Secondo gli economisti del MIT, Eric Brynjolfsson e Andrew McAfee, siamo infatti al contrario in una ‘Seconda era delle macchine’ – come recita il titolo del loro più recente volume – caratterizzata proprio dal fatto che “ciò che è già stato” non è più una guida “particolarmente affidabile a ciò che sarà”. Se, come mi ha detto lo stesso Brynjolfsson in una intervista perl’Espresso “l’aumento aggregato di produttività e ricchezza è significativo”, a partire dagli anni ’80 quell’abbondanza non si traduce più in aumenti proporzionali nei tassi di occupazione e di salario.
Anzi, per i lavoratori statunitensi il reddito medio è addirittura sceso del 10% tra il 1999 e il 2011 – il tutto mentre quello dell’1% più ricco è raddoppiato. Più bounty, nel gergo dei due studiosi, non significa più spread; a dire: l’era dell’abbondanza non è l’era dell’uguaglianza. Questo disallineamento tra Pil e produttività in crescita, da un lato, e redditi e prospettive lavorative in calo, dall’altro, ha determinato negli ultimi decenni quello che gli autori chiamano ‘The Great Decoupling’, il “grande disaccoppiamento”.
«Non avevamo mai visto niente di simile prima», ammette candidamente Brynjolfsson all’Harvard Business Review. Il messaggio è chiaro: non basta mettere più macchine nell’economia per garantire che la tecnologia arrechi benefici all’intero corpo sociale. Il successo dell’automazione non è automatico, non per tutti.

C’è “lavoro” e lavoro

Chi ritiene che il rischio di una “disoccupazione tecnologica” strutturale e crescente sia concreto (anzi, una realtà), insomma, può andare oltre la semplice, banale constatazione per cui ci sarà sempre un lavoro che un umano può svolgere e una macchina no. A meno che la distinzione tra uomo e robot non perda di significato, non si vede perché dovrebbe essere altrimenti. Eppure anche in questo caso – limite, e irrealistico dato che nemmeno le nuove intelligenze artificiali sfiorano la coscienza – la replica è semplice: perché quel lavoro unicamente umano dovrebbe avere ancora valore nel futuro automatico? Perché, in altre parole, dovrebbe essere ancora “lavoro”?
Una macchina potrebbe svolgere una mansione differente per soddisfare lo stesso bisogno, che renda quella umana superflua o in ogni caso azzeri la possibilità di ricavarne un salario o una qualunque forma di compenso monetario.
Altro assunto ingenuo, eppure fatto proprio da metà degli esperti interpellati dal Pew, è che il sistema politico-legale si attrezzi in tempo utile degli strumenti d’azione necessari e sufficienti a reggere il peso della “rivoluzione”.
Al momento non se ne vedono, e le soluzioni restano piuttosto confinate al dominio delle analisi dei colossi mondiali della consulenza – da McKinsey in giù – e del mondo accademico e intellettuale. Può darsi che nel prossimo decennio le cose cambino sostanzialmente, certo, e i tentativi di regolamentare le vetture che si autoguidano di Google o la sharing economy cominciano a essere numerosi. Ma crederlo ora significa peccare di ottimismo circa la lungimiranza e la forza delle istituzioni per intervenire sull’insieme dei molteplici aspetti rivoluzionari introdotti dalle tecnologie di rete e dall’automazione nel dibattito pubblico.
E questo a maggior ragione se si considera che molti – da sempre più venture capitalist di Silicon Valley ad autori di sinistra radicale come Nick Srnicek e Alex Williams in ‘Inventing the Future. Postcapitalism and a World Without Work’, in ottica di libero mercato come in una prospettiva postmarxista – chiedono l’introduzione di serie e strutturate forme di sostegno del reddito per compensare gli effetti della robotizzazione di quasi tutto: con quali fondi, si potrebbero chiedere amministrazioni e governi sempre più al verde?

Come sopravvivere all’automazione

Ma come sarà il lavoro dell’era del tutto automatico? Quali occupazioni lo saranno ancora nel prossimo futuro e quali invece diverranno hobby o scompariranno? E soprattutto, e in via preliminare: se l’impatto della computerizzazione sul lavoro è un fatto assodato in letteratura, quale impatto ha avuto, sta avendo e avrà sui diversi strati sociali?

Inserisci nel campo di testo il tuo mestiere e scopri quale è la probabilità di essere sostituito da un robot nei prossimi 10 anni (LOL).
Quest’ultima è la domanda cruciale. E la risposta è chiara: i lavori della classe media si stanno svuotando, mentre quelli ad altissime competenze (cognitive) e bassissimo reddito (manuali), ai due estremi, si moltiplicano. Così sopravvivono le mansioni maggiormente creative e che richiedono speculazione intellettuale non sono attualmente replicabili da intelligenze artificiali e non lo saranno ancora per qualche tempo. All’altro capo dello spettro occupazionale, il paradosso di Moravec insegna che anche compiti che richiedono invece particolari competenze sensomotorie (per esempio, il tocco di uno chef o di un infermiere) possono essere molto onerose dal punto di vista computazionale, e dunque sono (al momento) più facilmente eseguibili da esseri umani.
Il risultato è quello che ben riassume il filosofo Michele Loi in ‘Technological Unemployment and Human Disenhancement’:

Da un lato, l’occupazione cresce per lavori altamente specializzati di tipo manageriale, professionale e tecnico; dall’altro, cresce anche nella preparazione dei cibi e nella ristorazione, per le pulizie e i lavori di manutenzione, nell’assistenza sanitaria personale e in numerose occupazioni nei servizi di sicurezza e protezione. In confronto, l’occupazione per le forme di lavoro routinarie con medie competenze è scesa costantemente in termini relativi negli ultimi tre decenni.

Insieme, c’è l’irruzione dell’economia della condivisione (sharing economy), che sta comportando il mutarsi di sempre più forme occupazionali in prestazioni occasionali, svolte non più da dipendenti assunti ma da freelance autonomi. Un esempio sono i piloti di Uber e gli affittuari di Airbnb, l’ariete di un fenomeno per cui i lavoratori diventano precari permanenti al servizio di piattaforme che, invece di impiegarli nel senso tradizionale del termine, li rendono beni condivisi nel tentativo di collegare domanda e offerta.
A questo le tutele per lavoratori e consumatori tuttavia diminuiscono. Per esempio, perché le piattaforme si dicono non responsabili di qualunque cosa accada ai loro “volontari” («siamo piattaforme tecnologiche – rispondono – non aziende di trasporti o albergatori»). Un recente editoriale del Los Angeles Times – intitolato ‘Your Job is about to Get Taskified’ – lo dice più chiaramente: «Dimenticatevi la rivolta dei robot e le preoccupazioni per l’automazione. Il problema immediato è l’”uberizzazione” del lavoro umano, la frammentazione delle occupazioni in compiti dati in appalto e lo smantellarsi dei salari in micropagamenti».
Certo, ordinare un passaggio con un click sullo smartphone è comodo. Ma il costo non si misura solo nel prezzo finale: è un’intera concezione del lavoro a mutare. I forzati e non del lavoro “uberizzato” hanno meno diritti delle loro controparti del “passato”, “reazionarie” o “luddiste” che siano. E i loro clienti, come dimostrano le diatribe per le molestie e gli abusi compiuti in tutto il mondo dai piloti reclutati da Uber con un procedimento tutt’altro che impeccabile, pure. Non si capisce per quale motivo questo dovrebbe essere considerato un bene: perché una app è più cooldi un taxi? Non è un argomento di cui un serio legislatore dovrebbe tenere conto.
 Ciò di cui invece dovrebbe tenere conto è che, in assenza di un intervento, la stima degli studiosi di Oxford per cui un lavoro su due è ad alto rischio di automazione entro i prossimi dieci-vent’anni è destinata a rivelarsi sbagliata per difetto. Scrivono infatti Frey e Osborne che attualmente «i lavori che includono compiti complessi in termini di percezione e manipolazione, che richiedono intelligenza creativa e sociale, difficilmente saranno rimpiazzati» in quello stesso lasso di tempo. La sostituzione robotica di facoltà così propriamente umane sarà difficile a causa di “colli di bottiglia ingegneristici”, e subirà dunque un rallentamento. Il punto tuttavia è che, una volta rimossi quegli impedimenti “tecnici”, non ci sarebbero limiti all’automazione, e dunque a pagare non saranno più solo i lavori della classe media.
Così, un 47% di occupazioni umane già oggi rimpiazzabili con macchine finirebbe per sembrare perfino desiderabile: se l’unica variabile per stabilire il tasso di computerizzazione del lavoro è il progresso tecnologico c’è da giurare la percentuale sia piuttosto destinata a lievitare, e di molto, nelle previsioni che verranno.
Perché? Prima di tutto, perché il costo della computazione, dice la storia, è diminuito negli ultimi decenni con tassi perfino di oltre il 60% anno su anno – è la legge di Moore, dopotutto. In secondo luogo, perché i progressi dell’intelligenza artificiale sono stati tali, e talmente rapidi, da trasformare l’idea di commercializzare vetture che si autoguidano da fantascienza in (quasi) realtà solo tra i primi Duemila e oggi.

Nella “industria 4.0”

Se fare un pilota digitale era più facile del previsto, ora però bisogna dirlo ai taxisti in rivolta perché sostituiti da un guidatore umano chiamato tramite smartphone oggi e da un algoritmo domani. Non solo: bisogna spiegare altrettanto a tutti gli altri interpreti in carne e ossa delle professioni che saranno travolte o trasformate da quella che il Boston Consulting Groupdefinisce “Industria 4.0”: la quarta rivoluzione produttiva, seguita a quelle del motore a vapore, dell’elettricità e delle forme di automazione introdotte negli anni ’70.
Entrare nel dettaglio qui è cruciale. Così anche il BCG guarda al 2025, come il Pew. Ma lo immagina per un paese solo, la Germania. Ed è importante: analizzare l’impatto dell’automazione su singole attività lavorative in un preciso contesto aiuta a meglio comprendere le voci che formano il saldo previsto in termini occupazionali. Nel rapporto ‘Man and Machine in Industry 4.0’, analizzando 40 “famiglie” occupazionali in 23 settori diversi dell’economia tedesca, gli analisti concludono che l’impatto dell’automazione sarà positivo, per 350 mila unità in un decennio. Ma se per gli scienziati dei dati e altre professioni legate all’informatica ci sarà un boom di poco inferiore al milione di nuovi posti di lavoro, quelli alla catena di montaggio e in altri settori della produzione vedranno una contrazione di oltre 600 mila lavoratori.
Anche per BCG, dopo il 2025 i tassi di automazione – e dunque di sostituzione di intelligenze umane con artificiali – saranno ulteriormente in crescita. Ma la domanda non riguarda solo il futuro remoto. Che senso hanno le stime appena descritte? Per capirlo, bisogna guardare di nuovo ai dettagli, a come sono composte. BCG assume una crescita della “Industria 4.0”, qualunque cosa essa sia esattamente, dell’1% e un tasso di implementazione dell’innovazione del 50%. Affinché il saldo positivo si realizzi, in ogni caso, si deve sperare che tutto questo si traduca in un aumento del fatturato delle imprese tedesche che abbracciano la nuova rivoluzione automatica tra l’1 e l’1,5%: solo così infatti le aziende manterrebbero sufficienti incentivi ad assumere più lavoratori di quanti vengono travolti dal progresso. Il tutto senza contare che non viene considerato che faranno quegli oltre 600 mila nuovi disoccupati: difficile con le loro competenze possano approfittare dei nuovi settori in crescita.
Inoltre, anche quando gli analisti sostengono che «gli impiegati con più anzianità potrebbero lavorare più a lungo» nel caso fossero aiutati, nelle loro mansioni quotidiane più faticose, da possenti robot, sembrano dimenticare una fondamentale domanda: perché non dovrebbero essere semplicemente rimpiazzati dalle tante menti – e corpi – più giovani in cerca di occupazione, o semplicemente da quegli stessi robot, una volta che siano in grado di rimpiazzarli? Non era forse una sostituzione necessaria – proprio “ciò che la tecnologia vuole”, come direbbe Kevin Kelly, il cofondatore della rivista Wired?

La società post-professioni

L’intero edificio degli ottimisti, poi, riposa sull’assunto che i lavori creativi, intellettuali, più impegnativi e redditizi, resteranno umani per tutto il futuro che è ragionevole prevedere attualmente. A scomparire, dicono, sono e saranno le mansioni che già oggi ci rendono simili a macchine, ripetitive e mal pagate – alienanti, si sarebbe detto in passato. Come riuscire per esempio altrimenti a creare le sinergie tra uomo e macchina che dovrebbero salvare il lavoro secondo Brynjolfsson e McAfee? E a che servirebbe la figura, tutta nuova e in ascesa secondo BCG, del “coordinatore di robot”, se questi ultimi potessero coordinarsi da soli, o anche i colletti bianchi fossero di silicio?

Il problema – per tutti – è che anche questa premessa è molto più debole di quanto sembri. Scrivono Richard e Daniel Susskind in ‘The Future of the Professions’:

La domanda (…) è se ci sarà disoccupazione tecnologica per le professioni nel lungo periodo. La risposta breve è ‘sì’. Non siamo stati in grado di reperire alcuna legge economica che possa assicurare in qualche modo un impiego ai professionisti in un contesto di macchine sempre più capaci. A ogni modo, resta incerta la dimensione della perdita di posti di lavoro.

Certo, la prospettiva di una società “post-professioni” si allunga sui prossimi decenni, non mesi o anni. Ma già oggi è utile ricordare che «sta a noi decidere come usare la tecnologia nelle professioni», perché alcuni fenomeni molto probabilmente sono qui per restare: macchine più capaci, device più pervasivi e umanità più connessa, per cominciare.
Ed ecco allora sorgere un importante imperativo morale, assente nelle prospettive deterministe: se siamo noi a dover dare forma al nostro futuro, non possiamo che farlo nell’ottica della responsabilità personale, e dunque «da un punto di vista etico». Affrontare l’era dei robot significa in altre parole andare oltre le famose tre leggi della robotica dello scrittore Isaac Asimov, e chiederci non tanto cosa deve poter fare e pensare una macchina ma anche e soprattutto cosa diventino le categorie morali in un mondo in cui l’uomo rischia di diventarne – anche per le mansioni intellettuali – un mero complemento e unicamente finché è necessario.
Non solo. L’analisi dei due studiosi è significativa perché specifica un altro aspetto, spesso trascurato, del rapporto tra automazione e lavoro. E cioè che una mansione, specie di un professionista, non è quasi mai composta di un singolo compito.
“Molte discussioni sulla disoccupazione tecnologica lo ignorano, assumendo che le mansioni lavorative siano composte di compiti unici. In realtà – si legge tra le conclusioni del volume – i sistemi (automatizzati, ndr) non tendono a privare del tutto le persone del loro lavoro. Piuttosto, sostituiscono particolari compiti per cui non c’è più bisogno di esseri umani. I posti di lavoro non svaniscono in un istante. Appassiscono gradualmente. Una intera mansione scompare solo se si perde l’intero insieme di compiti che la compone e non viene alimentato con nuovi compiti”.
Una recente indagine del World Economic Forum, che ha interpellato i dirigenti di 371 aziende che impiegano oltre 13 milioni di lavoratori in 15 diversi paesi, concorda: tra il 2015 e il 2020 si perderanno circa cinque milioni di posti di lavoro a causa della doppia rivoluzione dell’Internet delle cose – in cui tutti gli oggetti sono connessi – e dell’intelligenza artificiale, e un aspetto fondamentale sta proprio nella redistribuzione delle competenze richieste: “oltre un terzo” di quelle essenziali non sarà tra quelle attualmente richieste. Per non parlare del 52% di mansioni che richiederanno “abilità cognitive” oggi non previste.
Anche McKinsey, nello studio ‘Four Fundamentals of Workplace Automation’ (novembre 2015), sottolinea che saranno pochi i lavori«automatizzati interamente nel breve e medio termine» (il 5%). A essere automatizzate «saranno piuttosto alcune attività, che richiederanno la trasformazione di interi processi di business, e la ridefinizione delle mansioni svolte dai lavoratori». In particolare, il 60% delle mansioni vedrà automatizzato il 30% o più delle proprie attività costituenti.
La questione della disoccupazione tecnologica diventa così quella di misurare e comprendere la natura di queste ultime. Per il WEF l’AI avrà un impatto negativo sulla crescita, anche se non a livelli tali da motivare i timori di una rivolta sociale (-1,56%), nei prossimi cinque anni. Ma di nuovo, l’impatto aggregato varia da settore a settore: l’Internet delle cose porterà a un effetto positivo sulla creazione di posti di lavoro (3,54) nell’architettura e nell’ingegneria, ma negativo (e di molto: -8%) in lavori di manutenzione e installazione, così come (-6%) in lavori d’ufficio e amministrazione.

Rendere umano il lavoro, a prescindere dalla tecnologia

A cambiare è la natura stessa di quelle forme di lavoro. E allora non si può ignorare per esempio che, come sostiene David Autor, le occupazioni dei professionisti non possono essere facilmente spacchettate in diverse mansioni senza che ciò comporti una perdita di qualità. È quello che Loi chiama, con una terminologia presa a prestito dalla bioetica, human disenhancement, una prospettiva “tutt’altro che remota” in cui – con le parole dello stesso Autor e del collega David Dorn – «più lavoratori vedono il proprio lavoro degradato di quanti lo vedano migliorare».

Il problema del futuro del lavoro, in altre parole, non è solo questione di numeri. È anche e soprattutto una questione di conoscenza. E non solo del contesto tecnologico. Uno dei più interessanti contributi degli interpellati dal WEF è proprio, al contrario, che l’arrivo della “quarta rivoluzione industriale” vada compreso – in termini occupazionali – andando ben oltre la tecnologia.

Affrontare l’era dei robot significa in altre parole andare oltre le famose tre leggi della robotica dello scrittore Isaac Asimov.

I fattori determinanti sarebbero infatti la composizione demografica dei paesi emergenti, la nascita di una classe media in quegli stessi paesi, l’aumentato potere economico delle donne e la crescente instabilità del quadro geopolitico contemporaneo.
Quanto alla creatività, e allo spettro di una automazione del lavoro intellettuale che potrebbe raggiungere presto attività che occupano il 20% del tempo di un professionista, è McKinsey a ricordare come manchi già oggi, con o senza robot. Nel mercato USA, solo il 4% dei lavori richiede un impegno creativo. Quanto alla capacità di riconoscere ed esprimere emozioni, non sono solo i robot a essere in deficit: l’abilità è richiesta solo a poco più di un lavoratore statunitense su quattro. E anche questo è un trionfo della macchina sull’uomo.



Nelle aziende italiane dipendenti poco coinvolti: le scelte sbagliate che riducono engagement e motivazione

L’engagement dei collaboratori è un fattore di successo per le aziende: ha conseguenze positive su redditività, soddisfazione dei clienti, innovazione, costruzione dei brand e gestione delle crisi. E tuttavia il livello medio dell’engagement dei collaboratori delle grandi aziende italiane è di 3,5 su una scala da 1 a 5: un dato che indica che c’è ancora molto da fare nel nostro paese, soprattutto perché più coinvolgimento significa più motivazione e, quindi maggiore produttività.
Questo, in sintesi, è ciò che emerge dalla prima indagine scientifica sul tema dell’engagement in azienda mai condotta in Italia: realizzata dall’Università IULM, la ricerca ha coinvolto un campione di 375 imprese rappresentativo delle aziende italiane con più di 500 dipendenti per valutare se e come i dipendenti vengono motivati attraverso strategie e azioni di “coinvolgimento” attivo nella vita dell’azienda.
I risultati peggiori nelle aziende di proprietà italiana
“I risultati”, dice Alessandra Mazzei, responsabile scientifico del Working Group Employee Communication dello IULM, “indicano che nelle grandi aziende italiane il livello di engagement è appena sufficiente e peggiora nelle aziende di proprietà italiana, quelle che adottano strategie di riduzione dei costi, che operano solo a livello nazionale e che non sono quotate”. Come a dire, spiega, che la maggiore competizione induce le aziende a prendersi più cura dei propri collaboratori.
Le cause del “disengagement”
“Il disengagement”, prosegue la Mazzei, “cresce quando le relazioni con i collaboratori sono trascurate, la gestione delle risorse umane non valorizza talenti e aspettative ed esiste in azienda un diffuso senso di ingiustizia organizzativa. Tra le principali cause del disengagement ci sono inoltre l’incoerenza e l’arroganza del management, tema questo che chiama in causa in primo luogo i vertici aziendali”.
Cosa si intende con coinvolgimento
Ma cosa si intende esattamente con “engagement”? La prima criticità emerge già in questa prima definizione: l’indagine è stata condotta sui manager che si occupano specificatamente di favorire il coinvolgimento dei collaboratori, i quali ritengono che la componente più importante dell’engagement sia la connessione psicologica ed emozionale del dipendente con l’azienda e i suoi valori. Invece, dicono i ricercatori, gli studi scientifici hanno evidenziato che l’engagement è rilevante se genera nel dipendente comportamenti proattivi, cioè motivazione ad azioni per contribuire concretamente al successo dell’azienda.
Il ruolo della comunicazione (incluse le convention)
Secondo gli intervistati, l’engagement si genera principalmente attraverso due strumenti: la comunicazione e la gestione organizzativa delle risorse umane. In termini di comunicazione interna, le pratiche ritenute più importanti sono la comunicazione a cascata (cioè quella top-down, che parte dai vertici e arriva a tutti i collaboratori) e le convention, seguite da strumenti quali newsletter, blog e email. Da sola la comunicazione interna non è però una leva sufficiente per coinvolgere le persone: entra quindi in gioco il ruolo dei capi diretti con temi quali il dialogo manager-collaboratori, i gruppi di progetto, le conversazioni informali per raccogliere il feedback dei collaboratori. In particolare, lo studio ha indagato le pratiche volte a creare un clima di comunicazione aperta che stimoli i collaboratori a suggerire nuove idee, esprimere critiche costruttive e segnalare fatti controversi, e i manager hanno evidenziato la rilevanza della politica della “porta aperta” e delle policy che proteggono i collaboratori da ritorsioni e discriminazioni. Sono considerati invece poco rilevanti, ai fini dell’engagement, i social media interni.
Welfare aziendale e smart working considerati poco efficaci
Per quanto riguarda la gestione delle risorse umane, le pratiche che le aziende considerano più efficaci per generare engagement sono job rotation e mobilità orizzontale (cioè spostare periodicamente i dipendenti in settori diversi a parità di retribuzione), il job posting interno e la formazione per lo sviluppo delle competenze personali. Elementi più innovativi di welfare aziendale, quali convenzioni per servizi alla persona, palestre aziendali, offerte per la famiglia sono invece considerati poco importanti ai fini motivazionali. E ancor meno lo sono, secondo le aziende, lo smart working, le iniziative di corporate social responsibility che coinvolgono i collaboratori e i programmi di diversity management.




Discutere sui social senza arrivare allo scontro (ma nemmeno censurarsi) è possibile?

Su ilLibraio.it un estratto da “La disputa felice. Dissentire (senza litigare) sui social network, sui media e in pubblico”, l’attualissima guida di Bruno Mastroianni

Bruno Mastroianni, filosofo e giornalista, è consulente per i social media de “La grande Storia” di Rai 3. Ricercatore e docente di Teoria generale della comunicazione, da sempre si occupa di comunicazione sui social network. Con l’aiuto dei migliori principi della retorica, del media training e della comunicazione di crisi, nel suo ultimo libro La disputa felice. Dissentire (senza litigare) sui social network, sui media e in pubblico offre una guida sintetica per imparare a sostenere il proprio punto di vista davanti all’altro che non è d’accordo: senza giungere allo scontro ma nemmeno arrendersi alla cortesia diplomatica, all’asettico “politically correct”. Ne proponiamo un brano, per gentile concessione della casa editrice Franco Cesati.
la disputa felice
Nella discussione sui social, la maggior parte delle volte, il livello dell’incomprensione non è tanto nei contenuti in sé ma nelle differenze tra i modi di intendere la realtà degli interlocutori coinvolti.
L’ostilità, insomma, è un conflitto tra mondi che si riversa sulle persone: uno sente nelle affermazioni dell’altro la negazione di qualcosa in cui crede e che ha per lui valore intoccabile. Nelle discussioni accese accade qualcosa di simile a quello che succede nei confronti interreligiosi: quando si dialoga tra fedi, ciascun interlocutore sa bene che esiste una sfera – quella delle credenze della religione dell’altro – che non può essere messa in discussione, pena creare un effetto di mancanza di rispetto; occorre allora tenerla presente per discutere su altri aspetti, come le conseguenze sociali, morali, politiche, di quelle credenze. In tutti i casi di confronto tra visioni del mondo, la sfera delle certezze dell’altro è un punto di partenza da accettare, per trovare un terreno comune e divergere invece sulle scelte concrete.
[…]
Ci si fa capire quando si è se stessi. Ci si fraintende quando si impersona qualcosa: un ruolo, una posizione, una difesa di ufficio a nome di un gruppo, di una prospettiva culturale, politica o religiosa. Sembra una considerazione banale e invece è il centro del disputare con l’intento di farsi capire dall’altro. Anni fa uscì un testo dal titolo quanto mai efficace: You Are the Message, ‘tu sei il messaggio’; ecco, oggi siamo ancora lì: essere se stessi davanti agli altri è l’unica via per poter stabilire una relazione autentica, unico modo perché si abbia una vera comunicazione. Comunicare, infatti, è possibile solo a partire da una interazione tra due o più soggetti che si riconoscono e si presentano per come sono veramente e quindi reciprocamente accessibili. Conoscersi è farsi riconoscere dall’altro e riconoscere l’altro.
Essere se stessi vuol dire affidarsi alle proprie risorse di comunicazione.
Vuol dire fuggire da proiezioni superbe della propria competenza, delle proprie capacità, della bontà dei propri argomenti. Quando uno entra nell’ottica di essere semplicemente se stesso, di solito riesce a essere interessante e comprensibile. Spesso quando interveniamo in dibattiti pubblici sentiamo crescere un senso di rivalsa e ci lasciamo andare all’aggressività, alla spocchia, alle prevaricazioni sull’altro, per avere ragione. Sui social tale effetto si accentua: il leone da tastiera che è dentro di noi si fa sentire perché scrivere guardando uno schermo può far dimenticare che dall’altro lato c’è un’altra persona che legge. Si crea quindi un effetto psicologico simile a quello dell’anonimato che, grazie alla distanza, accentua le reazioni e allenta i freni inibitori.
È un modo di procedere che compromette la comprensione. In quei momenti invece, presentarsi per quello che si è può dare fiato alla discussione. Al leone che crediamo di essere va opposto il gattino che siamo in realtà. Facendo così non si perde autorevolezza nel confronto ma si guadagna (tra l’altro i gattini sul web sono uno dei contenuti che vanno per la maggiore).
Non percepirsi infallibili, non pensare di avere sempre e solo argomenti incontrovertibili, riconoscere quando l’altro è più convincente (per lo meno farlo dentro di sé), rende più autorevoli e apprezzabili.
Il clima da conversazione costante dei social ci richiama ad avere la mentalità di chi sa “pubblicare in bozza”: parlare e proporre temi ammettendo che ci sarà sempre qualcuno che ne sa di più e che, con le sue idee, potrà contribuire ad arricchire il pensiero.
Si tratta di:
-muoversi anzitutto dal proprio perimetro, attenersi a ciò che riteniamo vero perché vagliato personalmente;
-parlare solo se abbiamo davvero qualcosa da aggiungere a ciò che stanno dicendo gli altri;
-separare ciò che viene dalle nostre personali impressioni da ciò che è nei dati, nei fatti e negli argomenti fondati;
-non ripetere cose di altri non messe alla prova fino in fondo.
È uno sforzo di umiltà: tracciare il proprio perimetro realistico di competenza per esporre le proprie possibilità in modo sincero, esplicitando i propri pensieri, le proprie aspirazioni, i propri bisogni, senza trucchi. Sostanzialmente significa esporsi all’altro.
Chi aggredisce è perché di solito non vuole esporsi, non accetta i suoi limiti e quindi, per difendersi, fa quello che farebbe qualsiasi essere vivente di fronte al pericolo: si nasconde. Ci sono molti modi di nascondersi in una conversazione:
-dietro ai principi: ad esempio quando usiamo espressioni come “su questo tema non si può discutere perché è sbagliato in sé”, “la verità va difesa”, ecc.;
-dietro a un ruolo: “io insegno questa materia da 10 anni”, “io sono un professionista”, “io sono riconosciuto come…”, ecc.;
-dietro a un’autorità riconosciuta: “lo dice la Costituzione”, “lo dice il Vangelo”, “lo dice l’Europa”;
-dietro alle proprie reazioni emotive: “non voglio discutere con te perché quello che dici mi offende”.
Tutte strategie per frapporre qualcosa tra noi e l’altro che ci metta in una posizione più sicura che, non riguardando il merito del discorso, solleva dal doversi confrontare pienamente. Lo sforzo di essere se stessi, invece, fa rimanere sul tema circoscrivendo il proprio peso e ammettendo i propri limiti. Tra l’altro, ciò mette nelle condizioni di accettare i limiti dell’interlocutore nell’interazione.
Se uno è disposto a riconoscere la propria aggressività, l’amor proprio, la tendenza a prevaricare, la troverà accettabile e non così strana quando gli si presenterà da parte dell’altro. Ciò favorirà un clima più sereno nel disinnescare eventuali ostilità perché ci farà considerare la vulnerabilità da cui tutti siamo affetti al momento di confrontarci.
Questo sforzo di circoscrivere, ridurre e personalizzare è alla portata di tutti: chiunque può parlare per lo meno dal suo punto di vista. Chiunque, per il solo fatto di aver vissuto qualcosa o averlo sperimentato, ha diritto a prendere parola in modo rilevante sul tema.
Gran parte dei conflitti infatti non nasce tra le persone ma tra le differenze dei mondi da cui provengono le persone: atei discutono con religiosi, progressisti con conservatori, complottisti con scienziati rigorosi. Personalizzare è cercare di mantenere il confronto tra la persona che sta parlando e quella che risponde, senza far interferire in modo sproporzionato gli elementi di categoria, per rimanere il più possibile su ciò che si ha in comune (essere umani), al di là delle appartenenze che dividono.
La retorica sottolinea che l’autorevolezza di un discorso dipende soprattutto dal contenuto e dalle argomentazioni che si devono reggere in sé, il che è vero, ma va considerato che la cultura mediatica prima televisiva e poi digitale, nella dinamica “conversazionale” dei social network, ha di fatto spostato il peso sulla dimensione personale degli interlocutori. Esplicitare ciò che si pensa in prima persona e ciò che proviene dalla propria singolare esperienza è un punto di forza che facilita l’ascolto. È un segnale della propria buona volontà a procedere confrontandosi ad armi pari, dove ciascuno porta ciò che è suo, senza sentirsi in posizione preminente.
Quando ci si confronta, perfino quando si parla di questioni tecniche e specifiche, ciascuno è sempre disposto a entrare in relazione con l’uomo che c’è dietro le argomentazioni, i ruoli, le posizioni. […]
In aggiunta ci vuole un ingrediente di fondo che non può mai mancare quando ci si confronta: il senso comune. Il lavoro di rielaborazione dovrà il più possibile fare riferimento solo a ciò che può essere riconosciuto universalmente.
Tutte le fonti autorevoli classiche (il diritto, la letteratura scientifica in generale, le tradizioni, il catechismo, i libri sacri e religiosi) non sono spendibili di per sé, giacché la loro autorevolezza presuppone un accordo previo da parte dell’interlocutore. Per alcuni sono completamente discutibili, per altri possono essere persino motivo di opposizione pregiudiziale per il solo fatto di essere nominate: ad esempio per un non credente il catechismo, per un anarchico la costituzione, per un complottista la scienza, e così via.
Lo sforzo che occorre fare è allora quello di usare sempre argomenti razionali e di uso quotidiano per presentare le proprie posizioni. Non si tratta di congedare la cultura, la scienza o altre discipline assodate, ma di accettare di ricominciare da capo per convincere chi parte da punti di vista di rifiuto.
Occorre accettare, in ogni momento, di farsi carico dell’onere della prova davanti agli altri e non rifiutare nessuna delle obiezioni, anche quando si parla di cose assodate: ogni rilievo espresso in termini razionali è degno di risposta, ogni affermazione ha bisogno di essere comprovata da fatti, dati e ragionamenti. Quando ci si confronta pubblicamente, nessuno può sentirsi in una posizione di rendita dovuta al suo ruolo, alla sua popolarità o alla sua condizione sociale. La presenza di opposizione è il motore del discorso: deve far articolare più a fondo il ragionamento.
[…] Il criterio del senso comune presuppone insomma che si sia disponibili a riaprire le questioni ogni volta che sia necessario. Se ci sono nuovi elementi, vanno considerati nel rivedere il ragionamento. Se c’è bisogno di ripetere perché qualcuno è arrivato dopo o non ha seguito tutto il percorso, va fatto. Se un’incomprensione ha viziato la procedura, è necessario fare qualche passo indietro per ritornare ad affrontarla. Il criterio del senso comune si riallaccia poi anche alla presenza della maggioranza silenziosa di cui abbiamo parlato: se si è sui social o in un luogo aperto, se si è in una conferenza e si parla a più persone, così come quando si è intervistati dai media, occorre tenere presente quelli che ascoltano anche se non direttamente coinvolti. È uno sforzo simile a quello che fa chiunque scrive un testo: deve potersi immaginare chi leggerà e le sue reazioni per potersi esprimere al meglio. Questa moltitudine, che immette inevitabilmente un elemento di pluralità in ogni confronto, ha bisogno di essere tenuta in considerazione: lo sforzo per esprimere idee e argomenti semplici, che non danno nulla per scontato e comprensibili alle persone comuni, va in direzione di farsi capire dai molti che ascoltano e leggono in silenzio.
Infine occorre ripetere, ribadire, argomentare da capo, come fosse sempre la prima volta. Tutte dinamiche che sono ormai vita quotidiana sul web e sui social, giacché non tutti si prendono la briga di leggere i commenti di una discussione o lo storico di post precedenti prima di intervenire su un punto…
(continua in libreria…)



LE FAKE NEWS NON SONO LA MALATTIA DEL XXI SECOLO

Troppo spesso si confondono malattia segni e sintomi: vale per la medicina, sempre più orientata alla soppressione veloce e temporanea del sintomo tramite farmaci che hanno come scopo non guarire il malato, ma agire da palliativo, cronicizzando il problema e aumentando gli utili di chi il farmaco lo produce, come anche probabilmente per la comunicazione.
Analogamente, nel suo straordinario articolo dal titolo “Our problem isn’t ‘fake news. Our problems are trust and manipulation”, pubblicato su medium.com, la piattaforma creata dal co-fondatore di Twitter, Evan Williams, il giornalista, blogger e docente universitario americano Jeff Jarvis denuncia in modo brillante come le “fake news” non siano una vera e propria “malattia” da trattare di per se – come molti politici italiani si ostinano stupidamente e ingenuamente a fare – ma siano sono solo il “sintomo” di mali sociali ben peggiori.
Jarvis sottolinea come le nostre istituzioni, indipendentemente dal fatto che siano affidabili o no, siano esposte alla manipolazione di elementi esterni, troll attivi per puro divertimento, disinformatori mossi dalla sete di denaro, ideologi motivati dall’orientamento politico, membri di servizi di propaganda stranieri o terroristi: tutte categorie di persone – ben elencate nel rapporto di Alice Marwick e Rebecca Lewis dal titolo “Media Manipulation and Disinformation Online” – che agiscono per motivazioni anche profondamente diverse ma con metodi simili.
Molti cittadini, finiscono per essere “vittima” di queste azioni sistematiche di disinformazione, né più né meno che i membri delle istituzioni, e anzi tendono poi ad “orientare” i politici nelle loro scelte, grazie alla “pressione dal basso” che i primi esercitano sui secondi, meccanismo che alla base dell’estrema “fragilità” del sistema in cui viviamo.
Per discutere di manipolazione, è importante esaminare ad esempio gli strumenti e i metodi russi. Per questo, Jarvis raccomanda la lettura di due rapporti interessanti: uno della NATO Defense College Foundation, dal titolo “Handbook of Russian Information Warfare”, di Keir Giles, e un altro della RAND Corporation, dal titolo “The Russian ‘Firehose of Falsehood’ Propaganda Model”, di Christopher Paul e Miriam Matthews.
Russia e Stati Uniti sono due scenari dove si stanno ripetendo per certi versi gli stessi copioni. La NATO sottolinea come quanto stia accadendo non sia una guerra informatica, quanto piuttosto una “guerra di informazione”: le armi russe funzionano accuratamente non solo on-line ma anche nei media mainstream, consentendo di “rubare, piantare, interdire, manipolare, distorcere o distruggere l’informazione”. Queste tattiche sono quindi diventate un’arma alla pari di un missile o di una bomba, “ma permettono di usare una quantità molto piccola di energia per avviare, monitorare e gestire processi i cui parametri in termini di ‘effetti’ sono di molti ordini di grandezza superiori”.
La Russia ha utilizzato come arma un nuovo standard di “reazione a catena” sui social media. A quale scopo? “L’obiettivo principale del conflitto informatico-psicologico è il cambiamento di regime”, riporta un altro documento analizzato da Jarvis, “influenzando la coscienza di massa della popolazione, dirigendo le persone in modo che la popolazione del paese vittima sia indotta a sostenere l’aggressore, agendo contro i propri interessi”. Le nostre istituzioni inconsciamente favoriscono tutto ciò: “La Russia cerca di influenzare il processo decisionale degli altri Paesi fornendo informazioni inquinate”, spiega la NATO, “sfruttando il fatto che i rappresentanti eletti in occidente sono assai sensibili agli stessi flussi informativi dei loro elettori”.
Quando stanno al gioco, il giornalismo, internet e la libertà di parola che tanto amiamo in occidente – afferma Jarvis richiamando il contenuto dei due rapporti sopra citati – sono usati contro di noi. “Anche una copertura mediatica seria può involontariamente dare autorevolezza a false informazioni”. In questo risiede il pericolo più insidioso: fare il loro gioco dandogli attenzione e amplificando quella informazione scadente. Il loro obiettivo è la polarizzazione all’interno di una nazione e tra i suoi alleati: le loro tattiche, come sostiene Ben Nimmo, ex addetto stampa della NATO, mirano a “respingere, distrarre, sconvolgere, e possono essere messe in campo sfruttando le vulnerabilità della società presa come obiettivo, in particolare la libertà di espressione e i principi democratici”. Per Nimmo, queste persone utilizzano “eserciti costituiti da flussi informativi di massa per gestire un dialogo diretto con la gente su Internet”, usando armi “più pericolose di quelle nucleari”. Come sostengono gli autori russi di un documento citato dal report NATO, “oggi, i mass media possono provocare caos e confusione nei governi e nella gestione militare di qualsiasi paese, infondere idee di violenza, tradimento e immoralità e scoraggiare l’opinione pubblica”. Il documento russo sulla guerra informatica e psicologica citato dalla NATO elenca anche le tattiche chiave della Russia per disinformare:

  • menzogne esplicite ai fini della disinformazione;
  • nascondere informazioni significativamente importanti;
  • seppellire informazioni preziose in una massa di “scorie informative”;
  • sostituzione terminologica, ovvero utilizzo di concetti e termini il cui significato non è chiaro o ha subito un cambiamento qualitativo, che rende più difficile dare forma a una rappresentazione reale degli eventi;
  • fornire informazioni negative, più facilmente accettate dal pubblico rispetto a quelle positive;
  • uso di troll e bot per creare una percezione distorta da parte dell’opinione pubblica che sia poi ripresa dai mass-media;
  • molestie e intimidazioni ai giornalisti, anche tramite troll e bot, che sfruttano il dominio del volume, perchè quando il volume dell’informazione è basso i destinatari tendono a preferire gli esperti, ma quando il volume delle informazioni è alto, i destinatari tendono a preferire l’informazione da altre fonti;
  • velocità, perché la “propaganda” ha la capacità di arrivare per prima, in quanto ci vuole meno tempo a costruire fatti di quello che è necessario a verificarli, e la prima impressione generata detta “l’agenda”;
  • pioggia informativa (questa definizione è mia, ma rende l’idea), ovvero molte falsità – non necessariamente coerenti – che sono progettate in rapida successione per minare la fiducia nell’esistenza di una verità oggettiva.

Cosa facciamo, nel mondo del giornalismo, per rispondere a tutto questo…? Fact-checking e debunking; ovvero copriamo la notizia, che è proprio quello che vogliono che noi facciamo, dando loro attenzione.
L’ex ambasciatore statunitense in Ucraina, Geoffrey Pyatt, riferendosi alla propaganda Russa, ha pronunciato una frase illuminante: “Potremmo trascorrere ogni ora di ogni giorno cercando di controbattere ogni bugia, al punto da non occuparci di altro, e questo è esattamente ciò che vuole il Cremlino”. Ma questo vale anche per la situazione in USA. Nel rapporto pubblicato da Data & Society, Marwick e Lewis hanno riportato ricerche sulla diffusione dei messaggi populisti pro-Trump, che si diffondono attraverso meme condivisi su blog e Facebook, attraverso i bot di Twitter, i canali YouTube, e qualche volta anche attraverso l’account personale Twitter di Trump, finché non vengono poi diffusi da una stampa faziosa populista o di destra che abbraccia le teorie della cospirazione – un misto di tecno-libertari, nazionalisti bianchi, troll, anti-femministi, attivisti anti-immigrazione e ragazzini annoiati – e quindi “da corpo” alle fake news, influenzando così l’agenda dei media mainstream.
E in questo c’è sintetizzata la morsa paradossale in cui ci ritroviamo: ogni volta che ci rivolgiamo a loro, li controlliamo e li attacchiamo, e li alimentiamo con l’attenzione. L’ex candidata dalla Presidenza USA Hillary Clinton ha imparato, nel modo peggiore, che “controbattendo le idee estremiste, ha offerto loro nuova visibilità e legittimità. Inavvertitamente ha cementato la loro importanza.” Marwick e Lewis sostengono che “coinvolgendo i media nel raccontare determinate storie, anche attraverso il debunking, i manipolatori dei media sono in grado di influenzare l’agenda pubblica”. E la situazione può soltanto peggiorare.
Jarvis prende posizione anche contro l’obiezione dei giornalisti, che si ritengono “obbligati” a raccontare quello di cui la gente sta discutendo; e se non fossero le persone a parlare, ma i bot? Se l’unico motivo per cui la gente finisce per parlare di un argomento è una sorgente inquinata a causa della manipolazione di alcuni fanatici su piattaforme di pubblicazione anonime come 4chan, che arriva poi a Infowars, Breitbart, Fox, e poi fino al cittadino…? Peraltro, ne parlavo diffusamente in alcuni capitoli di un mio saggio, “Il sex-appeal dei Corpi Digitali”, scritto nel 2015 ed edito da Franco Angeli. Jarvis contesta inoltre anche quei giornalisti che affermano che tutto ciò fa dei manipolatori “una storia da coprire” e da raccontare al pubblico; certo, è vero, ma solo in una certa misura, perchè il giornalismo dovrebbe occuparsi dei metodi dei manipolatori, non dei loro specifici messaggi.
Secondo Jarvis, che riporta nel suo lungo articolo anche i contenuti di un recente dibattito che ha moderato su questi argomenti al World Economic Forum di San Francisco, se si prosegue su questa strada alcune previsioni per il futuro potrebbero suonare come spaventose: i prossimi obiettivi saranno infatti “i pilastri della società” – scienziati, esperti, giudici, etc. – così da far diventare le comunità delle “tribù di opinioni”, dove chi non è d’accordo con l’ortodossia sarà automaticamente etichettato come “imbonitore”. La realtà aumentata renderà poi più facile falsificare non solo testi e foto, ma anche audio e video, e quindi identità. E, infine, ed è ciò che più teme Jarvis, una nuova rivoluzione luddista contro la tecnologia ci dividerà in “tribù connesse e tribù disconnesse”…
Ci sono delle prime reazioni, finalmente: alcuni contrastano le falsità con il fact-checking; altri preferiscono accrescere il pensiero critico del pubblico con la cosiddetta “alfabetizzazione delle notizie”; altri ancora compongono liste e indicatori di “vizi” tipici del dominio dell’informazione; Google sta cercando di garantire affidabilità, autorità e qualità delle fonti con una sua classificazione; Facebook sta eliminando parte degli account falsi utilizzati per la conversazione pubblica, anche se così facendo – aggiungo io – rischia di pregiudicare il proprio modello di business basato sulla crescita quadraticamente proporzionale di una platea di “ascoltatori”, quindi dubito lo farà mai convintamente. Vi sono in effetti molti sforzi di classificazione dei siti in base alla qualità, ma tutto ciò – ancorchè importante – non servirà a nulla se non ci decideremo ad andare molto oltre, rispetto a dove ci troviamo oggi, mettendo mano alla vera malattia: l’assenza o carenza di fiducia.
È necessario imparare a “difenderci”, quindi? Certamente, conferma Jarvis. Ecco alcuni spunti utili, e cose urgenti e pratiche da fare.

  1. I media devono prendere coscienza e riconoscere come e quando sono oggetti di manipolazione.
  2. Condividere informazioni. Le principali redazioni dovrebbero avere personale che si occupi di riconoscere la manipolazione prima che le notizie vengano coperte in modo poco veritiero. Le persone preposte a questo compito dovrebbero comunicare con i loro colleghi di altre redazioni, mentre attualmente i media più importanti gestiscono gli attacchi di disinformazione senza condividere però tra di loro le informazioni. Dovremmo invece sviluppare reti di sicurezza all’interno dei mass-media in modo da condividere le informazioni, le valutazioni delle minacce, gli avvisi, le migliori pratiche e le lezioni che di volta impariamo dalla gestione di questi delicati scenari.
  3. Ignorare i disinformatori. Dobbiamo privarli di attenzione, senza minimamente dare peso al contenuto dei loro messaggi, usando i loro stessi metodi, pur consapevoli che i manipolatori vinceranno sempre la battaglia della “velocità”.
  4. Affamare i manipolatori. Dobbiamo privarli del sostegno economico loro garantito attraverso la pubblicità, che attualmente viene canalizzata automaticamente sulle pagine più visitate al di la della veridicità delle notizie su di esse contente. Per fare ciò, dovremo aiutare i gruppi pubblicitari, le aziende e le agenzie a evitare che diano loro i propri soldi, scegliendo invece di sostenere la qualità nei mass-media. Dobbiamo inoltre mettere in difficoltà gli aggregatori di notizie, i motori di raccomandazione, etc. (Jervis fa anche nomi: Revcontent, Adblade, News Max, Taboola e Outbrain…) che sostengono e guadagnano dalle fake news, come anche quegli editori che ridistribuiscono a piene mani le “scorie” di quelle piattaforme. Questo include la necessità di batterci per inserire il fattore della “qualità” direttamente negli algoritmi digitali, aiutando così gli utenti a selezionare meglio le fonti d’informazione, e questo mi richiama alla mente il bellissimo progetto Digidig.it lanciato da Toni Muzi Falconi proprio sulla trasparenza e sul controllo degli algoritmi.
  5. La battaglia non si vince sperando di rispondere nel merito ai manipolatori, ed è profondamente sbagliato usare il proprio flusso di informazioni e la propria autorevolezza, per spegnere il fuoco della falsità: si deve “puntare l’idrante” verso qualunque altra cosa e cerca di spingere quel pubblico in direzioni più produttive, aumentando il flusso di informazioni convincenti, dettando l’agenda del pubblico attraverso giornalismo e contenuti affidabili.
  6. Giocare a carte scoperte. Bisogna avvertire velocemente il pubblico che qualcuno sta cercando di manipolarlo. Questo include il cambiare direzione del flusso informativo: non sono i cittadini a dover venire incontro ai mass-media per essere informati, ma i mass-media a dover portare il giornalismo al pubblico, usando le tecniche dei manipolatori per diffondere notizie vere, convincendo la gente a preferire fatti e ragionevolezza, ricostruendo la fiducia nei confronti delle fonti di “buona informazione”.

Soprattutto però è necessario prendere coscienza che i media “tradizionali” non godono di fiducia e di buona reputazione – per molte ragioni che andrebbero discusse e affrontate – e proprio questo mi pare il messaggio centrale di Jarvis: di sicuro, questa importantissima, epocale sfida, verrà vinta solo se l’ecosistema mediatico nel suo complesso diventerà più equo, inclusivo, riflessivo, trasparente e responsabile nei confronti dei cittadini.
In Italia, e altrove, si continua invece a dibattere appassionatamente – quanto inutilmente – del dito, mentre la luna si allontana sempre di più, a gran velocità.