1

Torinostratosferica: sotto la Mole il festival sulle migliori pratiche urbane dal mondo

Seconda edizione per la rassegna che porterà sotto la Mole i pensatori più visionari da New York, Detroit, Copenaghen per un dibattito sulla cultura urbana. Ne abbiamo parlato col suo fondatore Luca Ballarini


Torino sarà al centro del dibattito sulla cultura urbana grazie al Festival Torinostratosferica Utopian Hours, che si terrà in città fino al 21 ottobre 2018, negli spazi ex industriali recuperati di Q35, già sede di The Nesxt. Giunta alla seconda edizione, la rassegna farà convergere sotto la Mole i pensatori più visionari da New York, Boston, Helsinki, Berlino, Parigi, Londra, Oslo, Rotterdam, Lisbona e Praga  per discutere in modo poco convenzionale di città e processi di rigenerazione urbana. Su tutti, Aaron Foley, il primo chief storyteller ufficiale di Detroit (e prima figura di questo tipo negli Stati Uniti e nel mondo); l’esportatore del “modello Copenaghen” di mobilità lenta e ciclabile Mikael Colville-Andersen(volto della serie tv The Life-Sized City in onda su laEffe come Racconti dalle città del futuro); e Jeff Stein,il direttore del progetto Arcosanti, la città-laboratorio fondata negli anni ’70 in Arizona dall’architetto torinese Paolo Soleri. L’iniziativa, supportata da importanti istituzioni come la fondazione di origine bancaria Compagnia di San Paolo ed Edison, è promossa dall’omonima associazione no profit Torinostratosferica, fondata da Luca Ballarinidello studio torinese di progettazione e comunicazione Bellissimo (sua anche l’idea di portare Open Housea Torino), al quale abbiamo posto qualche domanda.
Come nasce Torinostratosferica?
Torinostratosferica nasce come logo e come progetto alternativo a Torino Strategica, a cui avevo collaborato come grafico e copywriter insieme al mio studio, Bellissimo. Ha il vantaggio di essere un’associazione privata, no profit e interdisciplinare. Oggi non basta creare un brand della città rivolgendosi alle élite: occorrono nuove narrazioni soprattutto a partire dalle immagini e da un linguaggio diretto e internazionale che, a differenza del passato, oggi attraverso social come Instagram e Facebook possono essere condivisi molto più facilmente di elaborati concetti strategici.
Di cosa si tratta in concreto?
È un esperimento collettivo e innovativo di city imaging e di city branding nato nel 2014, che parte dal concetto di città come immagine mentale (The Image of The Citydi Kevin Lynche, soprattutto, la frase: “Cities are mental weapons” di Julian Beinart, suo successore al MIT nel corso di Theory of City Form). È un progetto che vuole esprimere una visione che guardi avanti e punti in alto, con ambizione e coraggio. In modo sperimentale, psichedelico, senza limiti, senza committenti, preconcetti e senza calcoli di fattibilità.
Altro?
È un modo innovativo per riflettere sulla città (come arma mentale) e trovare modi inediti e distintivi di raccontarla all’esterno, diventandone entusiasti ambasciatori. In sintesi, Torinostratosferica è un’immagine potente, una grande utopia collettiva di cui c’è urgente bisogno.
Continua in qualche modo il tuo impegno nei confronti della città. Dopo l’architettura di Open House Torino, ora questo festival più orientato all’urbanistica e all’elaborazione di un piano strategico per la città…
Sì, attraverso il lavoro volontario e no profit svolto da Torinostratosferica, come anche con il progetto di Open House Torino, ho deciso di dare un contributo diretto e concreto alla mia città, e di tornare a occuparmi di architettura e di sviluppo urbano a livello internazionale.
Perché? Qual è la tua visione?
La città è la mia più grande passione, insieme all’architettura e alla grafica. Prima di fondare il magazine Label e lo studio Bellissimo nel 1997-98, ero convinto che avrei fatto il sociologo urbano o l’urbanista. Poi le cose sono andate diversamente. Ma oggi sento un forte richiamo a lavorare su questi temi, apportando tutto quanto ho imparato in questi 20 anni di comunicazione, branding ed event design.




Ma chi si può permettere davvero di pagare il conto del ristorante in follower di Instagram?

Ma chi si può permettere davvero di pagare il conto del ristorante in follower di Instagram?

A Milano apre il primo ristorante dove si paga in base al numero dei propri follower di Instagram, ma in sintesi, nulla di tutto ciò ci riguarda davvero


Lunedì 15 ottobre, in via Lazzaro Papi a Milano, in zona Porta Romana, ha aperto il ristorante che molti media hanno annunciato essere il primo al mondo in cui sarà possibile pagare il conto in follower. Si tratta del sesto locale della catena This is not a sushi bar, nata nel 2007, prima realtà a portare il sushi delivery nel capoluogo meneghino.
La trovata, c’è da ammetterlo, ha centrato nel segno, almeno da un punto di vista comunicativo, e viene da chiedersi come mai nessuno ci avesse pensato prima. L’obiettivo non è tanto riempire il ristorante con la folla della sagra della porchetta di Ariccia, ma trascinarvi influencer e personaggi dal discreto successo social, motivarli a condividere una foto sul proprio profilo Instagram e offrire loro uno o più piatti in base all’entità della fan base che li segue.
Il meccanismo è presto spiegato. Si ordina la prima portata, si scatta una foto al piatto o al locale, si pubblica un post su Instagram (badate bene, niente Instagram stories, perché ai proprietari “piacciono le cose che durano nel tempo”) taggando il profilo ufficiale della catena e utilizzando un apposito hashtag, e poi ci si presenta in cassa sventolando il contenuto in attesa di riscontro. A questo punto, scatta un “giochino” da fare invidia ai quiz a premi del Biscione.
Per chi ha un seguito dai mille ai 5mila follower, si ottiene un piatto gratuito, da 5mila a 10mila due, da 10mila a 50mila quattro, che diventano otto se il cliente ha tra i 50 e i 100mila fan, mentre oltre i 100mila viene offerta l’intera cena. Insomma, se siete Chiara Ferragni rilevate direttamente l’immobile con pronta consegna chiavi in mano.
Per una realtà che vive all’80% di delivery a domicilio, il pagamento in follower non è tanto un pretesto per trascinare clienti in un locale che conta appena una dozzina di coperti, ma una trovata pubblicitaria e commerciale. Le prime settimane dopo l’apertura ci possiamo facilmente immaginare uno stuolo di morti di like pronti a mostrare chi ce l’ha più lungo, il seguito: gli influencer dentro a scroccare una cena, i follower, potenziali fruitori, stuzzicati dalle condivisioni social spronati a consumare il sushi comodamente seduti sul divano di casa. O almeno è così che devono essersela immaginata i proprietari, condannandosi, con una punta di masochismo, a lavorare in un un ambiente di influencer o pseudo tali, con tutte le idiosincrasie che li contraddistinguono.
Al di là di scenari apocalittici alla Black Mirror immotivatamente paventati da qualcuno, e lasciando da parte le implicazioni etico-morali che un’iniziativa simile, volente o nolente, porta con sé, c’è da chiedersi quanti e quali saranno gli influencer o pseudo tali che beneficeranno di un meccanismo simile. Per farvi un’idea, basta dare un’occhiata alle persone che seguite dai vostri profili personali.
Tralasciando nomi monstre alla Frank Matano – gente con milioni di follower che gioca in un altro campionato social – sono appena una manciata gli amici che riuscirebbero a portarsi al tavolo un Uramaki Santa Monica con Philadelphia, avocado e sesamo gratis. Insomma, a cenare a scrocco saranno giusto gli ex tronisti di Uomini&Donne e pochi altri.
Anche perché c’è da chiedersi quale interesse possa avere chi, costruita la propria reputazione social, superati i 100mila follower, si presterà a quella che agli occhi di molti potrebbe apparire come un escamotage desolanteper non pagare la cena. Stiamo sì parlando di figure in grado di monetizzare l’attenzione del proprio seguito, ma seguendo crismi e netiquette forse lontani da dinamiche di questo tipo. Non si tratta di una caduca Instagram story pronta a sparire allo scoccare delle 24 ore, ma di un post con il quale gli influencer guadagnano, anche grazie alla pubblicità di piccole e medie realtà, fino a centinaia di euro. Ben più di un pranzo infrasettimanale. Insomma, c’è il rischio che possa dimostrarsi tutto molto fumo e poco sushi. Chi vivrà, vedrà, fotograferà e mangerà. Gratis.




In Danimarca lavorare fino a tardi fa una brutta impressione su capi e colleghi

I danesi si confermano di nuovo al primo posto della classifica dei popoli più felici. Ma perché? Cos’ha la Danimarca che noi non abbiamo?

Una cosa molto importante, per la quale ogni tanto guardiamo a nord con invidia, è la Work-Life-Balance. Ufficialmente l’orario di lavoro settimanale è di 37 ore, ma una nuova indagine dell’OCSE mostra che il danese medio lavora appena 33 ore circa alla settimana.

Si stacca alle quattro

he corrispondono più o meno alla tipica giornata lavorativa danese dalle otto del mattino fino alle quattro del pomeriggio; e al venerdì si torna a casa ancora prima.
Quasi nessuno fa gli straordinari, che in Danimarca praticamente non esistono. A nessuno verrebbe in mente di restare sul posto di lavoro più a lungo del necessario solo per fare bella figura. Se si andasse negli uffici al pomeriggio tardi, li si troverebbe deserti: ad eccezione del personale in portineria e dell’AD tutti si sono lasciati il lavoro alle spalle.
I datori di lavoro si fidano dei dipendenti. Finché eseguono bene i propri incarichi e svolgono il proprio lavoro in maniera efficiente, possono anche andare a casa in orario.

Anzi, restare più a lungo dà una cattiva impressione

Restare più a lungo solo per fare buona impressione ha un effetto abbastanza negativo e mette in discussione l’efficienza come anche la capacità di gestire il proprio tempo da parte dei dipendenti. Dall’esterno ci si potrebbe chiedere come ci riescano i danesi.
Continuano semplicemente a lavorare da casa? Altrimenti, come si spiega il fato che la Danimarca sia comunque uno degli stati più produttivi dell’UE?
In realtà, praticamente nessun danese continua a lavorare dopo la chiusura. Una volta spento il portatile, resta anche lui spento. Piuttosto, i danesi godono anche di una vita al di là del lavoro.

Considerazione per gli impegni privati e per la famiglia

Dopo il lavoro, si dedicano ai propri hobby, fanno sport o escursioni nella natura scandinava. Ad esempio, è molto diffuso lo stand-up paddle (una variante del surf in cui si sta in piedi sulla tavola e si usa una pagaia per muoversi, ndr). E poi cucinano o trascorrono il tempo con la loro famiglia e i loro amici.
Alcune attività sono persino incluse nel calendario degli impegni lavorativi e vengono rispettate dai colleghi — se il collega deve andare a prendere i figli alle 16, a quell’ora non verrà più fissato alcuna  riunione.
Il giorno dopo, sono tutti di nuovo riposati e rilassati, e la stessa riunione, fatta da persone riposate, sarà probabilmente più veloce. E si sarà più produttivi; infatti, come ha scoperto un’indagine, le persone felici sono più efficienti del 12%.




5 step per capire se si sta leggendo una fake news su Facebook

Sui social network è facile imbattersi nelle fake news. Ecco alcuni consigli semplici e immediati per provare a smascherare una bufala


Sentiamo parlare di fake news quotidianamente e ancora più spesso le ritroviamo nel nostro feed di Facebook o condivise con un tweet. Ormai hanno invaso i social network e la loro diffusione sta andando fuori controllo. Come può difendersi un utente di internet? Basta poco, in fondo. Bisogna imparare a condividere la notizie consapevolmente e mettere quindi in atto quello che in gergo si chiama fact checking, ovvero il lavoro di verifica che ogni buon giornalista deve fare per accertarsi che gli avvenimenti citati o i dati usati in un determinato articolo siano veri.
Fare un controllo prima di una condivisione non è affatto complicato. Ecco una guida in 5 passaggi.

1. Appena leggi una notizia che ti sembra clamorosa confrontala. Il modo più immediato è controllare su Google o su altre fonti online se è stata ripresa e se sia veriteria. In alcuni casi vedrai che alcuni siti che si occupano di smascherare bufale ne hanno già parlato e l’hanno già smentita.
2. Se se nessuno ha smentito un fatto, non significa comunque che sia vero.
Guardate in modo scrupoloso il post per capire se c’è qualche anomalia. Se si tratta di un post con un link a un sito, controllate la testata: esistono infatti molti siti di fake news che hanno nomi molto somiglianti a quelli di testate giornalistiche note. Sono creati ad hoc per ingannare la gente che legge distrattamente.
3. Arrivati al punto 3 è ora di metterci un po’ più di tempo e di impegno. Capita spesso infatti di leggere, soprattutto su Facebook, solo notizie con una breve descrizione sotto una fotografia, condivise direttamente da una pagina del social network e senza link esterni.
In questi casi può essere d’aiuto Google con la sua ricerca per immagini.Salvate l’immagine dal contenuto sospetto, andate sul motore di ricerca, cliccate l’icona della macchina fotografica e poi su “carica un’immagine”, quindi inserite la fotografia. Quasi certamente vi apparirà l’immagine con la reale descrizione.
4. Attenzione alla data della notizia. Spesso a una notizia vera vengono affiancate immagini altrettanto vere ma che non si riferiscono a una news. In questo caso potete sempre provare a inserire l’immagine su Google come spiegato nel passaggio precedente o se preferite potete utilizzare Tine Eye,un sito che permette non solo di scoprire di che immagine si tratta ma anche quando e su quale sito è stata utilizzata online.
5. Se avete controllato tutto quanto sopra allora provate a verificare se davvero la fonte è attendibile e cliccate sul link della notizia, nel caso si tratti di un page post link, o sulla pagina che ha condiviso il contenuto, nel caso si tratti di un testo con immagine. Nel primo caso guardate bene in che tipologia di sito vi trovate, cercate se ci sono i credit del sito web, se si tratta di una testata giornalistica e quali sono le altre notizie che sono condivise. Se sono tutte sensazionalistiche e non vedete credit in chiaro potreste essere di fronte a un  sito di bufale. Lo stesso vale per la pagina Facebook.
Ecco cosa fare per evitare il diffondersi di bufale e notizie false, che alimentano sciacallaggi mediatici e, ancora peggio, fanno guadagnare chi crea notizie false a tavolino.
Come avrete notato, vi consigliamo di cliccare sulla notizia soltanto arrivati al quinto step. Perché? Per evitare di far guadagnare chi lucra sulle fake news. Questi siti guadagnano grazie al grande numero di visualizzazioni che riescono a ottenere. In media il guadagno che possono ottenere è di 2 euro ogni mille visualizzazioni e, grazie anche ad una condivisione spensierata, una bufala può essere letta anche da 500.000 persone, portando un guadagno di 1.000/1.500 € a chi le ha pubblicate.
Ogni volta che condividiamo una notizia sulla nostra bacheca di Facebooko su Twitter, contribuiamo da una parte alla diffusione di informazione sbagliata e dall’altra ad aumentare i guadagni di chi questa disinformazione la cavalca. Se vi è capitato erroneamente di condividere una fake news rimuovete il contenuto così da impedire che altre persone leggendola facciano come voi e clicchino “share” alla leggera, potrà sembrare un’azione da poco ma la grande visibilità che queste notizie ricevono è formata proprio da tanti piccoli share inconsapevoli.



Gli algoritmi e i “mostri” della tecnologia

Gli algoritmi e i “mostri” della tecnologia

Ho visto lo sventurato, il miserabile mostro che avevo creato (…) demoniaco cadavere a cui avevo così miseramente dato la vita (Mary Wollstonecraft Godwin)


Nel 2007 l’allora sindaco di Washington, Adrian Fenty, era determinato a risolvere un problema: gli studenti di molte scuole non raggiungevano buoni risultati. Si partì dall’idea che la colpa doveva essere degli insegnanti, che non facevano bene il loro lavoro. Per cui si affidò il compito di valutare gli insegnanti ad un software denominato IMPACT.
L’algoritmo prendeva in considerazione una serie di elementi, tra i quali dei test da somministrare agli studenti e da ripetere nel tempo. Il modello, detto a valore aggiunto (value added model) è fondamentalmente un modello statistico che cerca di distinguere l’impatto causale di un insegnante sull’apprendimento dei suoi studenti da altri elementi, quali abilità degli studenti e fattori extrascolastici.

Gli algoritmi si espandono

I modelli statistici per la valutazione degli insegnanti negli Usa risalgono agli anni ‘70. Man mano che la potenza di calcolo degli elaboratori aumentava, questi sistemi automatizzati si sono diffusi e perfezionati. Ma il primo settore nel quale sono stati applicati gli algoritmi è probabilmente quello finanziario. I sistemi automatizzati hanno rivoluzionato l’intero settore, finendo per sostituire gli esseri umani nelle “decisioni” su vendite e acquisti. Poi, nel 2008, il crollo della borsa fece comprendere che non solo gli algoritmi erano sempre più connessi al mondo degli uomini, ma che potevano anche alimentare ed amplificare i problemi della società.
Negli anni seguenti, come se nulla fosse accaduto, sorsero algoritmi sempre più sofisticati, intelligenze artificiali che imparavano da sole (machine learning) e prendevano decisioni in totale autonomia. Il loro uso si è progressivamente espanso a tutti i settori della società. La statistica e la matematica iniziarono ad occuparsi attivamente di comportamenti, desideri, movimenti, acquisti, crimine e terrorismo.
La presenza di algoritmi nelle nostre vite ormai è pervasiva. Un algoritmo può essere usato (Nicholas Diakopoulos, Algorithmic accountability reporting: on the investigation of black boxes) a fini di prioritizzazione, per stabilire come devono essere distribuite le risorse dei servizi. Ad esempio, per le ispezioni agli edifici per verificare se sono adeguati i servizi antincendio, oppure se reggono in caso di terremoto. La polizia americana utilizza spesso algoritmi di prioritizzazione (es. Predpol) per stabilire in quali zone della città deve inviare le pattuglie disponibili.
Un altro utilizzo comune degli algoritmi è a fini di classificazione, ad esempio per distinguere tra contenuti leciti o illeciti online. Un algoritmo di associazione, invece, crea relazione tra elementi, come se fossero hyperlink. Serve a raggruppare elementi, ad esempio i pregiudicati che hanno avuto problemi con droghe. Infine abbiamo gli algoritmi di filtraggio, che includono o escludono informazioni in base a specifiche regole o criteri. Ovviamente ogni algoritmo può avere anche più scopi.
Un algoritmo di filtraggio può, quindi, essere anche un algoritmo di classificazione. Come ContentID di Youtube che classifica i contenuti presunti illeciti online e li filtra. Oppure come una App di news personalizzate che classifica le notizie, le filtra in base a criteri prefissati dagli utenti (utilizzando i criteri inseriti dal programmatore) e quindi le associa agli utenti, prioritizzandole.
Il passo dalla valutazione alla predizione è stato relativamente breve. Oggi gli algoritmi predicono la nostra attendibilità, il nostro potenziale, il nostro futuro. C’è un algoritmo per stabilire se siamo (saremo?) bravi insegnanti, un altro per prevedere se saremo buoni studenti, e poi lavoratori, mariti o mogli, amanti, criminali, perfino terroristi.
Sarah Wysocki, insegnante della MCFarland Middle School, era unanimemente considerata tra le migliori. La descrivevano entusiasta, creativa, visionaria, flessibile, motivante e incoraggiante. Eppure venne licenziata, insieme ad oltre 200 insegnanti, a causa di un pessimo punteggio calcolato da Impact. I bassi punteggi ottenuti dai suoi studenti delle elementari forse erano dovuti alle problematiche del quartiere popolare, forse alla povertà delle famiglie, forse anche a problemi di salute dei ragazzi. Ma per i programmatori di Impact non erano motivi validi. La fine della sua carriera è stata decisa da un algoritmo.

Black Box

Un algoritmo consta di tre elementi: i dati di input, il processo algoritmo vero e proprio, il risultato, cioè l’output, si tratti di una previsione o un punteggio. Di questi tre elementi molto spesso si conosce solo l’output. L’algoritmo vero e proprio (il codice) non è conoscibile perché è una “proprietà intellettuale”, ed è protetta anche in base alla recente direttiva Trade Secrets dell’Unione europea.
Le nostre vite sono sempre più esposte e trasparenti, in base a leggi introdotte dai nostri governi e logiche di mercato. Il regime di “sorveglianza” al quale siamo sottoposti pervasivamente è giustificato da ragioni di “sicurezza”, o semplicemente per motivi di “efficienza economica” o per “semplificare la navigazione online”.
Nel contempo i metodi operativi delle aziende e delle stesse istituzioni sono sempre più opachi, gli algoritmi non sono trasparenti ma vere e proprie black box (Frank Pasquale, The black box society). La segretezza degli algoritmi è tale da impedirci di comprenderne le logiche e quindi di distinguerne il buon funzionamento dall’abuso. Eppure, sono gli algoritmi che ormai dettano le regole di tantissime attività umane, come ad esempio nella selezione del personale.
Il problema è che gli algoritmi, prima di prendere decisioni autonomamente, devono essere addestrati. Il training prevede che siano forniti al sistema degli input, opportunamente identificati (taggati), in modo che l’algoritmo impari cosa riconoscere.
Nel 2009 (HP Computers are racist) un software di rilevamento facciale non riesce a riconoscere una persona di colore. Secondo l’azienda non era un problema “razziale”, ma una questione di insufficiente illuminazione dello sfondo che determinava problemi di contrasto. Il software aveva difficoltà a “vedere” persone di pelle scura. In realtà un software non “vede”, ma umanizzandolo l’azienda nascondeva il vero problema, e cioè che il software di fatto determinava, ovviamente non intenzionalmente, uno svantaggio per le persone di pelle scura. In sostanza non era “neutrale”. Quello che per l’azienda era un problema meramente “tecnico”, poteva però avere delle implicazioni nella vita reale sotto forma di discriminazione sociale. La causa probabilmente stava nel fatto che nel laboratorio la maggior parte dei dipendenti erano bianchi.
Altro caso interessante riguarda un sistema algoritmico che produceva risultati “sessisti”, associando alle donne immagini di cucina e così via. Analizzando gli input forniti alla macchina, si vide che due collezioni di immagini, tra cui una supportata da Microsoft e Facebook, presentavano una distorsione di genere nella raffigurazione di attività come la cucina e lo sport: mentre le immagini di cucina, shopping e lavaggio erano associate a donne, quelle di sport erano legate ad uomini. Il software di apprendimento automatico in fondo non faceva altro che il suo lavoro: apprendeva.
L’esperimento più interessante è quello del chatbot Tay della Microsoft. Doveva essere un esperimento intelligente di apprendimento automatico, imparando direttamente dalle persone con le quali interagiva su Twitter. L’idea era che diventasse indistinguibile dai millennial, ma ci sono volute meno di 24 ore perché Tay si trasformasse in un razzista xenofobo. Secondo alcuni, in realtà, l’esperimento è stato un successo. Il bot, preda dei troll, ha imparato fin troppo bene dagli utenti. La debacle è l’esempio di come gli esseri umani possono corrompere la tecnologia.
Gli algoritmi sono costruiti per approssimare il mondo in modo da soddisfare gli scopi del loro architetto e incorporano una serie di presupposti su come funziona e su come dovrebbe funzionare il mondo. Gli algoritmi, quindi, possono riflettere i pregiudizi dei programmatori incorporati nel codice, nel momento in cui interpretano e leggono i dati. Perché un programmatore generalmente non riconosce come pregiudizievoli i suoi criteri e quindi può inavvertitamente (ma anche volontariamente, volendo) introdurre dei criteri non neutrali. Il processo decisionale dipendente da algoritmi finirà per replicare i pregiudizi strutturali su vasta scala, ampliandoli.
Un software di screening valuta i candidati in base a criteri che vengono inseriti nel codice, criteri spesso soggettivi, come il nome. Se un nome “suona” da bianco piuttosto che da nero, da italiano piuttosto che straniero, da settentrionale piuttosto che meridionale, da uomo piuttosto che donna (Amazon e l’intelligenza artificiale sessista: non assumeva donne). Perché un algoritmo sia davvero “neutrale” occorre che i dati di training siano neutrali anch’essi, che i criteri di selezione inseriti nel codice siano neutrali.
Le forme di discriminazione ipotizzabili sono molte. Alcune polizze assicurative potrebbero essere limitate in base al luogo in cui si vive, le migliori condizioni per le carte di credito potrebbero essere offerte solo a determinate persone, un negozio online potrebbe mostrare prezzi diversi per gli stessi prodotti in base alle caratteristiche individuali, un prestito potrebbe essere rifiutato a chi ha amici poveri sui social, l’applicazione di misure di prevenzione potrebbe avvenire in base ai vicini di casa.

I bias degli algoritmi

Sui bias (pregiudizi) degli algoritmi, Carlo Blengino fa una interessante riflessione su Il Post, che conclude con una serie di domande:

Può una macchina, un algoritmo evoluto, aiutare, correggere e fin anche sostituire il giudizio umano? Ma soprattutto, i nostri inevitabili bias cognitivi saranno amplificati o troveranno invece mitigazione, se non soluzione, nell’uso di sistemi esperti artificiali?.

Gli esseri umani, è noto, sono intrisi di pregiudizi, è il meccanismo di funzionamento del cervello che alimenta tali bias. Ciò che differenzia un essere umano da una scimmia è il meccanismo di compressione cognitiva col quale analizziamo le informazioni in blocchi piuttosto che singolarmente, che è alla base della creazione delle procedure complesse e automatizzate che ci governano (abitudini). In tal modo il cervello può concentrarsi su più cose contemporaneamente rendendoci molto più efficienti. Di contro, molte informazioni non sono più analizzate dalla coscienza critica.
La capacità di riconoscimento dei pattern e la capacità combinatoria, ci hanno permesso di essere la specie animale più avanzata, ma porta anche un lato oscuro. Quel processo comporta la possibilità di saltare a conclusioni sbagliate per il semplice motivo che le informazioni iniziali non vengono sempre sottoposte ad analisi. Siamo così desiderosi di cercare dei modelli nel mondo che ci circonda, e così soddisfatti quando li abbiamo trovati, che non effettuiamo controlli sufficienti sulle nostre intuizioni apparenti.
E gli inevitabili bias degli essere umani possono essere introdotti negli algoritmi nella fase di programmazione o di addestramento. Con l’amplificazione dovuta alla scala, enormemente più vasta, di applicazione dell’algoritmo.
Quindi, un algoritmo aiuterà l’uomo a liberarsi dei suoi bias? Oppure sarà l’uomo a risolvere i bias degli algoritmi con maggiori controlli sulla neutralità dei codici?

Una “soffiata” digitale

Una fonte confidenziale chiama la Polizia, comunicando che in un certo luogo vi sono due persone intente a spacciare droghe. La Polizia si reca sul posto. Dopo solo due minuti di osservazione, un evento imprevisto (sopraggiunge qualcuno che potrebbe vederli?) decidono di intervenire. Hanno visto due persone, sono lì ferme. Nonostante vi fossero degli elementi per ritenere che una delle due persone fosse solo un acquirente, entrambe vengono arrestate per spaccio.
La “fonte confidenziale”, infatti, parlava di “due” spacciatori. Giunti sul posto, i poliziotti vedono due persone, e, poiché la fonte confidenziale era stata “riscontrata” (cioè trovata attendibile) più volte, “leggono” gli elementi che si presentano ai loro occhi in base alla “soffiata”.
Secondo il “principio di coerenza”, infatti, si tende a scegliere o a creare l’interpretazione dei fatti più coerente con i dati disponibili. Il principio del “minimo impegno” fa sì che il soggetto tenda a compiere solo le inferenze minime indispensabili a produrre un’interpretazione coerente, per cui tra due spiegazioni ugualmente coerenti sceglierebbe quella che richiede il minor numero di supposizioni. Elementi tali da far ritenere che una delle due persone è solo un acquirente non vengono considerati, oppure sono ridotti a coerenza con le informazioni fornite dalla “fonte confidenziale”.

Autorità e controllo

Il processo di interpretazione dei dati è un processo complesso che può portare ad errori, specialmente in casi dubbi, nei quali i dati possono essere interpretati in modi diversi. Il modo di rapportarsi dell’“interprete” ai dati è fondamentale, perché un pregiudizio dell’interprete può portare a risultati sbagliati.
Se il risultato, cioè l’interpretazione dei dati, viene da un algoritmo, l’output potrebbe essere discriminatorio, se l’algoritmo non è neutrale. Ma il problema primario è che per verificare se l’algoritmo è neutrale o meno è innanzitutto necessario essere coscienti del fatto che l’algoritmo possa sbagliare. Ma, chi utilizza i risultati dell’algoritmo spesso non è a conoscenza del codice di programmazione né dei dati di input (addestramento). Se l’algoritmo è stato utilizzato varie volte e in molti casi è risultato attendibile (è stato “riscontrato”) si tende a credere che lo sia sempre. Il poliziotto che decide di inviare una pattuglia in una determinata zona in base all’algoritmo difficilmente penserà che l’algoritmo si può sbagliare.
Una black box in fondo, non è altro che una soffiata digitale. Se riscontrata più volte la si ritiene affidabile. Diventa incontestabile, una sorta di “autorità” che non è possibile mettere in discussione.
Come ha evidenziato Milgram con i suoi esperimenti, le persone sono estremamente disponibili ad assoggettarsi a un’autorità. E l’intera società è strutturata in modo da condizionare, attraverso le istituzioni (scuola, famiglia, lavoro), l’individuo a sottostare alla regola dell’obbedienza all’autorità. Ma oggi l’autorità è sempre più espressa in forma di algoritmo.
È l’impenetrabile black box, difesa dalle leggi moderne, a garantire l’esercizio del potere nelle società moderne. La strutturazione del sistema in black box rimuove le responsabilità dei singoli rendendo difficile nell’ambito delle gerarchie e delle competenze stabilire chi deve pagare per un eventuale errore. L’obbedienza all’autorità fa il resto.
Sulla segretezza degli algoritmi si fonda l’elemento essenziale della “sorveglianza”, cioè il “controllo”. L’individuo viene frammentato in dati e ricomposto a creare quella che non è la banale transcodifica della sua vita in informazioni gestibili da un elaboratore, quanto piuttosto l’esercizio di un vero e proprio potere, una forma di controllo (John Cheney-Lippold, We are data). Essere governati non è altro che essere controllati costantemente, osservati, indottrinati, valutati e censurati. Se un medico per svolgere il suo lavoro necessita di un badge che gli consente l’ingresso nel reparto, vuol dire che c’è un algoritmo che stabilisce quando e se quel medico può essere un medico. Basta revocargli i permessi perché non lo sia più. Così per uno studente, e per un insegnante. È un algoritmo a decidere chi o cosa siamo. Dipende dall’algoritmo se noi abbiamo dei diritti, perché in fondo dipende dall’algoritmo se siamo identificati come soggetti che hanno diritti. Questa è la “datificazione”.
Oggi una persona è datificata non tanto in base a ciò che è, ma per come è vista dal programmatore. L’esempio più classico: il “terrorista”. Un terrorista oggi non è più una persona, quanto piuttosto un modello (type) ricavato dalla datificazione di una serie di comportamenti tipici di soggetti ritenuti terroristi (signature, o firma). I dati (comportamenti) da estrarre sono selezionati dai programmatori del modello, quindi alla fine il modello di terrorista non descrive affatto un terrorista quanto piuttosto come un terrorista è visto dal programmatore (lo schema di un terrorista).
Ad esempio, se delle persone sono viste con armi in prossimità di un luogo frequentato da terroristi, oppure se sono viste comunicare con terroristi, o dare ordini a terroristi. È anche possibile che l’algoritmo confonda e riunisca in un unico individuo il comportamento di più soggetti che abitano lo stesso appartamento. La costruzione di un modello ideale nel quale far rientrare una persona fisica non si basa sulla realtà quanto piuttosto è un’approssimazione di un fenomeno dinamico, la traduzione in una quantità di numeri trattabili da un software. In tal senso la costruzione di un modello di terrorista (ma anche di altre tipologie) non è tanto l’estrazione di dati dalla realtà (raw data), quanto piuttosto la costruzione di dati a partire dall’osservazione della realtà (cooked data). E, come tale, è soggetta a molteplici errori e fenomeni discriminatori.
La classificazione in base ad algoritmi non riscontra l’individuo effettivo come si estrinseca nella vita reale, quanto piuttosto un suo “doppio” virtuale, che può essere “maschio” ma anche “femmina”, “famoso” o “non famoso”, “giovane” o “vecchio”. La categorizzazione di “uomo” non è un uomo bensì la datificazione dello schema di attività che generalmente pone in essere un “uomo”. Per un algoritmo una donna che si “comporta” da uomo, legge riviste da “uomo”, fa acquisti da “uomo”, è un “uomo”, con un disallineamento tra la vita reale e la vita basata sui dati (vita online o virtuale). E la classificazione è del tutto indipendente dalla volontà dell’individuo. Nella sua visione più ottimistica, quella “Silicon Valley oriented”, i problemi degli algoritmi sono facilmente risolvibili. Come? Accumulando più dati. Sempre più dati.
Nella sua visione più ottimistica, quella “Silicon Valley oriented”, i problemi degli algoritmi sono facilmente risolvibili. Come? Accumulando più dati. Sempre più dati.

Cosa è normale?

I modelli algoritmici utilizzano i dati dei comportamenti passati per prevedere il futuro. In tal modo si realizza una serie di schemi comportamentali (profili) che servono a classificare le persone fisiche. I cittadini vengono categorizzati assegnando loro un profilo di rischio. L’inclusione in categorie dipende e rafforza l’idea che certi comportamenti siano la “norma”.
Porre in essere comportamenti che si discostano da tale “normalità”, comporta automaticamente l’inclusione in categorie a rischio, finendo per indicare anche l’avvio di un percorso delinquenziale o terroristico. E il discrimine tra attività sovversiva e semplice attività di protesta è molto sottile agli occhi dello stato.
Così, il sistema finisce per discriminare tutti coloro che non si comportano a “norma”, favorendo il conformismo. Tende a replicare possibili disuguaglianze (si pensi ai musulmani, ritenuti spesso non a norma in paesi occidentali), oltre a creare difficoltà nell’affrontare eventi del tutto nuovi od inaspettati.

Monstrum

“Ho visto lo sventurato, il miserabile mostro che avevo creato (…) demoniaco cadavere a cui avevo così miseramente dato la vita”.

Così Mary Wollstonecraft Godwin introduce la “creatura” nel libro “Frankenstein o del Prometeo moderno”. Il suo artefice crea il mostro perché lo riverisca come un dio. Ma il mostro (dal latino “monere”, avvertire) è anche una critica spietata, non tanto alla scienza e alla tecnologia, ma a ciò che con essa viene fornita (Anne k. Mellor, Mary Shelley: Her Life, Her Fiction, Her Monsters).
Il mostro, in realtà, è un’inevitabilità storica, una necessità per stabilire i confini tra la società e ciò che la minaccia, ciò che deve rimanerne fuori, ciò che le è alieno. Nel romanzo al di fuori dei confini della città (della società) stanno i demoni, fatti di parti di cadavere, di frammenti e pezzi presi qua e là e ricomposti in un tutt’uno (come i dati raccolti e ricomposti dagli algoritmi), per creare ciò su cui devono essere focalizzate le paure e i timori della società intera (così come oggi si fa con gli islamici, i migranti, i terroristi, ecc…). Il mostro rappresenta i mali della società, e una volta cacciato, ci assicurano, i problemi saranno tutti risolti. Ma la scomoda verità è che il mostro non è affatto a noi estraneo o diverso o separato, bensì è la tecnologia (la creazione) a separarlo dal resto della società. Al punto che senza di essa il mostro non ha più motivo di esistere (nel romanzo senza il suo creatore il mostro si uccide).
“Cosa è normale in un mondo retto dagli algoritmi?”, si chiede John Cheney-Lippold in We are data. Nella società capitalista, in quella moderna retta da algoritmi, il mostro è tutto ciò che non rientra nella normalità, che non rientra nelle categorie accettate nella società, tutto ciò che è diverso, coloro che non si assoggettano all’autorità costituita, quelli che sfuggono alla black box. Creare il mostro ci consente di definire i confini di cosa è normale e cosa no. Nella società moderna, dove regna l’imperativo tecnologico, mirabilmente riassunto nelle parole del nipote del professore in Frankenstein Junior di Mel Brooks (“si può fare!”), per cui tutto ciò che è potenzialmente fattibile va fatto senza tenere conto delle implicazioni etiche, il compito di creare il “mostro” è svolto sempre più dagli algoritmi.
E Sarah Wysocky, l’insegnante licenziata a causa di un pessimo punteggio calcolato da un algoritmo? L’algoritmo che la licenziò fu contestato. Un modello statistico dovrebbe essere basato su grandi quantità di dati, ma nel caso specifico il tutto si riduceva ai test di una trentina di studenti. In particolare si evidenziò che il modello non funzionava correttamente perché la distribuzione degli studenti non era casuale. Piuttosto dipendeva da fattori quali le richieste specifiche dei genitori, dalle specializzazioni degli insegnanti, e così via. Un insegnante ritenuto particolarmente portato per bambini con problemi di concentrazione otteneva inevitabilmente punteggi più bassi. Così la selezione in base all’algoritmo finiva per creare forti disincentivi per gli insegnanti ad occuparsi degli studenti più problematici.
Ciò non portò ad alcun ripensamento del sistema, che anzi fu giustificato anche di fronte a evidenze contrarie. Buoni punteggi ottenuti dagli studenti di insegnanti con basso punteggio erano ritenuti confermativi della valutazione del sistema perché in tali casi l’insegnante, a rischio di licenziamento, era portato ad alterare i punteggi degli studenti. Infine, si concluse, il modello statistico può anche sbagliare in casi singoli, ma l’efficacia si vede nel complesso. In sostanza non era il sistema che si adattava alla realtà, ma in alcuni casi si adattava la realtà per giustificare il sistema.
Sarah Wysocki fu licenziata. Ma, essendo comunque un’ottima insegnante venne immediatamente assunta da un’altra scuola. In un quartiere per ricchi, che non utilizzava quel modello di valutazione degli insegnanti.