1

NASCE TORINO SOCIAL IMPACT: SOCIALE, TECNOLOGIA E FINANZA PER UNA NUOVA CITTÀ

NASCE TORINO SOCIAL IMPACT: SOCIALE, TECNOLOGIA E FINANZA PER UNA NUOVA CITTÀ

E’ stato firmato questa mattina, presso gli spazi di Toolbox, il Memorandum of Understanding “Torino Social Impact”.

Si tratta di un accordo che sancisce l’alleanza tra istituzioni pubbliche e private per fare di Torino il miglior ecosistema europeo per l’imprenditorialità e gli investimenti ad impatto sociale e ad elevato contenuto tecnologico.

La strategia è basata sull’idea che all’intersezione tra la storica vocazione all’imprenditorialità sociale della città, la densità di capacità tecnologiche sul territorio e la presenza di importanti investitori orientati all’impatto sociale, risieda una interessante opzione di sviluppo sociale ed industriale per la città. Nello stesso tempo, è evidente come si stia affermando, a livello globale, una nuova generazione di innovatori, imprese ed investitori finanziari che, sfruttando le nuove opportunità tecnologiche, sanno coniugare la capacità di produrre intenzionalmente impatti sociali positivi con la sostenibilità e la redditività economica e finanziaria delle loro iniziative.

Torino è una città nella quale sono compresenti tutte le risorse necessarie per intercettare questa opportunità: un robusto sistema di competenze scientifiche e tecnologiche, un terzo settore che coniuga una consolidata vocazione sociale civile e religiosa con significative capacità imprenditoriali, un sistema industriale ancora fortemente caratterizzato dal saper fare e profondamente radicato nella società, una nuova generazione di incubatori e acceleratori sociali ed infine importanti capitali orientati all’impatto sociale. Con la presenza di un sistema finanziario unico rispetto alla capacità di orientare gli investimenti alla missione di impatto sociale: fondazioni di origine bancaria, banche specializzate, fondi di investimento ad impatto sociale, filantropi. Risorse che insieme e opportunamente combinate possono costituire un ecosistema difficilmente riproducibile in molte altre città europee.

L’ipotesi è rafforzata da alcune evidenze. Il recente rapporto presentato dalla Commissione Europea e da Nesta, “Digital Social Innovation”, misura a Torino una densità di progetti di innovazione sociale basati sulle tecnologie digitali inferiore solo a poche grandi capitali europee. Torino è stata la prima città italiana a organizzare un’iniziativa politica strutturata sull’innovazione sociale (Torino Social Innovation) e quella che più di tutte in Italia ha saputo attrarre finanziamenti pubblici per l’innovazione sociale; ha inoltre catalizzato l’interesse e gli investimenti di importanti banche e fondi di investimento nel settore e ha prodotto imprese sociali che hanno sistematicamente primeggiato nelle competizioni europee. A Torino è nato il primo centro per l’innovazione sociale in Italia, Socialfare, e nel fulcro di un’ampia rigenerazione urbanistica, sostenuta da ingenti fondi europei, si sono insediati Open Incet ed Impact Hub, che rappresentano avanzati modelli di accelerazione d’impatto sociale. Grazie alla preesistenza di questo fertile sistema, Torino ha potuto attrarre, unica in Europa, l’insediamento della più importante think tank mondiale nel campo dell’innovazione sociale, Nesta.

I promotori e firmatari del Memorandum Torino Social Impact sono il Comune di Torino, il Comitato per l’imprenditorialità sociale della Camera di commercio di Torino – in rappresentanza di Politecnico di Torino, Università di Torino, Legacoop, Confcooperative, delle associazioni di volontariato e delle rappresentanze sindacali – , la Compagnia di San PaoloNesta Italia, il Comitato Torino Finanza della Camera di commercio di TorinoImpact Hub TorinoOpen IncetSocialfareTorino Wireless e gli incubatori universitari I3P e 2i3T. Tra i possibili futuri aderenti la Fondazione CRT.

Dopo la firma dei soggetti promotori, l’adesione al MoU sarà aperta a tutti i soggetti che intenderanno contribuire all’iniziativa.

Tra i primi passi di Torino Social Impact, il 15 dicembre un convegno organizzato da Nesta Italia, l’Università di Torino e dalla Città di Torino sul tema blockchain dal titolo: “Blockchain for Social Good”.




Data science per l’impatto sociale

L’impact investing richiede strumenti di valutazione. Che ora arrivano anche attraverso blockchain e big data

Se ti chiami Alice, stai per scegliere il tema della tua tesi di dottorato al Politecnico di Milano, e ti imbatti in Alice, una delle prime piattaforme digitali basate su database distribuiti per la misurazione dell’impatto sociale, la scelta di studiare le nuove frontiere di misura dell’impatto attraverso l’utilizzo dei big data e degli strumenti della data science è quasi obbligata.
Questo è accaduto ad Alice, la giovane studentessa che per prima mi ha raccontato della sua omonima Alice, una piattaforma che, facendo uso di grandi basi di dati e della tecnologia blockchain, aiuta le organizzazioni e le imprese sociali a migliorare l’impatto delle loro iniziative, consentendo la gestione trasparente dei progetti, sviluppando forme di finanziamento avanzate sul modello outcome-based, con rendimenti basati sui risultati misurabili dei progetti, e assicurando indipendenza e credibilità alle misurazioni di impatto che sono il sottostante fondamentale delle operazioni stesse.
Alice nasce dall’idea che l’attuale modello di finanziamento dei progetti sociali soffra di problemi che possono essere efficacemente affrontati grazie alle nuove tecnologie: investimenti in progetti inutili, investimenti ridotti per mancanza di fiducia e scarsa credibilità da parte dei finanziatori e dei filantropi ed infine difficoltà per i piccoli progetti innovativi a farsi conoscere e quindi scalare.
Grazie all’uso della tecnologia blockchain, Alice garantisce una misurazione indipendente dell’impatto generato dai progetti, assicurando trasparenza ai donatori e rendendo disponibile una valutazione di impatto affidabile e terza ai progetti sociali che sono oggetto di operazioni di impact investing. Inoltre, attraverso un reporting affidabile dell’impatto generato, Alice contribuisce a indirizzare le risorse verso i progetti col più alto potenziale di scalabilità.
La misurazione dell’impatto sociale è uno dei numerosi settori nei quali i Big data, la tecnologia blockchain e più in generale la data science, promettono di spostare la frontiera delle opportunità oltre i paradigmi di misurazione consolidati e contribuire in maniera decisiva alla scalabilità delle soluzioni e allo sviluppo del mercato per imprese e investitori.
Poiché la tecnologia della blockchain, una sorta di libro mastro decentralizzato e condiviso in cui vengono registrate transazioni certe ed immutabili grazie alle tecniche crittografiche e alla struttura distribuita del database, si è imposta originariamente come infrastruttura per lo sviluppo delle monete digitali, il suo utilizzo è spesso associato a questa applicazione e in generale alla transazione di valori monetari.
Tuttavia, essa si presta indifferentemente a gestire transazioni relative a qualunque tipo di bene, tangibile o intangibile, digitale o fisico, in ambito commerciale o sociale. Per questa ragione sono molti coloro che oggi prefigurano un rapido sviluppo delle applicazioni nel campo dell’impatto sociale, come ha spiegato il Direttore del Hyperledger Project nel suo discorso “Applying Blockchain Technologies for Social Impact” all’Institute for the Study of Human Rights. Ci sono in effetti buone ragioni per crederlo.
In primo luogo, alcune caratteristiche intrinseche di quella che qualcuno considera l’internet di nuova generazione, o internet del valore: la centralità del concetto di fiducia e reputazione e trasparenza, il principio di condivisione, il senso di comunità e democrazia associato all’architettura distribuita e decentralizzata, sono tutti elementi perfettamente compatibili ed anzi nativi dell’innovazione sociale. Ma anche e soprattutto alcuni elementi di valore concreto, quali l’immutabilità dei dati, l’indipendenza e la neutralità degli algoritmi e la connessa affidabilità delle informazioni contenute ed estraibili dai database distribuiti. Queste ultime caratteristiche sembrano poter contribuire a superare alcuni dei principali limiti che oggi rendono la misurazione di impatto sociale l’anello debole dello sviluppo di una nuova imprenditorialità sociale e del mercato della finanza di impatto.
Ma davvero c’è bisogno di innovare radicalmente le metodologie di misurazione dell’impatto? Il 2017 ha registrato un’ulteriore accelerazione nella crescita degli strumenti finanziari ad impatto sociale, sia in termini di asset gestiti sia in termini di flussi di investimento. Molte imprese sociali, anche in ragione degli obblighi di legge, si apprestano a svolgere il compito della misurazione di impatto per poter essere oggetto di investimenti. Molti finanziatori offrono prodotti e strumenti basati su metriche di impatto. E dunque, più importante e più centrale diventa questa classe di strumenti, più delicato e fragile appare il pilastro fondamentale sul quale essi poggiano: proprio le metriche di impatto, che costituiscono il sottostante fondamentale di qualunque transazione.
Vi sono rilevanti problemi di carattere tecnico e metodologico, ma ancor più importanti sono oggi le questioni legate alla cosiddetta governance della misura, con questo intendendo le modalità con le quali le parti coinvolte nella transazione, eventualmente insieme ad una terza parte indipendente, concordano sulla metrica di misurazione e sulle modalità con le quali verrà generata la misura che determinerà i pagamenti conseguenti.
Talune difficoltà sono strutturali e difficilmente eludibili, come il ritardo spesso considerevole tra azione ed effettiva manifestazione dell’impatto. Altre sono più gestibili e sono sostanzialmente riconducibili a tre categorie: primo, la disponibilità e l’affidabilità dei dati, secondo, l’articolazione e la frammentazione estrema delle dimensioni socio-economiche lungo le quali gli impatti si manifestano e la conseguente complessità, imprevedibilità e non linearità dei legami causa-effetto, terzo l’indipendenza, la credibilità e la terzietà della valutazione.
E’ abbastanza comprensibile, sulla base di questa elencazione che oggi si guardi all’universo dei big data, dell’algoritmica connessa e soprattutto alla tecnologia blockchain come strada ineludibile per sfondare il tetto di vetro contro il quale si infrangono gli attuali approcci alla misurazione di impatto al servizio della finanza e della filantropia.
Per ciò che riguarda la disponibilità dei dati, Davies Rhodri, alla Giving Thought Foundation, pensa che la misurazione di impatto sociale e la diffusione degli strumenti di impact investing, quali i social impact bond, possa fornire un incentivo decisivo per la raccolta sistematica dei dati. Si stanno in questo senso sviluppando organizzazioni e piattaforme che si propongono di facilitare la raccolta di dati per il sociale. Per esempio 360Giving supporta le organizzazioni sociali ad adottare un approccio open data, standardizzando, integrando e rendendo disponibili i dati in modo che possano essere utilizzabili per migliorare la comprensione dell’impatto sociale e le conseguenti scelte di filantropi e investitori.
Benché sia condivisibile l’idea di Rhodri che l’innovazione sociale fornisca alcuni incentivi naturali alla raccolta di small e big data finalizzati alla misura di impatto, è altrettanto evidente che molto dipende anche dalla capacità di definire governance e schemi di accordo pubblico-pubblico, privato-privato e pubblico-privato che consentano la raccolta e l’integrazione dei dati rinvenienti dalle interazioni digitali. In questo senso, la politica pubblica ha l’opportunità di svolgere, per una volta, un fondamentale compito di infrastrutturazione, non delegabile.
Il secondo punto di attacco della data science all’attuale impostazione della misurazione di impatto sociale risiede nella capacità di rinvenire relazioni e nessi causali complessi e imprevedibili tra i fenomeni, attraverso le tecniche di data analytics applicate a grandi basi di dati, che nel caso di fenomeni articolati, non modellizzabili ed imprevedibili, come le cosiddette impact cascades che si generano a valle dei progetti di intervento sociale, consentono misurazioni di una completezza difficilmente riproducibile anche con le più sofisticate tecniche controfattuali.
Va sottolineato a questo proposito, che l’elemento distintivo della imprenditorialità e della finanza ad impatto sociale è l’intenzionalità ex-ante che deve ispirare il modello di intervento. Significa in pratica che l’impatto sociale deve essere predeterminato ed intenzionale all’atto della definizione del modello imprenditoriale o dello strumento di investimento. In sostanza, la fase di preventivo dell’impatto sociale è largamente più importante di quella di consuntivo, differentemente da quello che è stato fino ad oggi l’approccio dominante, riconducibile alla pratica del bilancio sociale o di sostenibilità. La centralità del problema di prevedere l’impatto e non di consuntivarlo, rende quasi automaticamente obsoleta un’intera generazioni strumenti e affida alla data science, ai big data e agli algoritmi di machine learning la responsabilità di aprirne una nuova.
Infine, è evidente che la misurazione di impatto, soprattutto quando funzionale a transazioni finanziarie o filantropiche, richiede che i dati e gli algoritmi che li trattano siano associati ad un capitale di fiducia che renda i risultati credibili per tutte le parti coinvolte. In questo senso, ciò che fino ad oggi è stato assicurato dalla reputazione delle istituzioni che svolgono la misurazione, può credibilmente essere garantito dalle architetture di database distribuite e decentralizzate come quelle basate sulla tecnologia blockchain.
La tecnologia blockchain produce solo dati certi, perché basata su prove crittografiche anziché sulla fiducia. Tutte le transazioni sono memorizzate su una sorta di libro mastro distribuito e sono quindi verificabili a basso costo, in tempo reale, direttamente dalla persona che ne ha bisogno. La fiducia nell’intermediario, che nel modello attuale di misurazione di impatto ha l’onere di verificare la correttezza di tutti i dati, viene sostituita con la fiducia nel codice sottostante e nelle regole di funzionamento della blockchain. In altre parole, il ruolo di garanzia, neutralità e di terza parte indipendente nella misurazione, svolto fino ad oggi da istituzioni scientifiche, Trust, enti pubblici o privati dotati di particolare reputazione può essere affidato ad architetture di dati ed algoritmi e più in generale alle diverse applicazioni dell’intelligenza artificiale.
Senza nascondersi, naturalmente, i rischi connessi all’affidare agli algoritmi un compito di misurazione che sottende elementi valoriali imprescindibili, che rischiano di perdersi in oscure logiche di machine learning che non è scontato incorporino metriche e obiettivi che ispirano l’azione sociale.
In conclusione, la misurazione di impatto vive oggi una stagione di grandi attenzioni, polarizzate su approcci metodologici opposti, che vanno da chi predica l’inutilità di misurare, a chi sostiene la pericolosità di misurare, a chi riconosce nello storytelling l’unico modo reale di rendicontare l’impatto fino ai teorici dei big data e dell’intelligenza artificiale applicata all’impatto sociale. Innegabilmente, le nuove tecnologie aprono scenari dirompenti, che vanno compresi in tutte le loro implicazioni.




Così si finanzia la fabbrica delle fake news

L’inchiesta pubblicata dal New York Times sullla fabbrica delle bufale che distorce il confronto politico in Italia ha generato uno scontro tra i partiti fatto di accuse reciproche e tentativi di risolvere la questione a suon di leggi. Ma quanto è profonda la tana delle fake news? Dove conducono le ramificazioni delle bugie che rendono tossico il confronto in rete e il dibattito pubblico? Dove si arriva seguendo l’intreccio tra post virali, banner online e agenzie di broker pubblicitari?
ROMA È un algoritmo antico quanto l’uomo quello che muove la fabbrica delle “fake news”, la centrale dalle migliaia di IP che, da almeno due anni, pompa on-line il veleno che intossica la Rete, i social e, con loro, il dibattito pubblico, preparandosi a condizionare una campagna elettorale che già parte con le peggiori premesse.
Quell’algoritmo si chiama denaro. Un fiume. Che si muove attraverso i banner della pubblicità on-line e i broker – tra loro, lo vedremo, anche una società russa – che la negoziano.
C’è chi ha cominciato a offrirne a prezzi sin qui mai visti. E il banco è di chi ha più traffico, più visualizzazioni. Di chi “viralizza” con il sangue agli occhi su temi capaci di dividere. Fino a diecimila euro al giorno di guadagno per chi impasta odio, piuttosto che alzare fumo, su migranti, sicurezza, omosessualità, sanità, e, naturalmente, Politica. Non quella dei fatti, ma della “character assassination”, dell’assassinio della reputazione dell’avversario. È una storia la cui coda in chiaro è nella violenta polemica di quest’ultima settimana tra Pd, Lega, Movimento Cinque Stelle su chi sarebbero le vittime e chi i carnefici del sistema. Chi gli artigiani del falso e chi i committenti. Ma è una storia che, a monte, ha altri indirizzi e protagonisti. Che porta a Londra, a Mosca, in Albania, ai domicili virtuali di sedicenti e improbabili “publisher”, imprenditori editoriali della Rete, spesso nascosti dietro Troll, e che Repubblica ha ricostruito cominciando da una fabbrica di manufatti in alluminio a Terni.
Dove, in una sera gelida di novembre, durante la pausa di cambio turno, Leonardo, un metalmeccanico di 34 anni, ex punk, la terza media in tasca e i soldi per comprare il primo modem non più di sei anni fa, apre le porte del Sistema.
Leonardo di cognome fa Piastrella. E in Rete, fino al giorno in cui ha deciso di sfilarsi la maschera e cominciare a girare le scuole con il suo vero nome per illuminare i cavalieri neri dell’intossicazione online, era conosciuto come Ermes Maiolica, il più noto “bufalaro” italiano. Ne ride da solo Leonardo di quella trovata, non esattamente originale, che lo aveva trasformato da uomo in Troll «Piastrella… Maiolica» – e che lo ha protetto per anni. Trasformare il falso in verosimile e quindi in vero, viralizzandolo, è stato per lui un altro modo per portare avanti la sua personalissima “rivoluzione punk”. Per dimostrare che “il Re era nudo”.
Finché il gioco si è fatto sgradevole e troppo gravido di conseguenze. «Il mercato delle bufale è molto più semplice di quello che uno può pensare esordisce Leonardo – C’è chi ha i soldi, i broker pubblicitari. E chi ne prende una percentuale, i gestori dei siti. Più traffico hai, più soldi prendi dalla pubblicità. Si è sempre detto che lo stratagemma per avere molto traffico, fosse disporre di un buon algoritmo in grado di adattare i contenuti agli umori e alle preferenze del pubblico». Nelle parole di Maiolica, l’algoritmo ha un significato fulminante nella sua semplicità. «Ho la terza media e gli algoritmi non li ho studiati. Mi è bastato capire che l’algoritmo è la formula che risolve un problema. Mi sono detto: se esiste un algoritmo che risolve un problema, deve esistere un contro-algoritmo che il problema lo crea e che ne moltiplica l’effetto in termini di viralizzazione. Ecco, i bufalari creano dei contro-algoritmi. Lavorano sui nervi scoperti dei gruppi di discussione sui social. Comprendono quali temi sono potenzialmente in grado di incendiarli e il gioco è fatto. Basta dare fuoco. Nei giorni del diesel gate, misi in piedi un falso concorso ai cui partecipanti la Volkswagen regalava auto. L’azienda ebbe i call center intasati per ore e fu costretta a fare un comunicato stampa».
Un giorno, alla porta di Leonardo, come a quella di alcuni suoi amici hacker e ingegneri sociali, cominciano a bussare i broker pubblicitari. Cercano gente che faccia traffico e i bufalari sono i re del traffico. Le società lavorano in un mercato dove la parte del leone l’ha sempre fatta Google Ads ma da quando è cominciata la storia delle fake news, e Google ha stretto le maglie, tagliando fuori dai dividendi pubblicitari i bufalari, si è liberato spazio per una nuova forma di concorrenza.
Le società, tra le altre, si chiamano Criteo, Chamaleon, Adnow. E, un anno e mezzo fa, sul mercato italiano, si aggiunge una startup che brilla per aggressività e redditività: Clickio.
Più che una startup Clickio è un satellite. La casa madre è la russa AdLabs, la più importante azienda pubblicitaria del paese. Uffici a Mosca, Praga, Cipro e ora anche a Londra dove ha sede la direzione commerciale che sovrintende il mercato italiano.
Un ingegnere sociale, che chiede a Repubblica l’anonimato consapevole di violare un segreto che può costargli caro, racconta che Clickio non solo offre tariffe fino a cinque-sei volte superiori alla media di mercato. Ma, in alcuni casi, arriva a suggerire ai “publisher”, direttamente o indirettamente, i temi su cui costruire contenuti. Dove per “indirettamente” si intende individuare come cliente privilegiato chi, in Italia, scrive di migranti, terrorismo islamico, reati commessi da stranieri. O chi celebra la Russia di Putin.
Al 32-38 di Leman Street, a Londra, ha l’ufficio Jacopo Gerini, direttore commerciale di Clickio.
Ascolta le domande di Repubblica, sorride quando comprende dove si vada a parare e con garbo dice: «Capisco che il fatto che il proprietario sia russo e possa far pensare a chissà cosa, ma l’azienda ha sede in Gran Bretagna e qui non c’è niente da nascondere. Siamo una piattaforma di ottimizzazione che consente ai nostri clienti di poter raggiungere un incremento medio tra 20 e 40 per cento dei ricavi pubblicitari. Abbiamo un policy team dedicato che controlla la qualità dei siti, collaboriamo con Google Ads e abbiamo criteri molto rigidi nella scelta dei partner. Evitiamo di lavorare con publisher e siti che hanno una visione di parte o che, ad esempio, violano le regole di “brand and family safety” (un esempio, la speculazione sulla morte di qualcuno). Non abbiamo mai imposto ai publisher i loro temi di discussione in quanto la nostra esperienza e’ esclusivamente nell’ottimizzazione e non nell’editoria. Vogliamo semplificare la vita ai publisher che faticano a comprendere il mercato pubblicitario».
Conviene tenere conto di quello che dice Gerini. E verificarlo. Un’altra volta. A Udine. Dove lavora David Puente. Ex consulente della Casaleggio Associati, è uno dei più capaci, affidabili e profondi conoscitori della comunicazione on line. In gergo, è un debunker, uno svelatore di mistificazioni. Un cavaliere bianco. Con lui, si fa un’interessante scoperta. Il banner di Clickio è associato (e dunque fa inserzioni pubblicitarie) ad almeno tre siti tra quelli che i formidabili tools informatici di Puente monitorano costantemente a caccia di bufale.
In un pezzo del sito scenarieconomici. it, si legge: “Isis, parte la campagna del terrore per le festività natalizie. Sul web le minacce e le immagini al limite dello splatter”. In un altro, che polemizza con Renzi e Marchionne, si finisce su direttanews. it , la testata on-line con sede legale a Velletri (in provincia di Roma), citato dalle inchieste di BuzzFeed e del New York Times e oggetto delle denunce dal palco della Leopolda di Matteo Renzi. Un terzo, documenta come cliente di Clickio lantidpomatico. it, sito il cui gestore è un consulente dell’ufficio legislativo dei 5 Stelle alla Camera.
«Bene arrivati al cuore del problema – dice sorridendo Puente – È il denaro della pubblicità che alimenta il mercato delle bufale. Se poi aggiungiamo che molti dei bufalari si muovono spinti anche da una propria ideologia politica, ecco spiegata la ragione di un mercato così in ebollizione. C’è chi si mette in vendita per soldi. Chi per soldi e convinzione politica, diciamo così. Il che, dal suo punto di vista, elimina anche qualsiasi residuo scrupolo etico».
È una corsa al nuovo oro dove c’è posto per tutti. Per Paesi – la Russia di Putin – impegnati in operazioni di influenza. Per avventurieri sull’altra sponda dell’Adriatico. «Qualche settimana fa, ho scoperto siti di bufale in lingua italiana con proprietari due ragazzi albanesi di Lezhe. Il che conferma come, alla vigilia della campagna elettorale, l’offerta di bufale sia destinata a crescere. Diciamola così: l’Italia che si prepara alle elezioni è una bufala da mungere». Anche perché, la Politica, anche stavolta, sembra non voler capire. «Anziché ragionare sulla necessità di accordi tra autorità, aziende e paesi stranieri che rendano pienamente trasparente e veloce l’individuazione delle proprietà dei domini cui si appoggiano i siti di bufale – prosegue Puente – mi sembra che la discussione sia più interessata a utilizzare la questione delle fake news come strumento di attacco all’avversario politico. Con l’effetto paradossale di depotenziare il problema e di non capire che tutte le forze politiche sono potenzialmente vittime del Sistema. Che i nemici sono i Troll senza nome e il denaro che li alimenta».
E a proposito di bufale e troll, da qualche giorno, in rete ha cominciato a fare capolino un certo Vincenzo Ceramica. Provate a indovinare chi sia.




Nuovo paradigma: la rete del tutto

L’internet delle bio-nanocose permetterà di mettere in rete oggetti molecolari e macroscopici
L’internet delle nanocose non è un’applicazione solitaria ma, ancora prima di nascere, ha già un fratello: l’internet delle bio-nanocose.
A introdurci in questo mondo è Murat Kuscu, giovane ricercatore dell’Università di Cambridge, impegnato da tempo in questo campo. Kusku definisce l’internet delle bio-nanocose come “una rete informatica dove unità funzionali sulla nanoscala e unità biologiche – come nano-biosensori, cellule viventi, batteri ingegnerizzati – sono connessi tra loro e con un network convenzionale macroscopico”.
Pioniere di questa modalità di realizzazione di un network di oggetti nanometrici è stato lo stesso ricercatore che sette anni fa introdusse per primo il concetto di Internet delle nanocose, ossia Ian Akyildiz, dell’Istituto di Tecnologia della Georgia. Due anni fa Akyildiz, assieme ad alcuni suoi collaboratori, descrisse infatti per la prima volta sulla rivista “Ieee Communications magazine” le condizioni per realizzare l’internet delle bio-nanocose.
Nelle reti composte di nanocose a comunicare tra loro sono sensori e macchine di dimensioni molecolari. Nel caso dell’internet delle bio-nanocose, invece, i nodi della rete sono le cellule o gli organismi biologici molecolari.
Le cellule, infatti, possono essere considerate come delle nano-macchine capaci di calcolare, interagire e comunicare. Il nucleo costituisce il luogo dove vengono processati e memorizzati i dati; i mitocondri la riserva energetica di cui dispone ogni macchina; mentre i trasmettitori molecolari e i recettori chimici sono i sensori sul mondo esterno.
Questi nodi comunicano tra loro non attraverso delle onde elettromagnetiche, ma tramite segnali chimici o impulsi elettrici.
L’internet delle bio-nanocose, nelle parole di Kuscu, può trasformare potenzialmente “il modo con il quale ci connettiamo e comprendiamo il mondo nelle sue fondamenta, fornendo nuovi metodi per intervenire  sui processi biologici all’interno degli organismi viventi a livello di singola molecola”.
Il ricercatore inglese considera l’internet delle bio-nanocose “un nuovo paradigma” perché permetterà di mettere in rete oggetti molecolari e macroscopici. Un paradigma che “giocherà un ruolo essenziale soprattutto nella sanità di domani” perché “siamo sicuri che questa tecnologia trasformerà radicalmente la nostra attuale comprensione su diagnosi e terapia”, consentendoci di “sviluppare nuovi metodi diagnostici per una varietà di malattie: dai tumori all’Alzheimer, fino alle lesioni della colonna vertebrale”.
Quest’ultimo obiettivo non è però dietro l’angolo. “Non abbiamo ancora nanomacchine individuali, come bio-nanosensori o nanorobot, capaci di operare autonomamente”, e ancor meno reti di questi oggetti connessi a internet. Secondo Kuscu, quindi, occorrerà attendere ancora almeno 20 anni perché queste promesse si realizzino.
Tuttavia, la ricerca è in corso, e la direzione è chiaramente tracciata: il suo team di ricerca – guidato da Ozgur B. Akan e chiamato “Internet of Everything Group”, sta affrontando le sfide richieste dalla realizzazione di nanomacchine e dalla loro connessione con il mondo biologico. In particolare, con il progetto Minerva – finanziato dall’European Research Council (Erc) con 1,8 milioni di euro – il suo gruppo sta studiando le fondamenta del sistema nervoso per “sviluppare nano-network artificiali” ispirati dal mondo biologico assieme a bio-nano macchine con l’obiettivo di costruire strumenti diagnostici e di cura in grado di intervenire su alcuni disturbi neurologici.
In un altro progetto, realizzato in collaborazione con il Graphene Centre di Cambridge, il team di Akan sta anche lavorando alla sintesi di “interfacce neurali biocompatibili basate sul grafene” pensate per connettere network molecolari con reti macrocopiche. E ancora, il suo gruppo di ricerca sta cercando di costruire sinapsi artificiali, nano-network interamente ottici che sfruttano fenomeni di fluorescenza o ricetrasmettitori al grafene sulla banda dei Terahertz: tutti apparati che “giocheranno un ruolo chiave nella realizzazione di applicazioni per l’internet delle bio-nanocose”.
L’obiettivo di tutto questo lavoro è “realizzare l’internet del tutto per un Universo connesso”. Un obiettivo affascinante, che un domani potrebbe diventare raggiungibile.




Anno 2017: “partorito” il primo figlio totalmente artificiale

Il 2017 è un anno significativo, forse storico, per chi guarda allo sviluppo tecnologico con occhi da “futurologo”, se dobbiamo dar credito a quanto riportato – invero in ritardo – dalle principali agenzie stampa internazionali, in occasione della ripubblicazione dell’articolo di un team di ricercatori di Google Brain, settore di ricerca sulle neuroscienze applicate all’intelligenza artificiale del gigante di Mountain View.
Quest’anno, infatti, una rete neurale “madre”, denominata “AutoML – Automatic Machine Learning”, ha generato la prima rete neurale “figlia”, denominata “NASNet” senza necessità di alcun intervento umano. Si tratta del primo “parto digitale” autonomo al mondo.
NASNet è quindi il primo “bimbo” nato da un AI: un figlio istruito – sempre dal genitore digitale, e non dall’Uomo – a riconoscere in modo straordinariamente efficace gli oggetti che compaiono all’interno di un video, compito che svolge eccellentemente fin da “piccolo”, in quanto i test eseguiti con due dei maggiori set d’immagini al mondo – ImageNet e Coco – hanno raggiunto in termini di prestazioni l’82,7% di precisione nel riconoscimento degli oggetti, l’1,2% superiore alle prestazioni dei migliori sistemi loro precedenti.
Generò già un forte interesse nella comunità scientifica, e non solo, la notizia di un precedente esperimento del team di ricerca di Google, che dimostrò come alcune potenti reti avevano imparato – durante le proprie interazioni comportamentali – a proteggere i propri messaggi da occhi indiscreti, compresi quelli degli esperti umani che li istruivano, e – ancor prima – i risultati conseguiti da Annabell, acronimo di Artificial Neural Network with Adaptive Behavior Exploited for Language Learning, un modello di cervello simulato al computer costituito da due milioni di neuroni artificiali collegati da 33 miliardi di sinapsi virtuali, e utilizzato da ricercatori italiani per tentare di replicare strutture e processi che avvengono ogni momento nella nostra mente, rete che non usò regole precodificate per elaborare le informazioni, imparando a rispondere a 1.500 frasi di input attraverso gli stessi meccanismi che sono alla base dell’apprendimento nel cervello umano, e soprattutto senza alcuna conoscenza linguistica precodificata dall’uomo.
Tuttavia, questo ulteriore e recente “traguardo” raggiunto dall’AI progettata da Google, ovvero la creazione di un “figlio” senza necessità di assistenza umana, riporta di attualità il dibattito a suo tempo generato dalle affermazioni di uno dei più noti scienziati viventi, Stephen Hawking, che – come riportavo nel mio libro “Il sex appeal dei Corpi Digitali” disse: “Lo sviluppo pieno dell’intelligenza artificiale potrebbe significare la fine della razza umana. Gli esseri umani sono limitati dalla lenta evoluzione biologica, e non potranno competere – e saranno superati – dal mondo del digitale, che potrebbe evolvere rapidamente e detronizzare gli esseri umani come gli abitanti più intelligenti della Terra. E se computer auto-programmanti mandassero comandi ostili agli oggetti di uso quotidiano che noi stessi abbiamo posto sotto la loro responsabilità?”.
Ci consola sapere che NASNet è stata creata in modalità open-source, ovvero basata su un software il cui codice è accessibile, migliorabile e di libero utilizzo. L’appello dei ricercatori è “di costruire nuovi schemi basati su questi modelli, per affrontare una moltitudine di problematiche che finora non abbiamo neanche immaginato”: in qualche modo, il processo dovrebbe quindi essere trasparente e sotto controllo della comunità scientifica, fermo restando che – invece – ciò che sta accadendo in questo stesso momento in ambito militare resta un segreto e quindi un mistero.
I campi di applicazione per questo nuovo “giocattolo digitale” paiono comunque pressoché infiniti: dalla guida autonoma delle vetture, alla produzione industriale di precisione, alle soluzioni di alta tecnologia per la salute a favore dei portatori di handicap. Ma insieme all’entusiasmo monta la preoccupazione: teoricamente e potenzialmente, siamo appunto innanzi a una macchina in grado di prendere decisioni in assenza dell’intervento umano.
In un recente articolo del settimanale britannico “New Scientist”, il giornalista Michael Brooks ha intervistato esperti delle università di Cambridge e Bristol, che hanno denunciato come la tendenza ad antropomorfizzare le AI – immaginandole ad esempio come “robot ostili” – ci impedisca di renderci conto che le applicazioni di intelligenza artificiale sono invece già tutto intorno a noi: decidono il nostro premio delle assicurazioni, mixando in brevissimo tempo un’incredibile quantità di dati che ci riguardano estrapolati dalle tracce che lasciamo quotidianamente online, scoprono le truffe sul web esaminando tutte le transazioni sospette e le denunciano ai servizi di sicurezza dei gestori delle carte di credito, si occupano di dare le prime risposte agli utenti nei call-center più evoluti, e sono coinvolte nel calcolo del possibile grado di recidività dei criminali, supportando i giudici della definizione della pena da comminare, in alcuni tribunali sperimentali in USA.
Il problema in ogni caso pare essere – più che lo scenario da futuro distopico, con le macchine che prendono il potere sull’uomo – l’assenza di norme certe, in grado di stabilire confini e corretti pesi ponderali uomo/macchina: fino a non più di una quindicina di anni fa, ragionamenti come questi avrebbero fatto parte del dominio della fantascienza, oggi invece chiamano in causa discipline non solo come il neuromarketing, ma anche le scienze sociali la giurisprudenza. Esistono documenti di indirizzo, come la carta della Robo-Etica scritta dal British Standard Institute, o il documento dell’UE che sollecita la creazione di un vero e proprio Ente preposto al controllo su questi delicati scenari. Il tema vero quindi è capire quando questi complessi algoritmi sono utilizzati per prendere decisioni, in quale modo lo fanno, con quale influenza sulla nostra vita di tutti i giorni, e con quale grado di trasparenza. Attualmente, nessuna delle blande azioni di advocacy promosse da ONG e gruppi di pressione ha smosso di un millimetro i colossi del web e del mondo digitale, che questi algoritmi li controllano e che non hanno alcuna intenzione di condividere pubblicamente i criteri alla base del loro funzionamento.
Certamente, un limite evidente le AI ce l’hanno: possono anche loro imparare dall’esperienza, ma non sono dotate di “intelligenza emotiva”, non sanno stringere relazioni, e non ne percepirebbero neppure l’utilità. Soprattutto, ha dichiarato Neil Lawrence, ricercatore dell’Università Britannica di Sheffield, non sono in grado di emulare la capacità dell’Uomo di immaginare e costruire scenari futuri, e – a differenza degli esseri umani – sono prive della più importante delle caratteristiche motivazionali di lungo periodo: non hanno “uno scopo nella vita”. Per ora, perlomeno.