1

Small Data: cosa sono e perché sono importanti

Small Data: cosa sono e perché sono importanti

Big Data, negli ultimi anni, hanno rivestito un ruolo sempre più centrale nella strategia aziendale, grazie alla possibilità di collegare tra loro una grande mole di informazioni e, così, prendere decisioni consapevoli guidate dai dati e anticipare il futuro.

Tuttavia, più recentemente, anche i cosiddetti Small Data sono diventati decisivi per le aziende, dal momento che queste nuove informazioni possono consentire di raggiungere performance ancora migliori. Si tratta di un approccio radicalmente diverso, che pone l’attenzione sulla componente umana, divenuta sempre più centrale nella società odierna, anche alla luce della pandemia di Covid-19 che ha ridefinito stili di vita e abitudini.

Dal momento che le strategie di marketing dei brand, ancor più al giorno d’oggi, devono essere focalizzate sulle persone, e non su un target generico e astratto, è fondamentale conoscere nel dettaglio cosa sono e come funzionano gli Small Data. In particolare, bisogna sapere in maniera specifica in cosa gli Small Data si differenziano dai Big Data, cosa possono raccontare sui bisogni e sugli interessi dei consumatori e poi, in definitiva, quale contributo particolare riescono a fornire alle aziende che decidono di utilizzarli.

Cosa sono gli Small Data

Martin Lindstrom, esperto di branding e neuromarketing, ha definito gli Small Data, in maniera sintetica ma efficace, come “i piccoli indizi che svelano i grandi trend”. A livello più pratico il concetto di Small Data fa riferimento a tutta una serie di dati individuali e unici relativi a singole persone, nello specifico abitudini e azioni più o meno consapevoli che le persone compiono nella loro vita quotidiana (anche e soprattutto privata).

Se osservati e analizzati, tutti questi comportamenti particolari possono costituire in ottica aziendale informazioni rilevanti sulle emozionisui bisogni e sugli interessi dei potenziali consumatori, consentendo di integrarle con strategie di marketing emozionale.

Che differenza c’è tra Small Data e Big Data

Abbiamo appena sottolineato che gli Small Data sono informazioni individuali, cioè relative alle singole persone e alla loro sfera privata. Il focus, in questo particolare approccio, è incentrato proprio sull’osservazione di queste azioni, anche quelle apparentemente più insignificanti, ma che, come già sottolineato, possono fornire informazioni molto preziose per le aziende.

I Big Data, invece, sono un insieme di dati caratterizzati da elevati volume, velocità e varietà, che possono essere raccolti, analizzati, elaborati e gestiti solo attraverso particolari e innovative tecnologie e che sono in grado di rendere possibili previsioni e decisioni data-driven, cioè guidate dai dati.

Una delle principali differenze tra Small Data e Big Data risiede, quindi, nella possibilità di entrare in possesso di questi dati di natura diversa e nelle modalità attraverso cui è possibile farlo. Mentre per raccogliere e gestire i Big Data sono necessarie, infatti, particolari ed elaborate strumentazioni, chiunque, trasformandosi in una sorta di “detective-psicologo”, può teoricamente entrare in possesso degli Small Data, anche attraverso una semplice visita in casa del potenziale consumatore.

La strategia di raccolta degli Small Data, chiamata “Subtext Research” (in italiano traducibile come “Ricerca dei messaggi impliciti”), prevede, tra le varie modalità, proprio di visitare le abitazioni dei consumatori per capire le loro abitudini private e metterle in relazione agli obiettivi strategici aziendali. Non solo: anche i social network e, in generale, la Rete rappresentano una preziosa fonte di Small Data. Entreremo nel vivo della questione a breve.

Prima, infatti, è necessario sottolineare un’altra grande differenza tra Small Data e Big Data, che abbiamo già avuto modo di accennare: si tratta della componente umana ed emozionale. Il rischio dei Big Data, infatti, è quello di trattare le persone solo come potenziali clienti, limitandosi all’analisi delle loro azioni senza interrogarsi sul perché e senza stimolare riflessioni più accurate sui loro bisogni, desideri ed emozioni o su eventuali bias cognitivi.

Chi si occupa di Small Data, invece, ritiene questi tre aspetti, anche quelli che a una prima e isolata analisi possono apparire meno significativi, fondamentali per la comprensione della realtà e, quindi, alla base delle successive decisioni strategiche dell’azienda.

Avere più informazioni a disposizione non si traduce necessariamente con una maggiore conoscenza. Il rischio di generare confusione, se non si padroneggia la questione e, nello specifico, se non si conoscono le precise domande da porsi, è alto. Meno informazioni, ma più precise e mirate su un target ben definito, di cui è possibile scoprire i pensieri e le emozioni, possono risolvere in maniera migliore e più rapida gli interrogativi cruciali per le aziende.

Come funzionano gli Small Data

Abbiamo già avuto modo di sottolineare che il miglior contesto per osservare e studiare il comportamento delle persone è quello quotidiano, quindi la loro casa.

La strategia di chi si occupa di Small Data, per questo motivo, passa anche per l’osservazione del comportamento del singolo individuo nella sua abitazione, alla ricerca di indizi che possono provenire dalle situazioni e dagli oggetti più disparati, dalla busta dell’immondizia al frigorifero, passando per il pc. Proprio il comportamento degli utenti online, a partire dalla scelta della foto profilo, può fornire per esempio ulteriori preziose risposte ad alcuni interrogativi delle aziende, in relazione a ricordi, sentimenti e desideri.

Gli elementi ricercati da chi si occupa della raccolta degli Small Data sono quelli che accomunano diverse persone o, al contrario, quelli che svelano qualcosa di insolito e fuori contesto. Sono proprio questi ultimi elementi, infatti, a svelare quei pensieri e quelle emozioni non esplicitati dalle persone, che a volte sono anche inconsapevoli delle implicazioni psicologiche di alcuni loro gesti o abitudini.

In linea generale, difficilmente la semplice e singola analisi di un elemento può portare a conclusioni definitive. L’interpretazione congiunta di diversi dati, anche e soprattutto raccolti in situazioni differenti, può però spingere a formulare precise ipotesi sul comportamento delle persone e, quindi, condurre le aziende a prendere determinate decisioni strategiche sulla base di ciò.

Small Data e il metodo delle 7C di Lindstrom

Il principale teorico degli Small Data, Martin Lindstrom, ha definito un modello in sette passaggi per la raccolta e l’analisi di questi particolari dati. È partito da un presupposto: in tutto il mondo esistono non più di 500-1000 tipologie di persone diverse, il cui comportamento è influenzato principalmente da 4 fattori chiave, che sono il clima (cioè l’influenza dell’ambiente circostante sul comportamento e sulle abitudini dell’uomo), il governo, la religione e le tradizioni.

Il processo di ricerca degli Small Data si distingue, invece, in 4 fasi, cioè quella della già citata Subtext Research (la ricerca all’interno del contesto), che porta alla scoperta e identificazione degli Small Data, cioè di piccoli indizi che, attraverso il processo di Small Mining (durante il quale si collegano gli indizi trovati in precedenza), conducono alla creazione di un Concetto, ossia della soluzione dell’azienda.

Il modello delle 7C prevede i seguenti step:

  • Collezionare;
  • Clues, o “indizi”;
  • Connettersi;
  • Ricerca di una Causa;
  • Correlazione;
  • Compensazione;
  • Concetto.

Nella prima fase (“Collezionare”), il ricercatore ha l’obiettivo di raccogliere il maggior numero di dati possibileda diverse prospettive, al fine di distaccarsi dal contesto in cui è abituato a vivere e ragionare e, quindi, da tutti i suoi pregiudizi.

Il passo successivo (“Clues”) prevede che siano prese in esame le cose non dette, cioè gli elementi che riguardano più nel preciso la sfera più privata delle persone. “Connettersi” significa che, una volta scoperti e identificati gli Small Data, è necessario analizzare quanto raccolto nelle due precedenti fasi alla ricerca di punti in comune o di qualcosa che indirizzi in una direzione ben precisa. La “ricerca di una Causa” vede entrare nel vivo il processo di Small Mining, al fine di indagare le emozioni delle persone, a partire dai loro sogni fino ad arrivare alle loro paure.

La fase successiva è quella della “Correlazione”: durante questo passaggio diventa cruciale trovare il momento preciso in cui è emerso per la prima volta il comportamento/emozione della persona che il ricercatore sta indagando. Procedere alla “Compensazione” significa, sulla scia del lavoro fatto in precedenza, risalire al desiderio che è alla base del comportamento o dell’emozione della persona. A questo punto può nascere il “Concetto”, cioè l’idea vera e propria dell’azienda, finalmente in grado di fornire risposta al desiderio della persona.

Small Data vs Big Data: quali sono i vantaggi

L’utilizzo (anche) degli Small Data nella strategia di marketing di un’azienda offre nuove opportunità. Alcuni vantaggi sono stati già accennati, ma è doveroso affrontare in maniera più dettagliata le ragioni per cui questi dati sono così importanti, soprattutto in relazione ai punti di forza e di debolezza dei Big Data.

Innanzitutto, per ottenere informazioni rilevanti per il business di un’azienda dai Big Data sono necessarie competenze e tecnologie che, in molti casi, non sono nella disponibilità delle piccole aziende. Le strategie necessarie per raccogliere e analizzare gli Small Data sono, invece, meno strutturate e dispendiose.

I Big Data, poi, come già sottolineato, trascurano l’aspetto emozionale, fattore invece decisivo per comprendere la realtà e giungere a nuove interpretazioni e nuove idee. Questo è il vero punto di forza, al contrario, degli Small Data, che svelano i desideri e le paure dei consumatori, anche quelle che gli stessi consumatori sono più restii a raccontare. Dal momento che è proprio da queste emozioni che nascono i bisogni dei consumatori, grazie agli Small Data le aziende sono in grado di fornire risposte migliori alle nuove esigenze dei suoi clienti e impostare campagne data driven mirate.




La matrice sociale delle neuroscienze

La matrice sociale delle neuroscienze

Le relazioni pubbliche come strumento fondamentale per la gestione della complessità. “La gran parte della vita psichica, quindi della vita di relazione, si svolge nella dimensione Inter-brain, cioè nella gestione delle intersezioni dei saperi e nella collaborazione e nella condivisione”, dichiara Vincenzo Manfredi, Coordinatore di FERPILab, che continua: “Il primo paper FERPILab, a firma del Professor Massimo Morelli, indaga un sistema di relazione che parte dalla cura delle persone per estendersi di fatto alla cura delle organizzazioni”.

A seguire, il link per scaricare il Paper completo (6 pagg.) dal sito Ferpi




Chat GPT per migliorare la comunicazione internazionale di un’azienda

Chat GPT per migliorare la comunicazione internazionale di un'azienda

Non tutti conoscono Valery Brumel, ma molti sanno che il salto in alto nelle prime edizioni delle Olimpiadi richiedeva gambe muscolose perché la tecnica “ventrale” dominava ai tempi questa disciplina. Questo atleta degli anni ’50 si distinse grazie a questa caratteristica fisica, come ancora oggi si può notare nelle foto storiche….

Successivamente, qualcosa accadde: qualcuno sostituì la sabbia e i trucioli di legno sui quali Brumel atterrava con i moderni materassi. Da quel momento tutto cambiò. L’innovazione infatti non è il cambiamento della tecnologia: quest’ultima si evolve per ragioni spesso proprie, indipendenti dal volere di chi se ne serve. L’innovazione è piuttosto data dalle opportunità che si aprono in virtù delle soluzioni che nuove tecnologie consentono ed è quindi frutto non di aspetti tecnici, ma organizzativi e culturali: sono i materassi infatti ad aver consentito all’americano Dick Fosbury di adottare il moderno salto di schiena e di innalzare di parecchi centimetri il record del mondo.

L’ultimo cambiamento tecnologico in ordine di tempo è l’avvento dell’Intelligenza Artificiale e costituisce un’opportunità per le aziende che operano in un contesto internazionale su molti fronti, ma anche sul piano della comunicazione.

Grazie alla sua capacità di fornire varianti diverse di un testoChatGPT risulta immediatamente utilizzabile da coloro che devono creare cataloghi, blog, siti web e newsletter. Tuttavia, l’utilizzo di strumenti come Copy.ai o Rytr.me consente di impostare in modo più accurato il formato di comunicazione (ad esempio, e-mail, blog, sito web, social media) e di stabilire il tono da adottare, al fine di generare un primo elaborato da sottoporre poi a un professionista per ulteriori interventi.

Inoltre, le funzionalità basate sull’intelligenza artificiale che permettono di ritoccare, migliorare e differenziare le immagini, come Dall E, Midjourney e Stable Diffusion, si rivelano estremamente utili per l’ampliamento e l’ottimizzazione delle immagini presenti su siti web, cataloghi, marketplace e social media.

Tuttavia, è con Flair.ai che emerge la possibilità di modificare la narrazione di un prodotto, ad esempio, attraverso il cambiamento dello sfondo su cui un oggetto viene riprodotto. 
Nonostante la disponibilità di strumenti che permettono di massimizzare la creazione di testi e immagini, è importante considerare la risposta di Google riguardo al valore che attribuisce ai contenuti generati in questo modo e al loro impatto sui risultati di ricerca.

Di fronte all’avvento di ChatGPT, Google ha specificato che la sua interpretazione del contenuto rimane invariata e che l’obiettivo principale è premiare i contenuti di alta qualità, indipendentemente dal modo in cui vengono prodotti. Pertanto, non è vietato includere testi e immagini generati dall’intelligenza artificiale, e le pagine web che li contengono possono essere indicizzate e oggetto di attività di posizionamento. Tuttavia, Google consiglia di fare riferimento alle sue linee guida sulla qualità dei contenuti, in particolare al concetto di “EEAT” (competenza, esperienza, autorevolezza e affidabilità), che rimangono i criteri da rispettare nella produzione di testi informativi e comunicativi. 

Grazie alla varietà di strumenti disponibili, come quelli menzionati in precedenza, è possibile differenziare i contenuti e i testi, sfruttando anche l’automazione offerta da tecnologie già esistenti e potenziata da ChatGPT.

Ciò si rivela utile per molte aree legate al marketing digitale e all’e-commerce. Ad esempio, le funzionalità basate sull’intelligenza artificiale consentono di:

  • creare bozze di descrizioni di prodotti da perfezionare manualmente per pubblicarle su siti web, negozi online e altri canali digitali di comunicazione;
  • generare variazioni e miglioramenti delle immagini per utilizzarle sul sito e per l’indicizzazione nelle ricerche per immagini;
  • differenziare le informazioni da distribuire su marketplace e siti web dei partner commerciali;
  • aumentare la precisione nella generazione di copy e landing page da sottoporre a test A/B nelle campagne pubblicitarie online;
  • creare bozze di contenuti da utilizzare nella comunicazione sui social media e nelle newsletter;
  • massimizzare le risposte testuali per arricchire l’area di customer service e creare chatbot di assistenza clienti.

Già prima dell’avvento di ChatGPT, l’Intelligenza Artificiale aveva trovato notevoli applicazioni nel marketing digitale e nell’e-commerce, sia per supportare la generazione di contenuti basati su database di informazioni, sia per rendere più efficienti le attività di performance marketing. Tuttavia, oggi le opportunità per le aziende meno strutturate di accedere a tecniche e strumenti professionali per gestire la presenza online sono ancora più ampie.




Il goal che manca all’Agenda 2030

Il goal che manca all’Agenda 2030

Oggi è raro trovare un evento aziendale di qualsiasi tipo che non richiami in qualche modo la sostenibilità, vissuta come passe-partout in grado di comunicare al meglio con cittadini, istituzioni e mercato. Certo, in questa scelta ormai diventata prassi, ci può stare una buona dose di tattica per cavalcare l’onda dell’ambientalmente e socialmente corretto, ma in realtà le imprese, grandi o piccole che siano, si trovano trasversalmente impegnate a “transitare” da un sistema basato sull’acceleratore a uno fondato su freno e frizione. E dove la competitività passa davvero attraverso un utilizzo più consapevole di risorse e un cambio di marcia funzionale ad adattarsi alle istanze di legislatori e consumatori più attenti e rigorosi nei confronti della responsabilità aziendale.

Ecco, allora, che anche la comunicazione si fa responsabile. Al bando i valori di marca giocati su efficienza e performance, ci si focalizza su impegni, rispetto e tutele per (ri)creare una relazione di fiducia con i propri pubblici. E qui entra in gioco il ruolo cruciale dei professionisti della comunicazione, anch’essi impegnati ad abbandonare qualsiasi scorciatoia di pura immagine – che nell’epoca della sostenibilità assume i connotati del greenwashing – per ancorare saldamente il vocabolario aziendale ad azioni verificabili e comportamenti tangibili. Compito tutt’altro che facile nell’epoca dominata da fake news, infomedia e dal rischio crescente di un utilizzo inconsapevole delle applicazioni di intelligenza artificiale.

È in questo contesto che nasce l’iniziativa lanciata da Global Alliance – la federazione delle principali associazioni e istituzioni mondiali di relazioni pubbliche e comunicazione e che rappresenta oltre 320.000 professionisti e accademici – affinché venga presentata la richiesta alle Nazioni Unite di aggiungere un nuovo goal, il diciottesimo, agli Obiettivi di Sviluppo Sostenibile (SDGs) dell’Agenda 2030: l’obiettivo “comunicazione responsabile”. Un’iniziativa, adottata da FERPI in Italia, che intende mettere al centro il dialogo aperto sulle sfide globali, in grado di recuperare il rapporto con il reale, combattendo le diverse forme di propaganda che alimentano e inquinano il dibattito pubblico. Nella comunicazione responsabile il linguaggio si fa inclusivo e abbandona ogni forma di ostilità: questo vuol dire, ad esempio, allenarsi ad accogliere le critiche, a rispondere a dubbi e richieste di approfondimento sul merito, ad accorciare le distanze. Quante volte nella comunicazione d’impresa si cede ancora alla tentazione di rispondere in modo stizzito o presuntuoso, ignorando la regola basilare che se non siamo stati capiti la responsabilità va ricercata in noi anziché che nei destinatari?

Per compiere questo salto di qualità occorre innanzitutto comprendere come accanto alla transizione verso un’economia più sostenibile, le imprese devono organizzare una parallela transizione comunicativa. I diritti, il rispetto delle diversità, la sicurezza sul lavoro e la tutela della salute e dell’ambiente sono valori che richiedono la presenza e il supporto di comunicatori esperti, capaci di traghettare l’intera organizzazione aziendale, formando le persone a nuove competenze e sensibilità e facilitando l’ascolto e il dialogo con i pubblici interni ed esterni. E avendo ben chiaro come la portata della sfida sostenibile è tale da richiedere una parallela assunzione di responsabilità ai consumatori che devono essere accompagnati, proprio tramite la comunicazione responsabile, ad abbandonare abitudini consolidate, soluzioni facili e zone di comfort diventate oggi insostenibili.

C’è poi un ultimo ma fondamentale salto in avanti che deve compiere l’organizzazione che intende garantirsi un futuro in un mondo in profonda trasformazione: se la propaganda crea ad arte continue “emergenze”, è necessario recuperare il rapporto con il reale e affrontare le “urgenze”, quelle vere e in crescita, che affliggono la nostra società. Ecco che, ancora una volta, la comunicazione responsabile è la strada che aiuta l’impresa a mettere a fuoco le priorità e a dimostrarsi empatica nei confronti delle sofferenze. Che siano del pianeta o delle comunità, occorre in ogni caso ripensare il proprio scopo: vana, anzi potenzialmente assai rischiosa, diventa la presentazione dei risultati del proprio report di sostenibilità, se poi s’inciampa nell’indifferenza verso chi, tra i propri stakeholder, ti manifesta un disagio concreto o una richiesta d’aiuto.

Nella cornice della comunicazione responsabile, ovviamente, non possono mancare i media. E in questo caso occorre ricorrere a Italo Calvino per “cercare e sapere riconoscere chi e che cosa, in mezzo all’inferno, non è inferno, e farlo durare, e dargli spazio”. Nel mainstream la rincorsa ad “asfaltare” il prossimo appare una tendenza irreversibile ma persino in questa cornice i professionisti della comunicazione possono cogliere l’opportunità di costruire relazioni virtuose con chi (e non sono pochi, soprattutto tra chi sperimenta nuovi strumenti e linguaggi) è in grado di fare le domande giuste, valutare l’autenticità del racconto e allargare la platea dei destinatari. Ne è un caso emblematico la nuova direzione “RAI per la sostenibilità – ESG” che, in collaborazione con ASViS e FERPI ha portato i temi e le parole della sostenibilità nei programmi più pop della tv pubblica. A dimostrazione di come la comunicazione responsabile può svolgere appieno il suo compito solo se associata a un ruolo strategico all’interno delle organizzazioni. Ecco, per l’Agenda 2030 è forse arrivato il momento per attribuire “un posto al sole” anche al Goal 18.




IL DIBATTITO SULL’AI

IL DIBATTITO SULL’AI

Microsoft ha annunciato che nei prossimi mesi integrerà Copilot, il suo assistente AI, in Windows 11. Sarà quindi possibile, fra le altre cose, chiedere all’assistente di “regolare le impostazioni” o di eseguire altre azioni su un computer (The Verge).
“Stiamo introducendo Windows Copilot, rendendo Windows 11 la prima piattaforma per computer ad annunciare un’assistenza AI centralizzata per aiutare le persone a intervenire facilmente e a realizzare le cose”, scrive Microsoft nel suo blog.

In un diverso post, sempre Microsoft spiega il concetto di Copilot (copilota). “Un Copilot è un’applicazione che utilizza la moderna AI e modelli linguistici di grandi dimensioni (LLM) come GPT-4 per assistere le persone in compiti complessi. Microsoft ha introdotto per la prima volta il concetto di Copilot quasi due anni fa con GitHub Copilot, un strumento AI di programmazione che assiste gli sviluppatori nella scrittura del codice, e continuiamo a rilasciare dei Copilot in molte delle attività principali dell’azienda. Riteniamo che il Copilot rappresenti un nuovo paradigma nel software alimentato dall’intelligenza artificiale e un profondo cambiamento nel modo in cui lo stesso software viene sviluppato”.

Sul concetto di Copilot torna anche il CTO di Microsoft, Kevin Scott, colui che sta al cuore di questa trasformazione dell’azienda all’insegna dell’AI. In una intervista a The Verge/Decoder, infatti dice: “Volevamo immaginare come utilizzare questa tecnologia per assistere le persone nel lavoro cognitivo che stanno svolgendo. Il primo che abbiamo costruito è stato GitHub Copilot, uno strumento che aiuta le persone a scrivere codice per svolgere le loro attività di sviluppatori di software. Molto rapidamente ci siamo resi conto che si trattava di un modello per un nuovo tipo di programma, che dunque non ci sarebbe stato solo GitHub Copilot, ma molti [altri] Copilot”.

Watermark sui contenuti sintetici

Altro spezzone interessante è quando Scott affronta il tema della generazione di contenuti sintetici e dell’effetto negativo che possono avere, dalla diffusione di disinformazione alla creazione di meccanismi di loop in cui le stesse AI si addestrano su contenuti sintetici, prodotti da altre AI.
“Abbiamo lavorato a un sistema di riconoscimento dei media che consente di inserire un watermark crittografico invisibile nei contenuti audio-visivi”, spiega Scott, in modo che, quando si riceve questo contenuto, un software possa decifrare le informazioni che lo riguardano e che indicano da dove arriva.
“È utile per il rilevamento della disinformazione in generale. L’utente può dire: “Voglio consumare solo contenuti di cui capisco la provenienza”. O si può dire: “Non voglio consumare contenuti generati dall’intelligenza artificiale”, prosegue Scott. Allo stesso modo, il sistema potrebbe essere usato quando si addestra una AI per eliminare contenuti sintetici dai dati di addestramento.

L’intervento di Bengio

Ma se ogni settimana ci sono annunci di prodotto (e non è compito di questa newsletter passarli in rassegna, anche perché sono tantissimi), ogni settimana arrivano anche nuovi spunti su quello che ho definito il dibattito sull’AI, ovvero la parte di discussione più sociale e politica (che include anche differenti visioni su quelle che sono le capacità tecniche attuali e future di questa tecnologia).

Così, dopo i commenti di Yann LeCunGeoffrey Hinton, e altri, non poteva mancare un altro dei pionieri della rivoluzione deep learning, Yoshua Bengio. Il vincitore del Premio Turing 2018 ha dichiarato “che la recente corsa di Big Tech al lancio di prodotti di intelligenza artificiale è diventata ‘malsana’ – scrive il FT –  aggiungendo di vedere un “pericolo per i sistemi politici, per la democrazia, per la natura stessa della verità”.

A proposito di verità: il problema di queste interviste​​ con esperti è che non sono vere e proprie interviste con domanda e risposta in cui i due interlocutori sono chiaramente separati, ma conversazioni che mescolano virgolettati con un resoconto di quanto detto. Questo rende difficile, specie su temi complessi e tecnici come questi, capire bene le priorità dell’intervistato e le sfumature che attribuisce ad aspetti diversi. Ad ogni modo, quella che traspare dall’articolo è una posizione più pragmatica rispetto ad altri ricercatori del settore. E ha il merito di mettere il dito nella piaga. Scrive il FT: “Bengio ha affermato che la cosa più urgente da fare per le autorità di regolamentazione è rendere i sistemi di AI più trasparenti, anche facendo degli audit sui dati utilizzati per addestrarli e i loro risultati. Inoltre, insieme ad altri colleghi, ha proposto una coalizione internazionale per finanziare la ricerca sull’AI in settori importanti per il pubblico, come il clima e la sanità. “Come gli investimenti nel CERN in Europa o nei programmi spaziali: questa è la scala che dovrebbe essere usata oggi per gli investimenti pubblici nell’AI per portare davvero i benefici dell’intelligenza artificiale a tutti, e non solo per fare un sacco di soldi”, ha detto”.

Tuttavia Bengio questa settimana affronta anche il tema dei “rischi esistenziali” di una AI autonoma che che possa agire nel mondo in modo catastrofico in un post scritto di suo pugno.
“Il tipo di AI più sicuro che riesco a immaginare è quello privo di qualsiasi capacità di agire in modo autonomo (agency), ma dotata solo di una comprensione scientifica del mondo (il che potrebbe già essere immensamente utile). Credo che dovremmo stare alla larga dai sistemi di AI che assomigliano e si comportano come esseri umani, perché potrebbero diventare delle AI fuori controllo (rogue) e perché potrebbero ingannarci e influenzarci (per promuovere i loro interessi o gli interessi di qualcun altro, non i nostri)”
E ancora: “La sicurezza delle AI richiede ancora molta ricerca, sia a livello tecnico che a livello politico. Ad esempio, vietare i sistemi di AI potenti (ad esempio, quelli superiori alle capacità di GPT-4) a cui viene data autonomia e capacità di agire (agency) sarebbe un buon inizio. Ciò comporterebbe sia una regolamentazione nazionale che accordi internazionali. La motivazione principale che spinge i Paesi in conflitto (come gli Stati Uniti, la Cina e la Russia) a concordare su un trattato di questo tipo è che un’AI fuori controllo (rogue) può essere pericolosa per l’intera umanità, indipendentemente dalla sua nazionalità. Qualcosa di simile alla paura dell’Armageddon nucleare che probabilmente ha motivato l’URSS e gli Stati Uniti a negoziare trattati internazionali sugli armamenti nucleari fin dagli anni Cinquanta”. 

Il paragone col nucleare

Interessante notare che questi paragoni col nucleare fatti da parte di alcuni ricercatori, imprenditori e politici stanno aumentando (come documentato da settimane in questa newsletter). A rincarare la dose negli ultimi giorni è stato il parlamentare democratico statunitense Seth Moulton, membro della commissione Usa che si occupa di forze armate e difesa. 
“Ciò che ci distingue dall’era nucleare è che non appena abbiamo sviluppato le armi nucleari, c’è stato uno sforzo massiccio per limitarne l’uso”, ha detto in una intervista a una newsletter di Politico. “Non ho visto nulla di paragonabile a questo con l’AI. È molto più pericoloso. La Cina sta investendo enormi risorse nell’AI. Putin ha detto che chi vincerà la gara dell’AI controllerà il mondo. Tutti i nostri principali avversari sono in una vera e propria gara con noi sull’AI, e quindi stiamo perdendo la capacità di impostare la definizione di questi standard internazionali”.

Non parliamo abbastanza delle responsabilità attuali

E qui torniamo necessariamente dal piano della ricerca a quello della politica.
Nella scorsa newsletter avevo raccontato l’audizione sull’AI al Senato americano, con le testimonianze, tra gli altri, di Sam Altman, il Ceo di OpenAI (la società che ha rilasciato ChatGPT, DALL-E ecc). E avevo sottolineato due aspetti: l’atmosfera amichevole e la strana propensione a chiedere regole da parte dell’industria. Ci torno questa settimana perché in effetti James Vincent su The Verge si sofferma proprio sulle due questioni. E scrive: “La cosa più insolita dell’audizione del Senato di questa settimana sull’AI è stata l’affabilità. I rappresentanti dell’industria – in primis l’amministratore delegato di OpenAI Sam Altman – si sono trovati d’accordo sulla necessità di regolamentare le nuove tecnologie di AI, mentre i politici sembravano felici di lasciare la responsabilità di redigere le regole alle aziende stesse (…)    
Ma la stessa introduzione di un sistema di licenze, come proposto da Altman e altri all’audizione, potrebbe in realtà non avere un effetto immediato, prosegue Vincent. Mentre, durante l’audizione, i rappresentanti dell’industria hanno spesso richiamato l’attenzione su ipotetici danni futuri, prestando scarsa attenzione ai problemi noti che l’AI già determina.

Gebru e il problema dei discorsi sui rischi esistenziali

Su questo tema in settimana ritorna anche la ricercatrice di AI Timnit Gebru (più volte citata in questa newsletter) intervistata dal Guardian. A proposito del problema di concentrarsi sui rischi della superintelligenza, di una fantomatica AGI (Artificial General Intelligence) e dei cosiddetti “rischi esistenziali” per l’umanità (l’AI è piena di espressioni e termini ambigui il cui utilizzo tradisce però precise visioni filosofiche-politiche) dice:“Questo tipo di conversazione attribuisce capacità d’azione autonoma, [e relativa responsabilità] (agency) a uno strumento invece che agli esseri umani che lo costruiscono”. Così si può evitare di assumersi responsabilità, prosegue Gebru. “Si dice: ‘Non sono io il problema. È lo strumento. È superpotente. Non sappiamo cosa farà’. No, il problema sei tu. State costruendo qualcosa con caratteristiche precise e lo fate per il vostro profitto. [Tutta questa impostazione] distrae e distoglie l’attenzione dai danni reali e dalle cose che dobbiamo fare. Subito”.

Una via africana all’AI?

A questo proposito segnalo una discussione molto interessante su un magazine africano, The Continent, che proprio nella sua ultima edizione si sofferma su una visione differente dell’AI. Cita l’esempio di una startup, Lelapa AI, “fatta da africani, per africani”, come sottolinea il suo sito. 
“Lelapa AI non sta cercando di creare un programma che ci surclassi tutti. Al contrario, sta creando programmi mirati che utilizzano l’apprendimento automatico e altri strumenti per rispondere a esigenze specifiche”, scrive The Continent. “Il suo primo grande progetto, Vulavula, è stato concepito per fornire servizi di traduzione e trascrizione per lingue sottorappresentate in Sudafrica. Invece di raccogliere sul web i dati di altri, Lelapa AI collabora con linguisti e comunità locali per raccogliere informazioni, permettendo agli stessi di partecipare ai profitti futuri.(…)”. Lelapa AI si differenzia dunque da “quei programmi costruiti dall’Occidente su dati provenienti dall’Occidente che rappresentano i loro valori e principi”, ha commentato una delle sue fondatrici, Jade Abbott. Che nota come le prospettive e la storia africana siano in gran parte già escluse dai dati utilizzati da OpenAI e dai modelli linguistici di grandi dimensioni di Google. “Questo perché non possono essere facilmente “raccolti dal web(scraped)”. Gran parte della storia africana è registrata oralmente o è stata distrutta dai colonizzatori; e le lingue africane non sono supportate (parlate con ChatGPT in Setswana o in isiZulu e le sue risposte saranno in gran parte prive di senso). Per Lelapa, tutto questo rappresenta un’opportunità”, scrive ancora The Continent.

Chatbot e religioni

La localizzazione di questi strumenti in una specifica nazione o cultura può assumere però contorni anche molto diversi. Rest of the World racconta di come in India siano nati vari chatbot di AI a sfondo religioso. Ad esempio, GitaGPT. “il chatbot, alimentato dalla tecnologia GPT-3, che fornisce risposte basate sulla Bhagavad Gita”, il testo sacro più diffuso fra milioni di indiani. Secondo Rest of World “alcune delle risposte generate dai bot di Gita mancano di filtri per le discriminazioni di casta, la misoginia e persino la [violazione della] legge”