1

Parla Brad Smith, presidente di Microsoft: «Così sta nascendo una nuova era dell’Intelligenza artificiale»

Parla Brad Smith, presidente di Microsoft: «Così sta nascendo una nuova era dell’Intelligenza artificiale»

Il 2023 è l’anno in cui l’Intelligenza Artificiale entrerà in una nuova Era, sarà alla portata di tutti e trasformerà l’economia, la sicurezza, il lavoro, le aziende e la vita stessa dei singoli uomini. A deciderlo sono state le Big Tech che hanno in mano i sistemi più avanzati e l’accesso ad una enorme mole di Dati. In testa a tutte Microsoft, che ha appena investito grandi capitali in OpenAI, la società più promettente, che ha creato ChatGPT. Brad Smith, sempre più spesso in Italia e in Vaticano, è il Presidente.

Lei è venuto qui per incontrare: un Capo di Stato, il Papa; una leader di Governo, Giorgia Meloni; il capo dell’Agenzia per la Cybersicurezza Nazionale, Roberto Baldoni, che prima della guerra era detto il “Cyber-Zar”. Si muove, insomma, come un’istituzione. Come responsabile dei rapporti con l’Europa ha assunto un Ambasciatore, il danese Casper Klynge. Le aziende private fino ad ora hanno avuto come obiettivo il business, il Vaticano i valori e gli Stati le politiche nazionali. Cosa è oggi Microsoft?
È un’azienda privata con un’importante missione pubblica. Fornire al vostro Paese l’infrastruttura digitale di cui ha bisogno per avanzare nell’economia, per raggiungere le persone nel sociale, per implementare l’educazione e per la difesa della Nazione. Un altro ruolo importante che abbiamo è stabilire principi etici critici che sono importanti per tutte le società del mondo.La tecnologia ha impattato negli ultimi decenni ogni settore della società. Ora stiamo aprendo le porte ad altre nuove sfide; è importante dunque fare un passo indietro e ripensare la nostra missione: far si che le persone possano raggiungere obiettivi più alti nelle loro vite. Non è una questione di opportunità ma di responsabilità.

State investendo 10 miliardi in OpenAI, l’azienda di intelligenza artificiale che con la chat GPT, in grado di replicare ad ogni domanda con una risposta che attinge a una mole immensa di dati. Avrà un impatto che probabilmente neanche Microsoft può prevedere. Come pensate di gestire il modo in cui trasformerà il lavoro, la società, la politica, la ricerca, l’economia?
Crediamo fermamente nei benefici che questa nuova generazione di AI può creare. Questi modelli di linguaggio sono l’evoluzione dell’AI. Favoriranno la trasformazione dell’economia, aumenteranno la produttività, aiuteranno intere nazioni a crescere e creare nuovi lavori. Naturalmente questa sarà anche una sfida per la società. La buona notizia è che abbiamo pensato e lavorato su questo per un certo numero di anni. Non sto dicendo che abbiamo tutte le risposte. La prima sfida è creare dei principi etici e implementarli così da poter essere fiduciosi che l’AI lavorerà per servire i valori umani. Abbiamo fatto progressi nel cercare di evitare che abbia pregiudizi, che preservi una governance umana con decisioni umane. Ma c’è un secondo livello: l’impatto sulla società. Quali lavori cambierà? Dove potrà rendere la gente più produttiva nel lavoro e nella vita personale? Come possiamo essere sicuri che l’aumento della produttività si possa tradurre in un aumento di introiti per le persone? Una delle cose da fare è distribuirla più velocemente possibile così che la gente possa avere accesso alle potenzialità che offre e la renda sempre più efficiente. Personalmente ho sperimentato la versione a cui non ha accesso il pubblico e ho imparato come trarne più valore usandola in un modo invece che in un altro; sarà nostra responsabilità come azienda, in partnership con le Università, la Scuola e i governi provvedere affinché tutti possano accedere alle capacità di cui avranno bisogno. Dobbiamo cogliere l’opportunità di imparare insieme.

Per ora ChatGPT è aperta perché è utile addestrarla, ma poi resterà gratuita? Verrà integrata in Bing, il vostro motore di ricerca per sorpassare Google?
Come tutto nella vita, è uno strumento… alcune parti resteranno gratuite, altre verranno integrate nei prodotti; nasceranno nuovi business models ma sarà una buona notizia per l’economia, per i consumatori e se l’approcceremo con il giusto senso di responsabilità come stiamo facendo, possiamo raggiungere l’obiettivo. Non voglio parlare di cosa verrà dopo, o dei possibili competitor: stiamo entrando in una nuova Era dell’AI: sarà molto più ampia e distribuita in più aziende in maniera innovativa.

Nel 2020 la Casa Bianca presentò i suoi principi per l’AI dicendo che non bisognava iper regolarla ma l’Europa è interessata proprio a creare regole per tutto il digitale. Come possiamo dunque costruire un’alleanza transatlantica basata sui dati e sulla condivisione di questi tra Europa e USA, magari includendo anche Giappone, India, Australia, Nuova Zelanda e Corea del sud in quanto paesi con valori comuni?
Prima dobbiamo capire quanto sia importante creare consenso tra le Nazioni. Dobbiamo riconoscere un comune interesse economico e di valori: pensi alle aziende, anche quelle europee e italiane: il loro futuro verrà illuminato dall’accesso all’AI e dal cloud computing. Potranno restare innovative e competitive. Hanno bisogno delle migliori tecnologie che il mondo gli possa fornire. L’altra cosa di cui hanno bisogno è muovere i dati oltre le frontiere. Non si possono più avere clienti fuori dal proprio Stato senza muovere i dati da una Nazione all’altra. Quindi dobbiamo avere un approccio comune al regolatorio. Dobbiamo creare dei guardrails pubblici per la tecnologia: delle leggi che ci rispecchino tutti. Sarà complicato ma avverrà. Quello che è importante è la potenza di calcolo. Costruire e avere a disposizione una massa di supercomputer che addestreranno questi modelli di AI; e Data Center da schierare. Per questo Microsoft sta investendo in un nuovo Data Center a Milano: possiamo servire gli italiani con un Data Center governato dalle leggi italiane. Dati che possono essere usati dai nostri 14000 business partner in modo da poter abilitare e potenziare il lavoro degli italiani.

Come possiamo noi europei costruire un sistema di difesa e di intelligence del nostro continente se tutti i sistemi sono americani? Chi gestirà i dati strategici degli italiani che finiranno nel cloud?
Oggi nessuna nazione al mondo è isolata e se così fosse sarebbe un grande errore perdere i benefici della conoscenza globale. Ugualmente ci deve essere un livello di autosufficienza e protezione.

Come possono queste cose andare insieme?
La prima cosa da fare è assicurare che i dati vadano a beneficio del proprio business e Paese. Il nostro compito è creare un’infrastruttura digitale fatta di cloud e AI che dia al Paese più di quanto prenda indietro. Che crei più profitto per le aziende locali, più crescita economica locale. Poi c’è anche un altro strato: quello della sicurezza. L’Italia è parte dell’Europa e della NATO e la NATO si estende oltre l’oceano. Anche lo sforzo di sicurezza attraversa l’Atlantico. Il nostro dovere non è solo servire l’Italia economicamente ma proteggerla in termini di Sicurezza Nazionale. Queste sono le nostre motivazioni per lavorare sodo nell’incontrare i bisogni del Governo italiano, inclusa l’Agenzia di Sicurezza Nazionale.

È vero che Microsoft ha assunto molti esperti dell’ ICT fuggiti dall’Ucraina in Polonia?
Abbiamo assunto un certo numero di ucraini; anche prima della guerra. Ora per noi conta proteggere le persone che sono in Ucraina, il Governo, i Militari e la Nazione. Abbiamo fornito loro più tecnologia di qualsiasi altra azienda investendo più di 400 milioni di euro. Più di quanto abbiano fatto alcuni governi. Abbiamo offerto l’infrastruttura e la protezione in cybersecurity necessaria a identificare e sconfiggere i cyberattack in tempo reale. Questo è il test definitivo sulla nostra missione: non solo servire una Nazione ma proteggerla.

A Washington si è parlato di un piano Marshall per l’Ucraina ma qualcuno ha lanciato anche l’idea di un piano Marshall per la Russia, se perde. In fondo nel secolo scorso fu fatto per i Paesi che avevano perso, non per quelli che avevano vinto… che ne pensa?
Io penso due cose: la prima è che il mondo ha bisogno di un piano Marshall per l’Ucraina, che è una Nazione straordinaria. Noi Americani abbiamo ricostruito l’Europa Occidentale dopo la seconda guerra mondiale e possiamo aiutare a ricostruire di nuovo ora. Allo stesso tempo dobbiamo tenere ben presente che questa guerra è stata voluta dal governo russo ma non tutte la popolazione russa deve essere considerata nemica. Ci sono scuole, ospedali, individui innocenti che hanno bisogno di medicine che possono arrivare solo dall’Europa dell’Ovest, dall’Inghilterra, dall’America. Dovremmo aiutarli quando la guerra finirà e dovranno ricostruire, se verranno vinti dall’Ucraina.

In Vaticano ha firmato una “Rome Call for AI Ethics”, documento sottoscritto dalle tre religioni abramitiche promosso dalla Pontificia Accademia per la Vita. L’Intelligenza Artificiale però rende sempre più importanti agenti non Umani che agiscono in tutti i segmenti della della società. Questo non mette in crisi proprio l’Umanesimo, cioè l’idea dell’Uomo al centro di tutto?
Abbiamo l’opportunità di prendere il meglio della filosofia occidentale, dell’antica Roma, della filosofia greca, del Rinascimento, che vede l’uomo al centro, e connetterlo con un’altra prospettiva che ci si presenta oggi. Papa Francesco ha dato un contributo a questa visione, sottolineando il ruolo che abbiamo come esseri umani nel proteggere l’ambiente inteso come Tutto: la nostra casa comune. Possiamo imparare dal confucianesimo e dalle religioni orientali ma non dobbiamo sottovalutare il contributo dello spirito della filosofia occidentale che ci offre una grande opportunità in questa prospettiva.

Come pensa che possiamo strutturare un sistema etico dell’AI che protegga le persone?
C’è un consenso emergente sui principi che devono guidare l’AI: evitare i pregiudizi, essere inclusiva, proteggere la privacy e la sicurezza, essere trasparente così che la gente capisca cosa l’AI stia facendo e resti rispettosa delle decisioni prese dagli esseri umani. Noi abbiamo creato un’azienda fondata su criteri di policy dell’AI responsabili. Testiamo i prodotti, addestriamo gli ingegneri per rispettare questi principi. Allo stesso tempo portare qui persone da tutto il mondo di differenti filosofie e religioni come fa il Vaticano consente di pensare ad una cultura che includa le differenze filosofiche tra Nazioni e che metta comunque l’umano al centro.

Di cosa ha parlato con la presidente Meloni e con Baldoni?
In conclusione dobbiamo pensare a due cose: Volete avere accesso alle migliori tecnologie del mondo che possano servire la Nazione e gli italiani? La risposta dovrebbe essere sì perché così si possono creare i migliori fondamenti digitali non solo per la competizione economica ma anche per la difesa nazionale. E poi: bisogna avere fiducia che questa tecnologia serva i bisogni degli italiani, i valori italiani, i valori occidentali, essendo soggetta alla giusta supervisione e controllo. Nel rispetto delle leggi. Tutto questo può essere utilizzato ed è a disposizione delle vostre aziende, del Governo e delle ONG come fondamento dei bisogni di questa economia e questa società. Questo è l’impegno che ci siamo presi. Non dico che sarà facile. Per questo vengo a Roma così spesso: c’è bisogno di presenza, conoscenza e dialogo. E attraverso questo dialogo possiamo muoverci verso il futuro insieme.

È quello che ha detto alla Meloni?
È quello che ho detto a tutti quelli con cui ho avuto l’opportunità di parlare.




Scandalo allevamenti Fileni: B Lab toglierà la certificazione etica all’azienda dopo il servizio di Report?

Scandalo allevamenti Fileni: B Lab toglierà la certificazione etica all’azienda dopo il servizio di Report?

Avrete tutti sentito parlare di quanto emerso nell’ultima puntata di Report riguardo agli allevamenti di polli (anche biologici) del marchio Fileni. Vi abbiamo spiegato i contenuti principali di quanto andato in onda nel servizio su Rai 3 in un precedente articolo, che riporta anche la replica dell’azienda: Allevamenti Fileni di nuovo nella bufera: polli ammassati e uccisi brutalmente (anche negli allevamenti bio)

La questione non si è però esaurita con la trasmissione che, come era inevitabile, ha sollevato un vero e proprio polverone, con tanti utenti che sui social hanno fatto sapere di non voler più acquistare carne proveniente dagli allevamenti Fileni.

Colpiti da quanto emerso dal servizio sono stati anche gli enti certificatori. In particolare parliamo di B Lab, che assegna la prestigiosa certificazione B Corp, che circa un anno fa Fileni si vantava di aver ottenuto, prima tra i produttori di carne a livello globale.

La certificazione B Corp viene concessa alle aziende che:

Si impegnano a misurare e considerare le proprie performance ambientali e sociali con la stessa attenzione tradizionalmente riservata ai risultati economici e che credono nel business come forza positiva che si impegna per produrre valore per la biosfera e la società.

B Lab potrebbe togliere la certificazione a Fileni?

Secondo quanto riporta una dichiarazione di B Lab, l’ente certificatore ha avviato nei confronti di Fileni “una revisione per eventuali casi di cattiva condotta“. Come si legge infatti:

Prima della messa in onda dell’episodio, a seguito di una segnalazione formale ricevuta negli scorsi mesi attraverso il modulo di reclamo sulla Certificazione B Corp (B Corp Certification Complaint Form) e all’uscita di alcuni articoli riguardanti l’azienda in questione, abbiamo dato il via a una revisione ufficiale delle accuse a Fileni, come previsto dalla nostra procedura di reclamo (Complaints Process). Gli elementi emersi nel corso della puntata di Report del 9 gennaio sono già stati recepiti e saranno considerati nell’ambito del processo di valutazione in corso.

Quindi qualcuno aveva già segnalato pratiche scorrette di Fileni, ben prima della messa in onda di Report. Ma a questo punto cosa può succedere?

B Lab si prenderà un tempo di 90 giorni per decidere se eventualmente vi sono i presupposti e le prove per revocare la certificazione ma i tempi potrebbero allungarsi. Come spiega l’ente certificatore:

Ci proponiamo di concludere tutte le revisioni iniziali dei reclami entro 90 giorni dal ricevimento e, se è necessaria una revisione da parte dello Standards Advisory Council, di risolvere il caso entro altri 90 giorni. Questo lasso di tempo minimo è fondamentale per garantire un processo approfondito e oggettivo e arrivare a una decisione equa.

Inoltre B Lab sottolinea che:

La procedura ufficiale di reclamo di B Lab viene utilizzata per identificare eventuali casi di cattiva condotta o di false dichiarazioni da parte delle B Corp ed è parte fondamentale del processo di revisione e verifica per mantenere l’integrità e il valore della certificazione B Corp. I reclami possono essere risolti con specifiche modalità, che vanno dall’obbligo per l’azienda di divulgare pubblicamente i problemi emersi sul proprio profilo, alla messa in campo di misure correttive o, negli scenari più critici, alla revoca della certificazione.

Staremo a vedere quindi cosa emergerà dall’indagine di B Lab.




Intelligenza artificiale, ora Dall-E 2 sa anche creare le proteine: i possibili sviluppi

Intelligenza artificiale, ora Dall-E 2 sa anche creare le proteine: i possibili sviluppi

Usare e riutilizzare ciò che già c’è per ottenere qualcosa di più evoluto è una delle filosofie cardine di ogni branca dell’ingegneria. Lasciando che questa forma mentis entri nei laboratori della farmacopea si ottengono risultati interessanti. In questo caso, la tecnologia su cui si erige Dall-E 2 è usata alcune da aziende e atenei americani per realizzare proteine diverse da quelle esistenti.

Non desta stupore che Dall-E 2, sistema di Intelligenza artificiale (AI) creato nei laboratori della statunitense OpenAI e capace di realizzare immagini partendo da un testo, si stia prestando a diversi settori, tra i quali la moda e la cinematografia, fornendo immagini strane e meravigliose on request.

È molto più sensazionale che la stessa tecnologia alla base di Dall-E 2 sia stata recentemente utilizzata in alcuni laboratori di biotecnologia, che hanno iniziato a utilizzare questo tipo di AI generativa per creare nuove tipologie di proteine non presenti in natura.

I primi annunci

Due aziende del settore hanno recentemente annunciato, in maniera quasi parallela e separata, l’avvio di programmi che utilizzano modelli di diffusione per generare progetti di nuove proteine con una precisione mai vista prima. Generate Biomedicines, una startup a stelle e strisce con sede a Somerville, Massachusetts, ha presentato un programma chiamato Chroma che l’azienda afferma essere il Dall-E 2 della biologia.

Allo stesso tempo, un team statunitense della University of Washington ha realizzato un programma parimenti simile a Dall-E 2: RoseTTAFold Diffusion. In quest’ultimo caso è stato dimostrato che il modello è stato in grado di generare progetti per nuove proteine che possono poi essere realizzate in laboratorio, tutte diverse da quelle esistenti.

Questi generatori artificiali di proteine possono essere indirizzati a produrre protidi con proprietà specifiche, con forme, dimensioni e funzioni diverse. In effetti, è possibile creare nuove proteine per un determinato fine, come può essere lo sviluppo di nuovi farmaci più efficaci di quelli esistenti.

Le proteine sono i “mattoni” fondamentali che costituiscono gli esseri viventi. Negli animali (e, quindi, nell’uomo) sono deputate, per esempio, a digerire il cibo, a contrarre i muscoli e a rilevare la luce. Le proteine sono i “bersagli” principali dei farmaci, quando ci si ammala svolgono un ruolo importante nel sistema immunitario e, molti dei farmaci più recenti, sono proprio a base di proteine. Attualmente chi progetta farmaci deve attingere a un elenco di ingredienti composto da proteine naturali. L’obiettivo della generazione di proteine mediante AI è quello di estendere questo elenco con un complesso quasi infinito di proteine progettate artificialmente.

L’innovazione

Va da sé che le tecniche alla base della progettazione di queste proteine non sono nuove. Tuttavia, gli approcci precedenti sono stati più lenti e non sono stati in grado di progettare proteine di grandi dimensioni o complessi proteici (macchine molecolari composte da più proteine accoppiate tra loro). E queste proteine sono spesso cruciali per il trattamento di determinate malattie.

Chroma e RoseTTAFold Diffusion, peraltro, non sono nemmeno il primo esempio di utilizzo di modelli di diffusione per la generazione di proteine. Entrambe sono, però, classificabili come i primi programmi completi in grado di produrre progetti precisi per un’ampia varietà di proteine.

I modelli di diffusione di proteine sono reti neurali (che riflettono quelle umane) addestrate a rimuovere le perturbazioni casuali aggiunte loro da diversi input. Dato un insieme casuale di pixel, un modello di diffusione cerca di trasformarlo in un’immagine riconoscibile.

In Chroma, il rumore viene aggiunto disfacendo le catene di aminoacidi di cui è composta una proteina. Dato un gruppo casuale di queste catene, Chroma cerca di metterle insieme per formare, appunto, una proteina. Guidato da vincoli specifici sull’aspetto del risultato, Chroma può generare nuove proteine con proprietà specifiche.

Con RoseTTAFold Diffusion, invece, la partita si gioca diversamente. Il team della University of Washington adotta un approccio diverso ma con risultati finali simili. Il proprio modello di diffusione parte da una struttura ancora più confusa. Un’altra differenza fondamentale è che RoseTTAFold Diffusion utilizza le informazioni su come i pezzi di una proteina si incastrano tra loro, fornite da una rete neurale separata addestrata a prevedere la struttura delle proteine (come fa AlphaFold di DeepMind). E tutto ciò guida il processo generativo complessivo.

I risultati ottenuti

Peraltro, sia Chroma che RoseTTAFold Diffusion mostrano una serie impressionante di risultati. Entrambi i sistemi sono in grado di generare proteine con diversi gradi di simmetria, tra cui proteine circolari, triangolari o esagonali.

Per illustrare la versatilità del loro programma, Chroma ha generato proteine a forma delle ventisei lettere dell’alfabeto (latino) e a forma dei numeri da zero a dieci. Entrambi i team, però, possono anche generare pezzi di proteina con un’unica forma, anche abbinando nuove parti di proteine a strutture esistenti. Certo è che la maggior parte di queste nuove strutture artificiali, non avrebbe alcuna utilità nella pratica (siamo ovviamente ancora agli albori). Ma, come si è detto, poiché la funzione di una proteina è determinata dalla sua forma, è fondamentale poter generare strutture diverse on request.

Ovviamente, generare strani progetti a macchina è una cosa magari lo si fa per testare a fondo il sistema. Altra cosa è trasformare questi progetti in “proteine reali” e, quindi, in farmaci.

Le verifiche

Per verificare se Chroma possa produrre progetti effettivamente realizzabili, Generate Biomedicines ha preso sequenze di alcuni dei suoi progetti (stringhe di aminoacidi che compongono la proteina) e le ha sottoposte a un altro programma di Intelligenza artificiale. Il team di Somerville ha scoperto che il 55% di tali sequenze ripiega nella struttura generata da Chroma, il che suggerisce che si tratta di progetti per proteine potenzialmente realizzabili.

Il team della University of Washington ha eseguito un test simile, anche se – stando a ciò che lo stesso ha dichiarato – si è spinto molto più in là di Generate Biomedicines nella valutazione del proprio modello. Per il team della University of Washington, il risultato principale è la generazione di una nuova proteina che si attacca all’ormone paratiroideo, che controlla i livelli di calcio nel sangue. Stando sempre a quanto dichiarato, a RoseTTAFold Diffusion è stato fornito un ormone e nient’altro, con la richiesta di creare una proteina che si legasse ad esso.

Quando a Seattle (dove ha sede la University of Washington) hanno testato la nuova proteina in laboratorio, hanno scoperto che la stessa si legava all’ormone in modo più stretto di qualsiasi altra cosa che avrebbe potuto essere generata con altri metodi computazionali.

Da Generate Biomedicines si riconosce che l’invenzione di nuove proteine è solo il primo passo di molti altri. In fin dei conti la stessa azienda opera nel settore farmaceutico e ciò che conta realmente è riuscire a produrre farmaci che funzionino. I farmaci a base di proteine devono essere prodotti in grandi quantità, poi testati in laboratorio e infine somministrati a esseri umani. Tutto questo può richiedere anni.

Se si accelerasse questo processo, anche in una sola di queste fasi, il mondo intero ne beneficerebbe nel medio-lungo termine. Vedremo l’evolversi della materia, nei prossimi mesi, a cosa ci porterà.




FIRMATO DALLE TRE GRANDI RELIGIONI MONOTEISTE UNO STORICO APPELLO PER LO SVILUPPO ETICO DELL’INTELLIGENZA ARTIFICIALE

FIRMATO DALLE TRE GRANDI RELIGIONI MONOTEISTE UNO STORICO APPELLO PER LO SVILUPPO ETICO DELL’INTELLIGENZA ARTIFICIALE

Lo sviluppo etico dell’intelligenza artificiale è stato il tema dell’incontro che si è tenuto martedì in Vaticano, promosso dalla Fondazione vaticana RenAIssance, dal Forum per la Pace di Abu Dhabi e dalla Commissione per il dialogo interreligioso del Gran Rabbinato di Israele, e che ha visto la firma della Rome Call for AI Ethics da parte dei rappresentanti delle tre religioni abramitiche: l’ebraismo, il cristianesimo e l’islam.

Il rabbino capo Eliezer Simha Weisz, membro del Consiglio del Gran Rabbinato di Israele, l’arcivescovo Vincenzo Paglia, presidente della Pontificia Accademia per la Vita e della Fondazione RenAIssance, e Shaykh Al Mahfoudh Bin Bayyah, Segretario Generale del Forum per la Pace di Abu Dhabi, hanno aderito all’appello messo a punto nel febbraio del 2020 e sottoscritto da società come Microsoft e IBM, dalla FAO e da rappresentanti del Governo italiano. Secondo il Rome Call le Big Tech si impegnano a seguire i principi di trasparenza, inclusione, responsabilità, e imparzialità nello sviluppo dell’intelligenza artificiale.

“L’ebraismo esalta la saggezza dell’umanità, creata a immagine e somiglianza di D-o, che si manifesta in generale nell’innovazione umana e in particolare nell’intelligenza artificiale”, ha dichiarato il rabbino Weisz.

“La firma della Rome Call da parte di leader religiosi insieme ad ebrei e musulmani e la richiesta congiunta di un’algoretica che guidi la progettazione dell’intelligenza artificiale parla della necessità sempre più urgente di costruire percorsi di pace, di rispetto reciproco, di dialogo e di comunità” ha sottolineato l’arcivescovo Paglia.

Lo sceicco Abdallah bin Bayyah si è soffermato sullo scopo delle religioni.  “Le religioni e le leggi, nel loro sforzo di promuovere il benessere e l’accompagnamento, si preoccupano di assicurare che le innovazioni e le conquiste scientifiche e tecnologiche tengano conto di quadri etici che preservino la dignità e la nobiltà dell’uomo, e di fatto ne proteggano la vita” ha affermato lo sceicco.

Tra i partecipanti a questo storico incontro, insieme ai rappresentati di Microsoft e di IBM anche il rabbino David Rosen, direttore Affari Religiosi dell’American Jewish Committee, e l’imam Yahya Pallavicini, vice presidente Comunità Religiosa Islamica Italiana. Le delegazioni sono state ricevute da papa Francesco che ha rinnovato il suo interesse nei confronti di uno sviluppo etico dell’intelligenza artificiale, sottolineando come “la riflessione etica sull’uso degli algoritmi, sia sempre più presente, oltre che nel dibattito pubblico, anche nello sviluppo delle soluzioni tecniche”.

Anche i rappresentanti delle maggiori società tecnologiche hanno dato interessanti spunti di riflessione sul ruolo dell’intelligenza artificiale nel prossimo futuro, nel quale la tecnologia progredirà in maniera esponenziale. “Dobbiamo garantire che l’AI rimanga uno strumento creato dall’umanità per l’umanità”, ha sottolineato Brad Smith, Vice Chair e Presidente di Microsoft.  “Il fatto che le grandi religioni monoteiste si siano riunite per riflettere e agire sulle implicazioni dello sviluppo di tecnologie sempre più avanzate, è di importanza storica”, ha aggiunto Darío Gil, Senior Vice President e Direttore della Ricerca di IBM.




Le scuole di Seattle fanno causa a Instagram e TikTok: stanno avvelenando i nostri ragazzi a scopo di lucro

Le scuole di Seattle fanno causa a Instagram e TikTok: stanno avvelenando i nostri ragazzi a scopo di lucro

Il distretto scolastico della città americana ha presentato denuncia contro Meta, Google, Snap e ByteDance perché «hanno sfruttato per profitto i cervelli vulnerabili dei giovani»

Il caso al momento pare essere unico nel suo genere, pur essendo accompagnato dalle centinaia di cause intentate dalle singole famiglie. Ma quanto portato avanti dal distretto scolastico di Seattle, metropoli del nord-ovest americano sede di Amazon e Microsoft, potrebbe essere l’inizio di un nuovo movimento. In sostanza tutte le scuole pubbliche della città hanno intentato causa contro i giganti dei social media: Meta (Facebook, Instagram, WhatsApp), Google (YouTube), TikTok (l’azienda cinese dietro la piattaforma si chiama ByteDance), Snap, la società che controlla SnapChat. Perché? Nella denuncia si va direttamente al sodo: «Gli imputati hanno sfruttato con successo i cervelli vulnerabili dei giovani, agganciando decine di milioni di studenti in tutto il Paese attraverso un circuito vizioso di risposte positive sui social media che porta all’uso eccessivo e all’abuso delle piattaforme. Peggio ancora», prosegue il documento legale, «il contenuto che gli imputati propongono e indirizzano ai giovani è troppo spesso dannoso e teso allo sfruttamento per interessi economici». In sostanza, riassumendo quanto segue nelle 91 pagine che compongono la denuncia, le aziende sopra citate sono portate davanti al giudice per aver «avvelenato i giovani» con una vera e propria dipendenza da social media, con il risultato che le scuole non possono adempiere correttamente alla propria missione educativa perché un numero sempre maggiore di studenti soffre d’ansia, depressione e altri problemi psicologici legati o acuiti dall’utilizzo delle piattaforme per la socialità digitale.

Come detto, l’iniziativa del distretto di Seattle – un centinaio di scuole per un totale di circa 50 mila ragazzi e ragazze – appare unica nel suo genere. Ma fa seguito a un biennio, 2021 e 2022, che ha visto centinaia di cause intentate dalle famiglie americane contro le firme dei social media, secondo Bloomberg almeno una dozzina delle quali legate a casi di suicidio tra i più giovani. Da un lato dunque c’è senz’altro l’uscita dal periodo del lockdown – momento di isolamento, vissuto da molti tutto in digitale, che si è rivelato spesso devastante per la generazione più giovane -, e dall’altro c’è stata la serie di inchieste portate avanti dal Wall Street Journal, i cosiddetti «Facebook Files» nati a seguito delle rivelazioni fatte dall’ex dipendente di Mark Zuckerberg, Frances Haugen

Le scuole di Seattle fanno causa a Instagram e TikTok: stanno avvelenando i nostri ragazzi
Frances Haugen durante l’audizione in Senato

Tra le accuse di Haugen c’era l’affermazione secondo cui la società (Meta, dunque) stava consapevolmente depredando i giovani vulnerabili per aumentare i profitti. Nello specifico, gli articoli del WSJ avevano puntato il dito contro l’algoritmo di Facebook – che sarebbe intenzionalmente premiante dei contenuti divisivi – e su una ricerca interna all’azienda, tenuta poi segreta, che mostrava come l’utilizzo di Instagram può portare a pericolosi effetti negativi. Una slide della ricerca – non a caso risalente al marzo 2020, momento di inizio delle misure di isolamento per limitare la pandemia – raccontava di come un terzo delle ragazze adolescenti non a proprio agio con il proprio fisico ritenessero che Instagram le facesse sentire ancora peggio. Il Congresso ha tenuto diverse udienze, a seguito delle quali per esempio Instagram ha introdotto i controlli parentali sull’app. E sono state avviate indagini. Ma la linea di difesa delle aziende – basata sul Communications Decency Act – si è sempre trincerata dietro l’immunità dai reclami su contenuti pubblicati dagli utenti. E su cui le piattaforme avrebbero una responsabilità relativa. Una legge del 1996 che ha visto diversi repubblicani e democratici d’accordo per l’urgenza di una riforma. Il presidente Biden, in occasione del discorso sullo Stato dell’Unione, aveva implorato il Congresso di «ritenere le piattaforme di social media responsabili dell’esperimento nazionale che stanno conducendo sui nostri figli a scopo di lucro».