Intelligenza artificiale, ora Dall-E 2 sa anche creare le proteine: i possibili sviluppi

Intelligenza artificiale, ora Dall-E 2 sa anche creare le proteine: i possibili sviluppi

Usare e riutilizzare ciò che già c’è per ottenere qualcosa di più evoluto è una delle filosofie cardine di ogni branca dell’ingegneria. Lasciando che questa forma mentis entri nei laboratori della farmacopea si ottengono risultati interessanti. In questo caso, la tecnologia su cui si erige Dall-E 2 è usata alcune da aziende e atenei americani per realizzare proteine diverse da quelle esistenti.

Non desta stupore che Dall-E 2, sistema di Intelligenza artificiale (AI) creato nei laboratori della statunitense OpenAI e capace di realizzare immagini partendo da un testo, si stia prestando a diversi settori, tra i quali la moda e la cinematografia, fornendo immagini strane e meravigliose on request.

È molto più sensazionale che la stessa tecnologia alla base di Dall-E 2 sia stata recentemente utilizzata in alcuni laboratori di biotecnologia, che hanno iniziato a utilizzare questo tipo di AI generativa per creare nuove tipologie di proteine non presenti in natura.

I primi annunci

Due aziende del settore hanno recentemente annunciato, in maniera quasi parallela e separata, l’avvio di programmi che utilizzano modelli di diffusione per generare progetti di nuove proteine con una precisione mai vista prima. Generate Biomedicines, una startup a stelle e strisce con sede a Somerville, Massachusetts, ha presentato un programma chiamato Chroma che l’azienda afferma essere il Dall-E 2 della biologia.

Allo stesso tempo, un team statunitense della University of Washington ha realizzato un programma parimenti simile a Dall-E 2: RoseTTAFold Diffusion. In quest’ultimo caso è stato dimostrato che il modello è stato in grado di generare progetti per nuove proteine che possono poi essere realizzate in laboratorio, tutte diverse da quelle esistenti.

Questi generatori artificiali di proteine possono essere indirizzati a produrre protidi con proprietà specifiche, con forme, dimensioni e funzioni diverse. In effetti, è possibile creare nuove proteine per un determinato fine, come può essere lo sviluppo di nuovi farmaci più efficaci di quelli esistenti.

Le proteine sono i “mattoni” fondamentali che costituiscono gli esseri viventi. Negli animali (e, quindi, nell’uomo) sono deputate, per esempio, a digerire il cibo, a contrarre i muscoli e a rilevare la luce. Le proteine sono i “bersagli” principali dei farmaci, quando ci si ammala svolgono un ruolo importante nel sistema immunitario e, molti dei farmaci più recenti, sono proprio a base di proteine. Attualmente chi progetta farmaci deve attingere a un elenco di ingredienti composto da proteine naturali. L’obiettivo della generazione di proteine mediante AI è quello di estendere questo elenco con un complesso quasi infinito di proteine progettate artificialmente.

L’innovazione

Va da sé che le tecniche alla base della progettazione di queste proteine non sono nuove. Tuttavia, gli approcci precedenti sono stati più lenti e non sono stati in grado di progettare proteine di grandi dimensioni o complessi proteici (macchine molecolari composte da più proteine accoppiate tra loro). E queste proteine sono spesso cruciali per il trattamento di determinate malattie.

Chroma e RoseTTAFold Diffusion, peraltro, non sono nemmeno il primo esempio di utilizzo di modelli di diffusione per la generazione di proteine. Entrambe sono, però, classificabili come i primi programmi completi in grado di produrre progetti precisi per un’ampia varietà di proteine.

I modelli di diffusione di proteine sono reti neurali (che riflettono quelle umane) addestrate a rimuovere le perturbazioni casuali aggiunte loro da diversi input. Dato un insieme casuale di pixel, un modello di diffusione cerca di trasformarlo in un’immagine riconoscibile.

In Chroma, il rumore viene aggiunto disfacendo le catene di aminoacidi di cui è composta una proteina. Dato un gruppo casuale di queste catene, Chroma cerca di metterle insieme per formare, appunto, una proteina. Guidato da vincoli specifici sull’aspetto del risultato, Chroma può generare nuove proteine con proprietà specifiche.

Con RoseTTAFold Diffusion, invece, la partita si gioca diversamente. Il team della University of Washington adotta un approccio diverso ma con risultati finali simili. Il proprio modello di diffusione parte da una struttura ancora più confusa. Un’altra differenza fondamentale è che RoseTTAFold Diffusion utilizza le informazioni su come i pezzi di una proteina si incastrano tra loro, fornite da una rete neurale separata addestrata a prevedere la struttura delle proteine (come fa AlphaFold di DeepMind). E tutto ciò guida il processo generativo complessivo.

I risultati ottenuti

Peraltro, sia Chroma che RoseTTAFold Diffusion mostrano una serie impressionante di risultati. Entrambi i sistemi sono in grado di generare proteine con diversi gradi di simmetria, tra cui proteine circolari, triangolari o esagonali.

Per illustrare la versatilità del loro programma, Chroma ha generato proteine a forma delle ventisei lettere dell’alfabeto (latino) e a forma dei numeri da zero a dieci. Entrambi i team, però, possono anche generare pezzi di proteina con un’unica forma, anche abbinando nuove parti di proteine a strutture esistenti. Certo è che la maggior parte di queste nuove strutture artificiali, non avrebbe alcuna utilità nella pratica (siamo ovviamente ancora agli albori). Ma, come si è detto, poiché la funzione di una proteina è determinata dalla sua forma, è fondamentale poter generare strutture diverse on request.

Ovviamente, generare strani progetti a macchina è una cosa magari lo si fa per testare a fondo il sistema. Altra cosa è trasformare questi progetti in “proteine reali” e, quindi, in farmaci.

Le verifiche

Per verificare se Chroma possa produrre progetti effettivamente realizzabili, Generate Biomedicines ha preso sequenze di alcuni dei suoi progetti (stringhe di aminoacidi che compongono la proteina) e le ha sottoposte a un altro programma di Intelligenza artificiale. Il team di Somerville ha scoperto che il 55% di tali sequenze ripiega nella struttura generata da Chroma, il che suggerisce che si tratta di progetti per proteine potenzialmente realizzabili.

Il team della University of Washington ha eseguito un test simile, anche se – stando a ciò che lo stesso ha dichiarato – si è spinto molto più in là di Generate Biomedicines nella valutazione del proprio modello. Per il team della University of Washington, il risultato principale è la generazione di una nuova proteina che si attacca all’ormone paratiroideo, che controlla i livelli di calcio nel sangue. Stando sempre a quanto dichiarato, a RoseTTAFold Diffusion è stato fornito un ormone e nient’altro, con la richiesta di creare una proteina che si legasse ad esso.

Quando a Seattle (dove ha sede la University of Washington) hanno testato la nuova proteina in laboratorio, hanno scoperto che la stessa si legava all’ormone in modo più stretto di qualsiasi altra cosa che avrebbe potuto essere generata con altri metodi computazionali.

Da Generate Biomedicines si riconosce che l’invenzione di nuove proteine è solo il primo passo di molti altri. In fin dei conti la stessa azienda opera nel settore farmaceutico e ciò che conta realmente è riuscire a produrre farmaci che funzionino. I farmaci a base di proteine devono essere prodotti in grandi quantità, poi testati in laboratorio e infine somministrati a esseri umani. Tutto questo può richiedere anni.

Se si accelerasse questo processo, anche in una sola di queste fasi, il mondo intero ne beneficerebbe nel medio-lungo termine. Vedremo l’evolversi della materia, nei prossimi mesi, a cosa ci porterà.




FIRMATO DALLE TRE GRANDI RELIGIONI MONOTEISTE UNO STORICO APPELLO PER LO SVILUPPO ETICO DELL’INTELLIGENZA ARTIFICIALE

FIRMATO DALLE TRE GRANDI RELIGIONI MONOTEISTE UNO STORICO APPELLO PER LO SVILUPPO ETICO DELL’INTELLIGENZA ARTIFICIALE

Lo sviluppo etico dell’intelligenza artificiale è stato il tema dell’incontro che si è tenuto martedì in Vaticano, promosso dalla Fondazione vaticana RenAIssance, dal Forum per la Pace di Abu Dhabi e dalla Commissione per il dialogo interreligioso del Gran Rabbinato di Israele, e che ha visto la firma della Rome Call for AI Ethics da parte dei rappresentanti delle tre religioni abramitiche: l’ebraismo, il cristianesimo e l’islam.

Il rabbino capo Eliezer Simha Weisz, membro del Consiglio del Gran Rabbinato di Israele, l’arcivescovo Vincenzo Paglia, presidente della Pontificia Accademia per la Vita e della Fondazione RenAIssance, e Shaykh Al Mahfoudh Bin Bayyah, Segretario Generale del Forum per la Pace di Abu Dhabi, hanno aderito all’appello messo a punto nel febbraio del 2020 e sottoscritto da società come Microsoft e IBM, dalla FAO e da rappresentanti del Governo italiano. Secondo il Rome Call le Big Tech si impegnano a seguire i principi di trasparenza, inclusione, responsabilità, e imparzialità nello sviluppo dell’intelligenza artificiale.

“L’ebraismo esalta la saggezza dell’umanità, creata a immagine e somiglianza di D-o, che si manifesta in generale nell’innovazione umana e in particolare nell’intelligenza artificiale”, ha dichiarato il rabbino Weisz.

“La firma della Rome Call da parte di leader religiosi insieme ad ebrei e musulmani e la richiesta congiunta di un’algoretica che guidi la progettazione dell’intelligenza artificiale parla della necessità sempre più urgente di costruire percorsi di pace, di rispetto reciproco, di dialogo e di comunità” ha sottolineato l’arcivescovo Paglia.

Lo sceicco Abdallah bin Bayyah si è soffermato sullo scopo delle religioni.  “Le religioni e le leggi, nel loro sforzo di promuovere il benessere e l’accompagnamento, si preoccupano di assicurare che le innovazioni e le conquiste scientifiche e tecnologiche tengano conto di quadri etici che preservino la dignità e la nobiltà dell’uomo, e di fatto ne proteggano la vita” ha affermato lo sceicco.

Tra i partecipanti a questo storico incontro, insieme ai rappresentati di Microsoft e di IBM anche il rabbino David Rosen, direttore Affari Religiosi dell’American Jewish Committee, e l’imam Yahya Pallavicini, vice presidente Comunità Religiosa Islamica Italiana. Le delegazioni sono state ricevute da papa Francesco che ha rinnovato il suo interesse nei confronti di uno sviluppo etico dell’intelligenza artificiale, sottolineando come “la riflessione etica sull’uso degli algoritmi, sia sempre più presente, oltre che nel dibattito pubblico, anche nello sviluppo delle soluzioni tecniche”.

Anche i rappresentanti delle maggiori società tecnologiche hanno dato interessanti spunti di riflessione sul ruolo dell’intelligenza artificiale nel prossimo futuro, nel quale la tecnologia progredirà in maniera esponenziale. “Dobbiamo garantire che l’AI rimanga uno strumento creato dall’umanità per l’umanità”, ha sottolineato Brad Smith, Vice Chair e Presidente di Microsoft.  “Il fatto che le grandi religioni monoteiste si siano riunite per riflettere e agire sulle implicazioni dello sviluppo di tecnologie sempre più avanzate, è di importanza storica”, ha aggiunto Darío Gil, Senior Vice President e Direttore della Ricerca di IBM.




Le scuole di Seattle fanno causa a Instagram e TikTok: stanno avvelenando i nostri ragazzi a scopo di lucro

Le scuole di Seattle fanno causa a Instagram e TikTok: stanno avvelenando i nostri ragazzi a scopo di lucro

Il distretto scolastico della città americana ha presentato denuncia contro Meta, Google, Snap e ByteDance perché «hanno sfruttato per profitto i cervelli vulnerabili dei giovani»

Il caso al momento pare essere unico nel suo genere, pur essendo accompagnato dalle centinaia di cause intentate dalle singole famiglie. Ma quanto portato avanti dal distretto scolastico di Seattle, metropoli del nord-ovest americano sede di Amazon e Microsoft, potrebbe essere l’inizio di un nuovo movimento. In sostanza tutte le scuole pubbliche della città hanno intentato causa contro i giganti dei social media: Meta (Facebook, Instagram, WhatsApp), Google (YouTube), TikTok (l’azienda cinese dietro la piattaforma si chiama ByteDance), Snap, la società che controlla SnapChat. Perché? Nella denuncia si va direttamente al sodo: «Gli imputati hanno sfruttato con successo i cervelli vulnerabili dei giovani, agganciando decine di milioni di studenti in tutto il Paese attraverso un circuito vizioso di risposte positive sui social media che porta all’uso eccessivo e all’abuso delle piattaforme. Peggio ancora», prosegue il documento legale, «il contenuto che gli imputati propongono e indirizzano ai giovani è troppo spesso dannoso e teso allo sfruttamento per interessi economici». In sostanza, riassumendo quanto segue nelle 91 pagine che compongono la denuncia, le aziende sopra citate sono portate davanti al giudice per aver «avvelenato i giovani» con una vera e propria dipendenza da social media, con il risultato che le scuole non possono adempiere correttamente alla propria missione educativa perché un numero sempre maggiore di studenti soffre d’ansia, depressione e altri problemi psicologici legati o acuiti dall’utilizzo delle piattaforme per la socialità digitale.

Come detto, l’iniziativa del distretto di Seattle – un centinaio di scuole per un totale di circa 50 mila ragazzi e ragazze – appare unica nel suo genere. Ma fa seguito a un biennio, 2021 e 2022, che ha visto centinaia di cause intentate dalle famiglie americane contro le firme dei social media, secondo Bloomberg almeno una dozzina delle quali legate a casi di suicidio tra i più giovani. Da un lato dunque c’è senz’altro l’uscita dal periodo del lockdown – momento di isolamento, vissuto da molti tutto in digitale, che si è rivelato spesso devastante per la generazione più giovane -, e dall’altro c’è stata la serie di inchieste portate avanti dal Wall Street Journal, i cosiddetti «Facebook Files» nati a seguito delle rivelazioni fatte dall’ex dipendente di Mark Zuckerberg, Frances Haugen

Le scuole di Seattle fanno causa a Instagram e TikTok: stanno avvelenando i nostri ragazzi
Frances Haugen durante l’audizione in Senato

Tra le accuse di Haugen c’era l’affermazione secondo cui la società (Meta, dunque) stava consapevolmente depredando i giovani vulnerabili per aumentare i profitti. Nello specifico, gli articoli del WSJ avevano puntato il dito contro l’algoritmo di Facebook – che sarebbe intenzionalmente premiante dei contenuti divisivi – e su una ricerca interna all’azienda, tenuta poi segreta, che mostrava come l’utilizzo di Instagram può portare a pericolosi effetti negativi. Una slide della ricerca – non a caso risalente al marzo 2020, momento di inizio delle misure di isolamento per limitare la pandemia – raccontava di come un terzo delle ragazze adolescenti non a proprio agio con il proprio fisico ritenessero che Instagram le facesse sentire ancora peggio. Il Congresso ha tenuto diverse udienze, a seguito delle quali per esempio Instagram ha introdotto i controlli parentali sull’app. E sono state avviate indagini. Ma la linea di difesa delle aziende – basata sul Communications Decency Act – si è sempre trincerata dietro l’immunità dai reclami su contenuti pubblicati dagli utenti. E su cui le piattaforme avrebbero una responsabilità relativa. Una legge del 1996 che ha visto diversi repubblicani e democratici d’accordo per l’urgenza di una riforma. Il presidente Biden, in occasione del discorso sullo Stato dell’Unione, aveva implorato il Congresso di «ritenere le piattaforme di social media responsabili dell’esperimento nazionale che stanno conducendo sui nostri figli a scopo di lucro». 




Consigli dagli algoritmi? No, grazie: la campagna di “resistenza” della FNAC

Consigli dagli algoritmi? No, grazie: la campagna di “resistenza” della FNAC

Negli ultimi decenni il dibattito riguardante l’intelligenza artificiale è incrementato, e quello che preoccupa di più dal punto di vista etico si può riassumere in tre punti fondamentali:

  • Privacy, raccolta e utilizzo dati;
  • Sostituzione lavorativa per via dell’automazione;
  • Rischio di bubble room.

In questo consenso di preoccupazione circa il potere degli algoritmi sulle nostre vite si è inserita l’iniziativa della FNAC, colosso della cultura e l’intrattenimento dal 1954, che in collaborazione con l’agenzia pubblicitaria Publicis Conseil, ha lanciato una campagna di nome “Un-recomended by an algorithm”finora considerata la prima campagna di “resistenza” all’algoritmo.

Ad ogni tipo di società, evidentemente, si può far corrispondere un tipo di macchina: le macchine semplici o dinamiche per le società di sovranità, le macchine energetiche per quelle disciplinari, le cibernetiche e i computer per le società di controllo. Ma le macchine non spiegano nulla, si devono invece analizzare i concatenamenti collettivi di cui le macchine non sono che un aspetto.

Gilles Deleuze, Controllo e divenire

Macchine, algoritmi e incertezze

Il tipo di macchina che sembra corrispondere maggiormente alla nostra società odierna è quella in grado di imparare da noi.

I nodi privacy

Per quanto riguarda le preoccupazioni legate alla privacy, cedere i dati per il perfezionamento di algoritmi che a sua volta suggeriscono e filtrano dei contenuti è stato un argomento protagonista nelle discussioni riguardanti l’etica e l’informatica giuridica. Infatti, attualmente nel nuovo GDPR pubblicato nel 2018 si regolamenta l’utilizzo dei dati proprio partendo dalla raccolta. Questo perché soprattutto i più sofisticati algoritmi di personalizzazione nonché di profilazione e targettizzazione si basano proprio sui dati che non sempre sono chiaramente visibili. Ovvero, non sempre è possibile ricavare l’informazione sul come e da dove sono stati colti.

AI e disoccupazione

Dall’altra parte, una paura costante e ripetutamente discussa è proprio guidata dal rapporto intelligenza artificiale e disoccupazione tecnologica. Quest’ultimo termine fa riferimento alla percentuale di disoccupazione dovuta ad una sostituzione della forza lavoro per le macchine, sia in modo diretto come, ad esempio, la sostituzione o mancata assunzione di cassieri per via delle macchinette di cassa automatiche, sia indiretto, come la progressiva scomparsa massiva di determinate mansioni. In effetti, considerando uno studio realizzato da Semrush, il 38% di lavoratori vedrà il proprio lavoro automatizzato entro il 2023, mentre il 13% riguarderebbe intere mansioni eliminate per via dell’intelligenza artificiale. Tuttavia, l’IA potrebbe creare almeno il 9% di nuovi lavori entro il 2025.

Guardando la situazione da un punto di vista ottimistico, si prevede che la forza lavoro che si trova a dover cambiare occupazione possa reinventarsi e trovare la vera vocazione non dovendo più fare lavori operativi e ripetitivi. Dall’altra parte, questa riqualificazione non è affatto semplice né fattibile in tempi brevi. Il che significa che per almeno un periodo di tempo ci si troverà con una capacità produttiva più alta rispetto all’effettivo potere d’acquisto della popolazione.

Fino a qui questi punti sembrano riguardare soltanto i numeri, i dati, il tasso di disoccupazione, produzione, offerta, domanda, ecc.

Il rischio di restare impantanati dentro una bubble room

Il terzo aspetto riguarda invece il rischio per gli utenti di cadere dentro una bubble room, una stanza che gira all’infinito in un loop creato dalle proprie scelte, dove l’utente si troverà a guardare sempre e solo contenuti che sono “suggeriti per lui” perché compatibili con i suoi interessi, senza avere la minima tentazione di uscirne.

Inoltre, un dubbio emerge proprio dalla base. Possono i dati rispecchiare correttamente la realtà? La risposta è no, i dati non sono altro che una descrizione semplificata e a tratti riduttiva della realtà. Parlando ad esempio delle scelte degli utenti, il fatto che siano compatibili con quello che l’algoritmo ritiene che può essere gradito dal consumatore non significa che effettivamente esso non sia propenso a gradire altro tipo di contenuti o magari provare altre categorie che non sono state prese in considerazione in base ai dati.

Fnac e la campagna contro gli algoritmi

FNAC e Publicis Conseil hanno descritto la loro campagna come “la prima campagna anti-personalizzazione che scoppia la bolla di raccomandazioni”. L’obiettivo principale di questa campagna è affermare la posizione di FNAC come un brand che ci tiene a diffondere la pluralità culturale e fare una denuncia aperta al confinamento che, secondo l’azienda, gli algoritmi provocano nei loro clienti.

La strategia utilizzata è stata disegnata in base a tre canali:

  • Tecnico: sulla base dei dati dei loro consumatori, FNAC ha applicato una strategia opposta alle logiche di profilazione, creando un algoritmo che suggerisce al consumatore contenuti che hanno soltanto un 2% di compatibilità con l’utente, generando una tendenza all’acquisto opposta basata sempre sui dati;
  • Online: La compagnia ha adottato anche un meccanismo di pubblicazione dei contenuti su Twitter che va “contro-tendenza”. Ovvero, un bot condivide tweets che hanno un contenuto culturale opposto a quelli che sono gli hashtag del momento e anche contrari a ciò che potrebbe creare più public engagement;
  • Pubblicità tradizionale: La campagna è stata anche diffusa tramite canali off-line, con manifesti distribuiti per tutto il paese che denunciano apertamente i bias degli algoritmi e esaltano l’importanza dei propri lavoratori al di sopra delle raccomandazioni dell’algoritmo, ricordando agli utenti che un algoritmo può misurare le compatibilità ma non necessariamente l’utente.

I risultati della campagna sono stati notevoli: circa 1 milione di impressioni, +35% di tasso di engagement in confronto con le classiche campagne targettizzate, e un click through rate 3 volte più alto delle precedenti campagne. La campagna è ancora in corso e sembra che la denuncia aperta del brand francese abbia avuto un certo riscontro, ma soprattutto si spera abbia provocato l’aumento della consapevolezza da parte degli utenti riguardo alle proprie scelte di consumo, almeno per quanto riguarda i prodotti culturali.

La riflessione

Quando ogni suggerimento di un algoritmo sostituisce il consiglio di un commesso dotato di qualifiche e conoscenze, non solo si crea un effetto economico dovuto alla potenziale perdita del posto di lavoro del commesso stesso, ma si rischia soprattutto di indurre il consumatore a non uscire mai dalla sua bubble room.

Tornando alle parole di Delouze citate all’inizio di questo articolo, bisogna analizzare gli effetti concatenati che le macchine provocano all’interno della nostra società: ciò significa non analizzarle soltanto come strumenti nettamente tecnici, bensì come parte della dinamica sociale. Tuttavia, nonostante i rischi siano diversi, anche le potenzialità dell’intelligenza artificiale possono essere in tante. L’IA è uno strumento, l’utilizzo e le finalità con cui viene utilizzata ne determinano il risultato.




Come viene influenzata la costruzione della nostra identità in rapporto al mondo virtuale?

Come viene influenzata la costruzione della nostra identità in rapporto al mondo virtuale?

CAROLINA: La prima questione che mi viene in mente è che gli adolescenti dell’ultima generazione sono nati con uno smartphone in mano. La società è cambiata da questo punto di vista, quindi sono cambiate le interazioni tra le persone. Per esempio, magari precedentemente ci si basava solamente sull’incontro, ci si faceva un’idea della persona conosciuta e la si reputava esaustiva. Ora c’è un’amplificazione dell’identità, di pensieri e di sfaccettature che prendi in considerazione osservando l’io virtuale degli altri. Anzi, probabilmente ci si sofferma solo su quello, in modo superficiale. Consideriamo le persone come se fossero il loro profilo. Lo stesso accade per un colloquio di lavoro: ci si conosce tramite i profili, quindi tramite l’immagine che comunichiamo. Forse siamo talmente abituati ad osservare immaginari e profili che sappiamo prontamente categorizzare e riconoscere ciò a cui dare valore. Mi chiedo quanto questo, però, possa essere una capacità e quanto, invece, possa essere un’azione superficiale. Penso che le persone siano diventate quasi delle vetrine: in continua esposizione.

MATTIA: Forse la nostra comunicazione ormai è ragionata sapendo che c’è un pubblico costante. Una volta, magari, quando un adolescente iniziava a strutturare la propria identità, prendeva spunto da un artista, un cantante, una modella, un film, un atleta o ciò che preferiva, assemblava il tutto e mano a mano costruiva la sua identità. Lo stesso forse accade anche oggi, però, penso che ci sia una differenza nel processo interiore: precedentemente ci si manifestava a distanza di tempo, dopo aver metabolizzato le proprie scelte, averle vissute. Ora, probabilmente, c’è una comunicazione istantanea del cambiamento, tramite il proprio profilo. Di conseguenza, si ricevono subito dei feedback, quando magari non si è ancora pronti. Le persone tendono a recepire e notare subito i cambiamenti. Se il feedback è negativo, si rischia di essere prontamente sfiduciati, bloccati o incerti, magari pensando che non sia la strada giusta. Questo meccanismo dell’esposizione e del giudizio istantaneo può generare insicurezza in una fase della vita umana che è già prepotentemente fragile. Mi viene da domandare se i dispositivi aiutino effettivamente l’adolescente a comunicarsi meglio rispetto al passato, o se al contrario lo frenino creando pressione emotiva.

CAROLINA: Questo pensiero mi ha sempre fatto riflettere su chi fossi realmente, su chi io stia diventando. Questa velocità di cambiamento, di continuo feedback, di passi avanti e indietro non mi fa rendere conto di chi sono. Il mio profilo cambia costantemente, lo si nota visivamente all’istante. Percepisco instabilità, incertezza nel comunicare, poca libertà di linguaggio per paura di uscire da quelli che sono i canoni riconosciuti come giusti nel mondo virtualePotrebbe essere che il meccanismo del feedback e dell’omologazione di profili crei negli adolescenti una forte ansia e pressione, quasi come fosse un lavoro costante? Si nota come tanti ragazzi a fine giornata cerchino il modo per staccare, disconnettersi e sentirsi senza filtri, più liberi. Una ricerca terapeutica del tempo libero. Allo stesso modo sento che il disconnettersi sia un modo di vivere la propria dimensione del privato, un tema che nel contemporaneo è molto difficile da discutere. Per esempio, possiamo affermare che esista il privato nel momento in cui siamo costantemente connessi in pubblico? 

MATTIA: Il privato è sicuramente un tema molto delicato. Siamo sempre in dialogo con il nostro pubblico, pensiamo in funzione di esso, ci sentiamo osservati in ogni nostro gesto, persino camminando in strada. Forse la nostra identità ha assunto il ruolo di un lavoro. Studiamo costantemente profili e comunicazione di altri individui, aziende o brand. Siamo diventati abili nel riconoscere gli schemi, ma forse deboli nel metabolizzare i feedback indesiderati, di conseguenza forse tendiamo ad omologare noi stessi rientrando in categorie che troviamo funzionanti con il pubblico. Tuttavia, questa presenza costante di audience, ci toglie il privato, quei momenti con noi stessi, di vuoto, di noia, di spunti, di scoperte e approfondimenti. Se non ce lo toglie, forse ce lo condiziona pesantemente. Quanto siamo realmente condizionati nel nostro agire da ciò che vediamo nei profili degli altri? Potrebbe essere che un io virtuale, nel comunicare la sua identità, stia allo stesso tempo comunicando ciò che pensa di essere, ciò che vorrebbe essere, ciò che gli altri pensano che sia e ciò che vorrebbe che gli altri pensassero che sia?

CAROLINA: Io penso che siamo fortemente influenzati da ciò che vediamo: vedere il video di un concerto su TikTok che ci sembra bellissimo e provare quasi invidia nel pensare che noi non lo stiamo vivendo, che non siamo all’altezza. Un meccanismo di continua rincorsa e competizione. Ma se fosse solo un’impressione? Se fosse solo bravura nel creare contenuti e far apparire tutto troppo bello? Come nella sfera affettiva. Molto spesso ci si affeziona all’immagine di un profilo, per poi scoprire che è solo una minima parte dell’identità di quella persona. O come quando scambiamo la credibilità con il numero di follower. Se ci stessimo stancando di questi meccanismi? Se stessimo cercando nuovamente più umanità e più privato per la nostra sfera intima e sensoriale?

MATTIA: Anche io penso che siamo influenzati da ciò che vediamo, soprattutto pensando ad un algoritmo che ci fa diventare quasi narcisisti. Non a caso un nuovo concetto nelle scienze sociali è quello di narcisismo digitale: tramite le nostre azioni virtuali forniamo dati; tramite questi, l’algoritmo restituisce solo tutto ciò che ci piace, all’ennesima potenza; rafforza il nostro pensiero, la nostra convinzione, estremizzandola. Allo stesso tempo, questa piena luce su di noi, oscura tutto il resto, ci chiude e non ci fa notare che esiste dell’altro. Da questo punto di vista, siamo veramente all’interno di un società pornografica? Tuttavia, penso che la via della consapevolezza sia l’ideale per conoscere un fenomeno, studiarlo e poter agire liberamente all’interno di un meccanismo sociale.

CAROLINA: Un ultimo aspetto che mi piacerebbe affrontare, tornando all’adolescente e alla costruzione della sua identità, è quello della conoscenza del proprio corpo e della sessualità. Se da un lato questa perenne connessione ci crea dei disagi importanti e dei disturbi d’ansia, dall’altro ci permette di condividere delle tematiche che un tempo sarebbe stato molto difficile affrontare. La scoperta del proprio corpo e della propria sessualità è sempre un passaggio critico per un adolescente, soprattutto in una cultura fortemente cristiana in cui ci si sente costantemente colpevoli. 

MATTIA: La condivisione di tematiche ha permesso alle persone di sentirsi meno sole e meno sbagliate nel compiere azioni che per un essere umano possono essere considerate “normali”? Penso alla sessualità, al proprio corpo, ai diritti nel mondo del lavoro e tutta una serie di valori che la nuova generazione ha incentivato ad osservare, creando comunità di valori condivisi. Quindi, come è influenzata la costruzione dell’identità nel mondo virtuale? Quali sono i pro e i contro rispetto all’epoca pre-social network? Qual è il futuro dell’io virtuale e del profilo individuale?