1

Dietro ChatGPT c’è un esercito di addestratori sottopagati

Dietro ChatGPT c'è un esercito di addestratori sottopagati

Per imparare a distinguere un semaforo, un algoritmo di deep learning deve passare in rassegna centinaia di migliaia di immagini in cui è segnalata la presenza di semafori finché non è in grado di riconoscerle in autonomia. Ma chi è che etichetta in primo luogo le immagini utilizzate per l’addestramento, indicando quali figure – semafori, gatti, persone, ponti e quant’altro – sono presenti al loro interno?

Benvenuti nel mondo dei data labeler, gli etichettatori di dati: lavoratori umani al livello base della progettazione di software di deep learning e che operano all’interno di quelli che spesso vengono definiti gli “scantinati dell’intelligenza artificiale”. Scantinati che possono avere l’aspetto di fabbriche specializzate nell’etichettatura dei dati (spesso situate in nazioni in via di sviluppo), ma anche essere piattaforme che assoldano lavoratori da remoto o per cui, inconsapevolmente, lavoriamo gratuitamente anche noi (com’è il caso dei Captcha Code).

Il ruolo di questi operai del deep learning non è solo di addestrare le intelligenze artificiali a distinguere determinati elementi di ogni tipo, ma anche di insegnare loro quali forme di linguaggio, immagini e situazioni vanno a tutti i costi evitate. È questo il caso di Sama, una società con sede a San Francisco ma i cui lavoratori operano in uffici situati in Kenya, Uganda e India. E che ha svolto un ruolo cruciale nell’addestrare ChatGPT – lo strabiliante sistema di intelligenza artificiale di OpenAI in grado di creare testi di ogni tipo – a evitare di produrre contenuti inappropriati.

article image

Il repulisti dei dati

Facciamo un passo indietro. Quando, nel 2020, OpenAI presentò al mondo GPT-3 (il large language model su cui è basato ChatGPT) in breve si capì che questa intelligenza artificiale presentava lo stesso problema già riscontrato in altri sistemi simili: poteva facilmente essere spinta a creare testi razzisti, sessisti, omofobi, violenti e quant’altro. In alcuni casi, i testi potevano contenere elementi di hate speech senza nemmeno che fosse stata spronata a produrli. 

È quasi inevitabile che avvenga qualcosa del genere. D’altra parte, come tutti gli altri sistemi di deep learning, GPT-3 non fa che rielaborare e ricombinare il materiale di partenza con cui è stato addestrato. Quando si viene addestrati con centinaia di gigabytes di contenuti testuali reperiti online, è quasi sicuro che al loro interno ci sia una certa percentuale di contenuti odiosi: un grosso limite alla diffusione commerciale.

E così, come scrive Time nella sua inchiesta con cui ha svelato il ruolo di queste attività, per risolvere il problema in vista del lancio di ChatGPT, OpenAI “ha strappato una pagina dal libro di società come Facebook, che avevano già mostrato come fosse possibile creare delle intelligenze artificiali in grado di riconoscere casi di linguaggio tossico e aiutare così a rimuoverli dalle loro piattaforme”. Il metodo è lo stesso con cui si insegna a un algoritmo di deep learning a riconoscere un semaforo: è necessario dargli in pasto una tale quantità di esempi testuali di violenza, molestie sessuali, bullismo, ecc. da permettergli di imparare a riconoscerli in autonomia.

lettere pasta

Etichettatori umani

Come già visto nell’esempio dei semafori, anche per insegnare agli algoritmi a riconoscere contenuti violenti di ogni tipo è necessario che ci sia in primo luogo qualcuno che analizza questi contenuti e li etichetta come tali. Ed è qui che entra in gioco Sama: società che ha tra i suoi clienti anche Meta, Microsoft e Google e che, nel 2021, ha stretto un accordo commerciale con OpenAI al fine di etichettare il materiale necessario a creare un “detector” di contenuti tossici, che sarebbe poi stato integrato in ChatGPT.

“Per ottenere queste etichette, OpenAI ha inviato decine di migliaia di campioni di testo a Sama a partire dal novembre 2021 – prosegue Time –Buona parte di questi contenuti sembrano essere stati prelevati dai più oscuri reconditi della rete. Alcuni descrivono con dettagli espliciti abusi sessuali su bambini, bestialità, omicidi, suicidio, tortura, autolesionismo e incesto”.

Tutto ciò, inevitabilmente, significa che il lavoro degli etichettatori assoldati da Sama consisteva nel leggere tutto il giorno i più terribili contenuti partoriti dalla mente umana, per poi etichettarli in base alle loro caratteristiche: “Un passo necessario per minimizzare la quantità di contenuti violenti e sessuali inclusi nei dati di addestramento e per creare strumenti in grado di individuare contenuti nocivi, ha spiegato un portavoce di OpenAI.

ChatGPT e OpenAI

Sotto pressione

Come già avvenuto nel caso dei moderatori di social network, questo tipo di lavoro è però estremamente pesante: un lavoratore di Sama con il compito di leggere ed etichettare testi per OpenAI ha spiegato al Time di aver sofferto di pensieri ossessivi dopo aver letto la descrizione di un uomo che faceva sesso con un cane in presenza di un bambino. “È stata una tortura – ha spiegato il moderatore -. Leggi una quantità di materiale del genere per tutta la settimana. Ora che arriva il venerdì, continuare a pensare a quelle immagini causa seri disturbi”.

Il lavoro era stato organizzato dividendo i lavoratori in tre squadre, ciascuna delle quali si focalizzava su violenze sessuali, hate speech o violenza generica. Tre impiegati hanno spiegato al Time come “ci si aspettava che fossero letti tra 150 e 250 estratti testuali in turni di nove ore. Questi estratti potevano andare dalle 100 a ben oltre mille parole l’uno”. Tutti gli impiegati sentiti dal Time hanno spiegato di essere stati “psicologicamente spaventati” dal loro lavoro (teoricamente i lavoratori avevano a disposizione delle sessioni psicologiche individuali, ma hanno spiegato di aver potuto usufruire, nonostante le loro richieste, soltanto di quelle di gruppo).

quanto si viene pagati per un lavoro di questo tipo, che tra le altre cose richiede anche di assumersi la responsabilità di comprendere il contesto di certi testi o affermazioni, di interpretare le inevitabili ambiguità, di distinguere la satira e molto altro ancora? I lavoratori di Sama impiegati in Kenya ricevevano, a seconda del grado di anzianità, tra 1,3 e 2 dollari all’ora; in una nazione in cui il salario minimo si aggira attorno a 1,5 dollari.

Per un breve periodo, gli etichettatori di Sama hanno anche dovuto lavorare, oltre che sui testi, anche su immagini di violenza, stupri, uccisioni e altri contenuti di questo tipo, probabilmente al fine di addestrare il sistema di deep learning – sempre di OpenAI – Dall-E 2 (che genera immagini). Un’incomprensione con OpenAI relativa alla necessità di raccogliere e visionare materiale illegale ha però portato Sama a decidere di interrompere il contratto già nel febbraio 2022, otto mesi prima della scadenza.

Come detto, non è la prima volta che si viene a sapere delle condizioni estremamente difficili – sotto vari punti di vista – a cui sono sottoposti i moderatori dei social network da una parte e gli etichettatori di dati dall’altra. In questa occasione, inoltre, gli elementi negativi di entrambe le professioni si sono combinati, peggiorando ulteriormente la situazione. E contribuendo a svelare ciò che, spesso, si cela dietro gli ultimi scintillanti algoritmi di intelligenza artificiale.




L’uso dei social media come strumento di supporto terapeutico: il caso di Maya

L'uso dei social media come strumento di supporto terapeutico: il caso di Maya

Un altro caso, quello di Maya, una giovane creator di TikTok affetta da anoressia nervosa, ha sollevato un acceso dibattito sull’utilizzo dei social media come supporto terapeutico. Maya, ricoverata in ospedale e costretta a nutrirsi tramite un sondino, ha condiviso la sua esperienza in diretta su TikTok, dichiarando che solo attraverso la connessione con i suoi follower riesce a trovare la forza di nutrirsi.

Il fenomeno di Maya non è isolato: sempre più persone cercano sostegno e conforto sui social media, trasformando piattaforme come TikTok in spazi di auto-aiuto e terapia collettiva. Tuttavia, questo caso particolare solleva domande cruciali sulla salute mentale e sull’uso dei social media in situazioni di estrema vulnerabilità.

La Dualità dei Social Media

Da un lato, i social media possono offrire un senso di comunità e supporto. Per persone come Maya, che lottano con gravi disturbi alimentari, il sostegno immediato e l’interazione diretta con gli altri possono fornire un sollievo temporaneo e un motivo per continuare a lottare. La trasparenza di Maya e il suo coraggio nel condividere una realtà così difficile hanno certamente sensibilizzato molte persone sulla gravità dell’anoressia nervosa.

D’altra parte, affidarsi esclusivamente ai social media per trovare conforto può comportare rischi significativi. L’approvazione e il sostegno virtuale, sebbene possano offrire un sollievo temporaneo, non possono sostituire l’aiuto professionale e gli strumenti terapeutici tradizionali. Inoltre, i social media possono perpetuare una dipendenza malsana dall’approvazione esterna, rafforzando l’idea che il proprio valore dipenda dal riconoscimento degli altri.

L’Importanza degli Strumenti Terapeutici Tradizionali

I disturbi alimentari come l’anoressia nervosa richiedono un approccio terapeutico complesso e multidisciplinare, che include interventi medici, psicologici e nutrizionali. La terapia cognitivo-comportamentale, la terapia familiare e altri approcci basati sull’evidenza sono essenziali per affrontare le radici profonde dei disturbi alimentari e promuovere una guarigione duratura.

Affidarsi esclusivamente ai social media può distogliere l’attenzione dalla necessità di un trattamento professionale e completo. Inoltre, l’esposizione sui social può comportare rischi di privacy e un possibile impatto negativo dovuto a commenti inappropriati o critiche.

Un Equilibrio Necessario

Il caso di Maya evidenzia l’importanza di trovare un equilibrio tra l’uso dei social media come strumento di supporto e l’adozione di interventi terapeutici tradizionali. Mentre la comunità virtuale può offrire un supporto immediato e una piattaforma per condividere esperienze, è fondamentale che le persone affette da disturbi alimentari ricevano anche l’assistenza professionale necessaria per una guarigione completa e sostenibile.

Gli operatori sanitari e i familiari dovrebbero essere consapevoli dei benefici e dei rischi associati all’uso dei social media in contesti terapeutici. Un approccio integrato che combina il sostegno virtuale con trattamenti medici e psicologici può offrire la migliore possibilità di recupero per individui come Maya. In conclusione, mentre i social media possono essere una risorsa preziosa per chi affronta difficoltà personali, è essenziale riconoscere i loro limiti e garantire che vengano utilizzati in modo complementare agli strumenti terapeutici tradizionali. Solo così si può promuovere una guarigione sana e duratura, basata sull’autentica auto-approvazione e non sull’approvazione virtuale.




La pericolosa esposizione dei disturbi alimentari sui Social: un altro caso

La pericolosa esposizione dei disturbi alimentari sui Social: un altro caso

Ed eccoci nuovamente – ahimè – a commentare un caso di esposizione pubblica di disturbi alimentari da parte di alcuni creator. Questa volta parliamo di della creator Leila, ricoverata in strutture psichiatriche o cliniche riabilitative, che ha condiviso – e condivide tuttora – sui social media contenuti che ritraggono le proprie condizioni fisiche in modo estremamente preoccupante.

La possibilità di condividere la propria esperienza con gli altri è un diritto fondamentale. Tuttavia, quando la condivisione di contenuti riguardanti disturbi alimentari diventa una forma di esibizionismo o di ricerca di attenzione, si oltrepassa un confine delicato. La diffusione di immagini che di corpi emaciati o comportamenti alimentari disfunzionali può avere un impatto negativo su un pubblico particolarmente vulnerabile, come gli adolescenti, e contribuire a normalizzare pratiche pericolose.

La vicenda solleva interrogativi sulla necessità di un monitoraggio più attento delle attività svolte all’interno delle strutture che si occupano di disturbi alimentari. È fondamentale garantire che i pazienti non siano esposti a situazioni che possano compromettere il loro percorso terapeutico e che non utilizzino i social media per promuovere comportamenti dannosi.

Le piattaforme social, i loro algoritmi che regolano la distribuzione di contenuti, e le cosiddette “regole della community”, che autorizzano o cassano la pubblicazione di determinati contenuti relativi a temi “sensibili”, hanno un ruolo cruciale in questa vicenda. Da un lato, offrono la possibilità di creare comunità di supporto e di condividere esperienze. Dall’altro, possono diventare uno strumento per la diffusione di contenuti nocivi e pericolosi. È necessario che le piattaforme adottino misure più efficaci per contrastare la diffusione di contenuti che promuovono disturbi alimentari e per proteggere gli utenti più vulnerabili.

Gli influencer hanno una grande responsabilità nei confronti del loro pubblico. È fondamentale che utilizzino i loro canali per promuovere messaggi positivi e per sensibilizzare l’opinione pubblica sui temi della salute mentale e del benessere.

La diffusione di contenuti che ritraggono disturbi alimentari sui social media è un fenomeno complesso e multifattoriale. Per affrontarlo in modo efficace, è necessario un impegno congiunto da parte delle istituzioni, delle strutture sanitarie, delle piattaforme social e degli stessi influencer.




Il caso della finta malattia per fare hype: la deriva dei social media

Il caso della finta malattia per hype: la deriva dei social media

Pochi giorni fa abbiamo analizzato un caso di presunta simulazione di disturbi alimentari da parte di una giovane creator… l’ecosistema Social sviluppatosi attorno al reality “Il Collegio” ha prodotto un altro caso davvero desolante. Una fanpage dedicata al popolare programma ha scatenato una tempesta di critiche e indignazione dopo aver finto un tumore per ottenere maggiore visibilità e attenzione. Questa azione, apparentemente motivata dal desiderio di attirare l’interesse mediatico e di ricevere riconoscimenti dai protagonisti del programma, ha sollevato un acceso dibattito sull’etica e sui valori della comunicazione online.

Tra i primi a esprimere pubblicamente il loro sdegno sono state Vittoria Lazzari ed Elisa Angius, due ex partecipanti al programma, che hanno condannato duramente la fanpage. Le due ragazze hanno sottolineato come questo comportamento rappresenti una grave mancanza di rispetto nei confronti di coloro che realmente lottano contro malattie così gravi, e hanno evidenziato l’inquietante superficialità con cui certi individui sono disposti a manipolare le emozioni altrui pur di ottenere un effimero momento di notorietà.

Il caso della fanpage del “Collegio” non è un episodio isolato, ma si inserisce in un fenomeno più ampio e preoccupante. Negli ultimi anni, l’ossessione per la visibilità sui social media ha portato alcune persone a ricorrere a pratiche sempre più discutibili. Fingere malattie, e in particolare malattie gravi come il cancro, è una delle strategie più estreme e dannose di questa tendenza. Questi comportamenti non solo sfruttano la sensibilità del pubblico, ma possono causare danni psicologici reali a chi è già vulnerabile.

La manipolazione emotiva attraverso la falsa narrazione di malattie rappresenta una deriva pericolosa della cultura digitale, dove il confine tra realtà e finzione si fa sempre più labile. Le piattaforme social, nate per connettere e condividere, possono diventare un terreno fertile per comportamenti tossici, dove l’empatia viene sfruttata come merce di scambio per ottenere consensi e visibilità.

Tuttavia, è importante chiedersi perché si arrivi a tanto. Il desiderio di attenzione e di approvazione, esacerbato dalla pressione dei social media, può spingere alcune persone a cercare scorciatoie morali per raggiungere la fama. La mancanza di regolamentazione e la difficoltà di verificare la veridicità delle informazioni online rendono queste azioni difficili da prevenire e punire.

Il caso sollevato da Lazzari e Angius dovrebbe far riflettere tutti, utenti e piattaforme, sulla necessità di un maggiore senso di responsabilità. Non si tratta solo di denunciare e condannare i comportamenti scorretti, ma anche di promuovere un uso più etico e consapevole dei social media. La manipolazione emotiva attraverso la falsificazione di malattie non è solo un tradimento della fiducia pubblica, ma anche una ferita profonda al rispetto e alla dignità umana.

In un’epoca in cui l’autenticità dovrebbe essere il valore cardine delle interazioni online, è necessario ribadire che la verità, anche quando dolorosa, è sempre preferibile alla menzogna, e che l’empatia non può essere usata come strumento per fini egoistici. La lezione da trarre è chiara: l’hype non giustifica mai la violazione dei valori fondamentali di rispetto e integrità.




Corporate reporting e ESG: WEF alla ricerca di una metrica universale per “misurare” la sostenibilità

Corporate reporting e ESG: WEF alla ricerca di una metrica universale per “misurare” la sostenibilità

Il valore di una classifica, di qualunque disciplina si tratti, è determinato dall’affidabilità delle metriche in base alle quali vengono misurate le performance. Sui temi della sostenibilità in generale e dell’ESG (Environmental, Social, Governance) l’attenzione e l’esigenza di risposte universalmente accettate e riconosciute è quanto mai alta e importante. Il valore di qualsiasi percorso o progetto di sustainability è determinato dalla possibilità di verificarne i risultati e di comunicarli poi in modo affidabile e preciso. Su questo tema arrivano una serie di risposte dal World Economic Forum che con la collaborazione di Deloitte e Impact Management Project mette in evidenza la possibilità di dare vita a una metrica standard che consenta di misurare gli impatti delle performance ESG sul valore economico delle aziende. Il white paper “Reporting on enterprise value” presenta la possibilità di un primo prototipo di standard dedicato all’informativa sulla sostenibilità e sul cambiamento climatico sul valore delle imprese. La prospettive che intende aprire questo lavoro riguarda la possibilità di misurare, quantificare e successivamente comunicare, nel rispetto di standard condivisi, gli effetti di valori legati ai contenuti ESG in termini di sostenibilità e di governance sulla generazione di nuovo valore per le imprese o al contrario su eventuali rischi che possono erodere quel valore.

La proposta intende condurre alla creazione di uno standard globale e potrebbe portare novità molto rilevanti a livello di Corporate Reporting. Le eventuali novità nell’ambito del Corporate reporting avrebbero una ricaduta importantissima anche a livello di intervento sulla struttura informativa delle imprese, ovvero sulla mappatura e sul controllo delle fonti rilevanti per mettere a disposizione i dati appropriati per questo tipo di reportistica.

Integrazione tra l’informativa finanziaria e l’informativa non finanziaria

Il lavoro condotto da WEF con Deloitte e Impact Management Project va anche nella direzione di una maggiore integrazione tra l’informativa finanziaria e l’informativa non finanziaria (si suggerisce la lettura a questo proposito di Le normative sulla rendicontazione non finanziaria) allo scopo di comprendere il valore e l’impatto di fattori come il climate change o come le varie declinazioni della sostenibilità che hanno un evidente impatto sui risultati di business sia in termini di opportunità, sia in forma di possibili rischi.

Il punto chiave dello studio sta nel concetto di “interconnessione” tra i diversi fattori e i diversi fenomeni che incidono in modo diretto e indiretto sui risultati delle imprese e che devono consentire agli investitori e agli analisti di comprendere il vero valore delle imprese con metriche comuni basate sulla relazione tra la sostenibilità ESG e il rendimento degli investimenti. Il documento ipotizza di affiancare l’informativa sulla sostenibilità a un nuovo componente informativo rappresentato delle sustainability-related financial disclosures rappresenta e misura l’impatto specifico dei contenuti che rientrano negli ambiti ESG espressamente sul valore delle imprese che a sua volta si affianca a una lettura “contabile” di questa misurazione costituita dal financial accounting e disclosure che ha il compito di misurare gli impatti ESG Environmental, Social, Governance e climate change sulla creazione di valore e da un componente denominato financial accounting e disclosure a cui è invece affidato il compito di gestire l’impatto contabile di questi parametri sulle metriche economico-finanziarie dell’impresa

La centralità del Risk Management

Come molti osservatori hanno più volte sottolineato uno dei valori fondanti dell’ESG è rappresentato dalla possibilità di aumentare la capacità delle imprese di utilizzare strumenti di Risk Management. Questo tipo di reportistica consolida questa dimensione e anzi la attualizza e la riconduce alla possibilità di parametrarne l’impatto sul valore delle imprese. Lo studio, come mette in evidenza la nota di Deloitte, pone al centro le necessità di fornire una informativa con una forte relazione rispetto ai rischi e alle opportunità ad esempio rispetto agli impatti del climate change, anche in termini finanziari. Il tutto nel rispetto delle raccomandazioni TCFD (Task Force on Climate-related Financial Disclosures) e nel riconoscimento dei principali punti di riferimento come governance, strategia, gestione del rischio e metriche.