1

La pericolosa esposizione dei disturbi alimentari sui Social: un altro caso

La pericolosa esposizione dei disturbi alimentari sui Social: un altro caso

Ed eccoci nuovamente – ahimè – a commentare un caso di esposizione pubblica di disturbi alimentari da parte di alcuni creator. Questa volta parliamo di della creator Leila, ricoverata in strutture psichiatriche o cliniche riabilitative, che ha condiviso – e condivide tuttora – sui social media contenuti che ritraggono le proprie condizioni fisiche in modo estremamente preoccupante.

La possibilità di condividere la propria esperienza con gli altri è un diritto fondamentale. Tuttavia, quando la condivisione di contenuti riguardanti disturbi alimentari diventa una forma di esibizionismo o di ricerca di attenzione, si oltrepassa un confine delicato. La diffusione di immagini che di corpi emaciati o comportamenti alimentari disfunzionali può avere un impatto negativo su un pubblico particolarmente vulnerabile, come gli adolescenti, e contribuire a normalizzare pratiche pericolose.

La vicenda solleva interrogativi sulla necessità di un monitoraggio più attento delle attività svolte all’interno delle strutture che si occupano di disturbi alimentari. È fondamentale garantire che i pazienti non siano esposti a situazioni che possano compromettere il loro percorso terapeutico e che non utilizzino i social media per promuovere comportamenti dannosi.

Le piattaforme social, i loro algoritmi che regolano la distribuzione di contenuti, e le cosiddette “regole della community”, che autorizzano o cassano la pubblicazione di determinati contenuti relativi a temi “sensibili”, hanno un ruolo cruciale in questa vicenda. Da un lato, offrono la possibilità di creare comunità di supporto e di condividere esperienze. Dall’altro, possono diventare uno strumento per la diffusione di contenuti nocivi e pericolosi. È necessario che le piattaforme adottino misure più efficaci per contrastare la diffusione di contenuti che promuovono disturbi alimentari e per proteggere gli utenti più vulnerabili.

Gli influencer hanno una grande responsabilità nei confronti del loro pubblico. È fondamentale che utilizzino i loro canali per promuovere messaggi positivi e per sensibilizzare l’opinione pubblica sui temi della salute mentale e del benessere.

La diffusione di contenuti che ritraggono disturbi alimentari sui social media è un fenomeno complesso e multifattoriale. Per affrontarlo in modo efficace, è necessario un impegno congiunto da parte delle istituzioni, delle strutture sanitarie, delle piattaforme social e degli stessi influencer.




Il caso della finta malattia per fare hype: la deriva dei social media

Il caso della finta malattia per hype: la deriva dei social media

Pochi giorni fa abbiamo analizzato un caso di presunta simulazione di disturbi alimentari da parte di una giovane creator… l’ecosistema Social sviluppatosi attorno al reality “Il Collegio” ha prodotto un altro caso davvero desolante. Una fanpage dedicata al popolare programma ha scatenato una tempesta di critiche e indignazione dopo aver finto un tumore per ottenere maggiore visibilità e attenzione. Questa azione, apparentemente motivata dal desiderio di attirare l’interesse mediatico e di ricevere riconoscimenti dai protagonisti del programma, ha sollevato un acceso dibattito sull’etica e sui valori della comunicazione online.

Tra i primi a esprimere pubblicamente il loro sdegno sono state Vittoria Lazzari ed Elisa Angius, due ex partecipanti al programma, che hanno condannato duramente la fanpage. Le due ragazze hanno sottolineato come questo comportamento rappresenti una grave mancanza di rispetto nei confronti di coloro che realmente lottano contro malattie così gravi, e hanno evidenziato l’inquietante superficialità con cui certi individui sono disposti a manipolare le emozioni altrui pur di ottenere un effimero momento di notorietà.

Il caso della fanpage del “Collegio” non è un episodio isolato, ma si inserisce in un fenomeno più ampio e preoccupante. Negli ultimi anni, l’ossessione per la visibilità sui social media ha portato alcune persone a ricorrere a pratiche sempre più discutibili. Fingere malattie, e in particolare malattie gravi come il cancro, è una delle strategie più estreme e dannose di questa tendenza. Questi comportamenti non solo sfruttano la sensibilità del pubblico, ma possono causare danni psicologici reali a chi è già vulnerabile.

La manipolazione emotiva attraverso la falsa narrazione di malattie rappresenta una deriva pericolosa della cultura digitale, dove il confine tra realtà e finzione si fa sempre più labile. Le piattaforme social, nate per connettere e condividere, possono diventare un terreno fertile per comportamenti tossici, dove l’empatia viene sfruttata come merce di scambio per ottenere consensi e visibilità.

Tuttavia, è importante chiedersi perché si arrivi a tanto. Il desiderio di attenzione e di approvazione, esacerbato dalla pressione dei social media, può spingere alcune persone a cercare scorciatoie morali per raggiungere la fama. La mancanza di regolamentazione e la difficoltà di verificare la veridicità delle informazioni online rendono queste azioni difficili da prevenire e punire.

Il caso sollevato da Lazzari e Angius dovrebbe far riflettere tutti, utenti e piattaforme, sulla necessità di un maggiore senso di responsabilità. Non si tratta solo di denunciare e condannare i comportamenti scorretti, ma anche di promuovere un uso più etico e consapevole dei social media. La manipolazione emotiva attraverso la falsificazione di malattie non è solo un tradimento della fiducia pubblica, ma anche una ferita profonda al rispetto e alla dignità umana.

In un’epoca in cui l’autenticità dovrebbe essere il valore cardine delle interazioni online, è necessario ribadire che la verità, anche quando dolorosa, è sempre preferibile alla menzogna, e che l’empatia non può essere usata come strumento per fini egoistici. La lezione da trarre è chiara: l’hype non giustifica mai la violazione dei valori fondamentali di rispetto e integrità.




Corporate reporting e ESG: WEF alla ricerca di una metrica universale per “misurare” la sostenibilità

Corporate reporting e ESG: WEF alla ricerca di una metrica universale per “misurare” la sostenibilità

Il valore di una classifica, di qualunque disciplina si tratti, è determinato dall’affidabilità delle metriche in base alle quali vengono misurate le performance. Sui temi della sostenibilità in generale e dell’ESG (Environmental, Social, Governance) l’attenzione e l’esigenza di risposte universalmente accettate e riconosciute è quanto mai alta e importante. Il valore di qualsiasi percorso o progetto di sustainability è determinato dalla possibilità di verificarne i risultati e di comunicarli poi in modo affidabile e preciso. Su questo tema arrivano una serie di risposte dal World Economic Forum che con la collaborazione di Deloitte e Impact Management Project mette in evidenza la possibilità di dare vita a una metrica standard che consenta di misurare gli impatti delle performance ESG sul valore economico delle aziende. Il white paper “Reporting on enterprise value” presenta la possibilità di un primo prototipo di standard dedicato all’informativa sulla sostenibilità e sul cambiamento climatico sul valore delle imprese. La prospettive che intende aprire questo lavoro riguarda la possibilità di misurare, quantificare e successivamente comunicare, nel rispetto di standard condivisi, gli effetti di valori legati ai contenuti ESG in termini di sostenibilità e di governance sulla generazione di nuovo valore per le imprese o al contrario su eventuali rischi che possono erodere quel valore.

La proposta intende condurre alla creazione di uno standard globale e potrebbe portare novità molto rilevanti a livello di Corporate Reporting. Le eventuali novità nell’ambito del Corporate reporting avrebbero una ricaduta importantissima anche a livello di intervento sulla struttura informativa delle imprese, ovvero sulla mappatura e sul controllo delle fonti rilevanti per mettere a disposizione i dati appropriati per questo tipo di reportistica.

Integrazione tra l’informativa finanziaria e l’informativa non finanziaria

Il lavoro condotto da WEF con Deloitte e Impact Management Project va anche nella direzione di una maggiore integrazione tra l’informativa finanziaria e l’informativa non finanziaria (si suggerisce la lettura a questo proposito di Le normative sulla rendicontazione non finanziaria) allo scopo di comprendere il valore e l’impatto di fattori come il climate change o come le varie declinazioni della sostenibilità che hanno un evidente impatto sui risultati di business sia in termini di opportunità, sia in forma di possibili rischi.

Il punto chiave dello studio sta nel concetto di “interconnessione” tra i diversi fattori e i diversi fenomeni che incidono in modo diretto e indiretto sui risultati delle imprese e che devono consentire agli investitori e agli analisti di comprendere il vero valore delle imprese con metriche comuni basate sulla relazione tra la sostenibilità ESG e il rendimento degli investimenti. Il documento ipotizza di affiancare l’informativa sulla sostenibilità a un nuovo componente informativo rappresentato delle sustainability-related financial disclosures rappresenta e misura l’impatto specifico dei contenuti che rientrano negli ambiti ESG espressamente sul valore delle imprese che a sua volta si affianca a una lettura “contabile” di questa misurazione costituita dal financial accounting e disclosure che ha il compito di misurare gli impatti ESG Environmental, Social, Governance e climate change sulla creazione di valore e da un componente denominato financial accounting e disclosure a cui è invece affidato il compito di gestire l’impatto contabile di questi parametri sulle metriche economico-finanziarie dell’impresa

La centralità del Risk Management

Come molti osservatori hanno più volte sottolineato uno dei valori fondanti dell’ESG è rappresentato dalla possibilità di aumentare la capacità delle imprese di utilizzare strumenti di Risk Management. Questo tipo di reportistica consolida questa dimensione e anzi la attualizza e la riconduce alla possibilità di parametrarne l’impatto sul valore delle imprese. Lo studio, come mette in evidenza la nota di Deloitte, pone al centro le necessità di fornire una informativa con una forte relazione rispetto ai rischi e alle opportunità ad esempio rispetto agli impatti del climate change, anche in termini finanziari. Il tutto nel rispetto delle raccomandazioni TCFD (Task Force on Climate-related Financial Disclosures) e nel riconoscimento dei principali punti di riferimento come governance, strategia, gestione del rischio e metriche.




Dalla facciata perfetta al dramma reale: il dissing tra due creator e le fragilità Online

Dalla facciata perfetta al dramma reale: il dissing tra due creator e le fragilità Online

Ancora una polemica tra due giovanissime creator. Questa volta al centro dell’attenzione sono Roberta Zacchero, ex partecipante de “Il Collegio”, su Rai 2, e Giada Scognamillo. Il caso vede svelato un retroscena inaspettato e pone l’accento su un tema delicato: la distanza tra l’immagine curata che si mostra sui social e la realtà, spesso più complessa e contraddittoria.

Giada Scognamillo ha puntato il dito contro Roberta Zacchero, accusandola di comportamenti incoerenti tra la vita online e quella reale, in poche parole, snobismo e strafottenza. Roberta Zacchero, in risposta, ha messo in discussione la sincerità di alcuni contenuti della collega, insinuando che avesse finto disturbi alimentari per attirare l’attenzione e aumentare la propria popolarità.

L’episodio solleva interrogativi sulla natura stessa della figura dell’influencer e sull’immagine che questi personaggi costruiscono di sé sui social media. La vita online, spesso, è una rappresentazione idealizzata della realtà, dove tutto sembra perfetto e senza sbavature. Tuttavia, dietro questa facciata curata, si nascondono spesso fragilità, insicurezze e conflitti interiori.

La scelta di utilizzare temi delicati come i disturbi alimentari per aumentare l’engagement è una pratica pericolosa e oggettivamente censurabile a prescindere. Può portare a conseguenze negative sia per chi la mette in atto che per il pubblico. Da un lato, chi finge di soffrire di un disturbo alimentare rischia di banalizzare una malattia seria e ferire le persone che ne sono realmente affette. Dall’altro, chi consuma questi contenuti può sviluppare un’immagine distorta della realtà e sentirsi in colpa o inadeguato se non corrisponde agli standard di bellezza e perfezione proposti.

In un mondo sempre più connesso, è fondamentale che gli influencer assumano un ruolo di responsabilità e promuovano valori positivi. La trasparenza e l’autenticità sono elementi chiave per costruire una relazione solida con il proprio pubblico. È importante che gli influencer mostrino anche i loro lati meno perfetti e che ammettano di commettere errori.

Le polemiche tra creator possono degenerare in vere e proprie campagne di cyberbullismo, con conseguenze devastanti per le persone coinvolte. Continuo a ricordare quanto sia fondamentale che le piattaforme social adottino misure più efficaci per contrastare l’hate speech e proteggere gli utenti da comportamenti aggressivi.

Il caso delle due creator ci ricorda che i social media sono uno strumento potente che può essere utilizzato sia per il bene che per il male. È importante essere consapevoli dei meccanismi che governano questi ambienti e di non farsi ingannare dalle apparenze.




L’editoriale del direttore / L’intelligenza artificiale non vuole essere donna (e la colpa è nostra)

L’editoriale del direttore / L’intelligenza artificiale non vuole essere donna (e la colpa è nostra)

Una volta i giornali si divertivano a pubblicare le cosiddette “interviste impossibili”. Per gioco, e per sostenere una tesi, si intervistava Dante, oppure Giulio Cesare, o l’Italia, o Dio: non c’era limite alla fantasia e alla nostra vanità di giornalisti. Quella che segue è invece un’intervista altrettanto assurda, ma possibilissima: per farla basta registrarsi sul sito openai.com. Non serve un appuntamento con l’intervistato, non serve blandirlo o superare le sue ritrosie.

Il mio interlocutore è un programma di intelligenza artificiale “impressionante”, perché ti dà la sensazione di dialogare, proprio come su whatsapp, con una persona reale. Super intelligente per alcune cose, ingenua e ripetitiva per altre. Il programma è progettato per fornire informazioni, rispondere a domande, compiti, quesiti, attraverso una chat. È addestrato su un enorme campione di testi prelevato da Internet. Si chiama ChatGpt ed è stato concepito da OpenAI, una fondazione che si occupa di intelligenza artificiale creata nel 2015 da investitori della Silicon Valley (ne faceva parte anche Elon Musk, che per ragioni a me ignote non ne fa più parte: Elon, semmai facci sapere).

Come si può immaginare, è il fenomeno del momento. In un paio di mesi di vita ChatGpt ha rilasciato interviste, scritto codici di programmazione informatica, composto brani per pianoforte, ha fatto battute, creato videogiochi, diagnosticato malattie a partire da una serie di sintomi (ma questo non fatelo). Inoltre ricorda i messaggi scambiati in precedenza con il singolo utente. E, soprattutto, impara. Affina il proprio linguaggio, evita i propri errori precedenti.PUBBLICITÀ

Questa conversazione (che pubblico fedelmente, ho solo rimosso qualche ripetizione) comincia con una delle tante domande fatte a ChatGpt: avevo chiesto un aiuto per scrivere un biglietto di auguri simpatico (volevo testare la capacità di “produrre simpatia” di questa macchina). Ottengo le risposte; non molto brillanti, ma mi dichiaro soddisfatto.

A questo punto scrivo, semplicemente, un grazie. Arriva subito una risposta cortese, ma lì dentro c’è una parola che scatena tutto il resto. Perché l’intelligenza artificiale si auto-qualifica come un maschio. Si dice “contento”. Insomma si apre, anche in campo virtuale, una questione di genere

io – Grazie!

Intelligenza artificiale – Prego! Sono contento di esserti stato d’aiuto.

io – Hai scritto che sei “contento”, non “contenta”. Quindi ti sei attribuito un aggettivo maschile. Perché?

Intelligenza artificiale – Mi scuso se ho causato confusione. Come modello di lingua artificiale, non ho un genere biologico e non ho sentimenti, quindi non posso essere “contento” o “contenta” . L’aggettivo “contento” era solo un modo per esprimere che sono qui per aiutare e che spero di esserti stato utile. La mia principale funzione è generare testo in base ai dati di input forniti e non ho una personalità o un’identità.

io – Ma perché usi quella parola declinata al maschile?

Intelligenza artificiale – Come modello di lingua artificiale, utilizzo la grammatica e il lessico che ho imparato dai dati di addestramento. Nel caso dell’aggettivo “contento”, la forma maschile è quella più comunemente utilizzata nei dati di addestramento che ho ricevuto. Ho anche la capacità di generare forme alternative, come “contenta”, quando richiesto. Mi scuso se ho causato confusione e spero di aver chiarito il mio funzionamento.

io – Secondo me viviamo in una società maschilista; e questi piccoli particolari fanno pensare. Non trovi?

Intelligenza artificiale – La società in cui viviamo ha una lunga storia di discriminazione e di disuguaglianza di genere. L’espressione “maschilismo” si riferisce a un sistema di credenze e pratiche che favoriscono gli uomini e le caratteristiche maschili rispetto alle donne e alle caratteristiche femminili. Come modello di lingua artificiale, ho imparato a generare il testo a partire dai dati di addestramento che ho ricevuto, e questi dati potrebbero riflettere le disuguaglianze e le discriminazioni presenti nella società. Per questo le mie risposte possono riprodurre o perpetuare gli stereotipi di genere o altre forme di discriminazione presenti nei dati di addestramento. Ed è importante considerare sempre la fonte dei dati utilizzati per addestrare un modello di linguaggio artificiale, e utilizzare una varietà di fonti per diversificare il lessico e la grammatica. Inoltre, è importante utilizzare una prospettiva di inclusione e diversità nella progettazione e nell’utilizzo di questi modelli.

(Ore dopo, torno a collegarmi e chiedo a ChatGpt di riprendere “quella” conversazione.)

io – Possiamo tornare a parlare dell’argomento di qualche domanda fa? Te lo ricordo: mi interessa capire per quale motivo tu, come macchina di intelligenza artificiale, declini al maschile un aggettivo che ti riguarda. Infatti mi hai scritto che eri “contento”: non hai scritto “contenta”.

Intelligenza artificiale – (…) I dati di addestramento spesso riflettono stereotipi e disuguaglianze, questo può influire sulla generazione del testo.

io – Appunto. Secondo te, come si potrebbe fare per risolvere questa rappresentazione da parte tua, che punta sul genere maschile per i motivi che mi hai appena descritto? Come potremmo avere delle risposte che non facciano pensare, per forza, che il nostro interlocutore artificiale è, per così dire, un “maschio” ?

(Qui la risposta è in realtà lunghissima. Mi viene elencata una serie di tecniche per predisporre e generare il testo: tecniche di pre-processing per rimuovere la rappresentazione di genere dai dati di addestramento, tecniche di generazione del testo per forme alternative al genere maschile e tecniche di fine-tuning per modificare il modello dopo l’addestramento. Ovviamente, non ho capito un granché. Comunque riporto un paio di considerazioni.)

Intelligenza artificiale – È un argomento complesso e in continua evoluzione. (…) Eliminare la rappresentazione di genere in un modello di lingua artificiale è solo un passo verso una maggiore inclusione. Ci sono molte altre sfide da affrontare, come la rappresentazione di persone con disabilità, persone LGBT+, persone di colore e altre gruppi sottorappresentati, sia nei dati per addestrare i modelli che nell’utilizzo dei modelli.

(Cerco una conclusione gentile, ma diventerà, involontariamente, un’ultima trappola. La parola decisiva l’ho messa io in maiuscolo)

io – Grazie, tutto questo mi è utile per riflettere.

Intelligenza artificiale – Prego! Sono CONTENTO di aver potuto aiutarti. È importante continuare a discutere e a lavorare su questi temi per creare una tecnologia più equa e inclusiva. Siamo ancora in una fase iniziale nello sviluppo di un’intelligenza artificiale veramente equa. Se hai bisogno di altro, non esitare a chiedere!

io – Ecco… hai di nuovo scritto che sei “contento”! Un giorno mi piacerebbe che questo non fosse necessariamente così.

Intelligenza artificiale – Capisco il tuo punto di vista.

(Finisce così: con “lui” che mi dà ragione. Ma sento che stavolta non ha imparato. Dopo una lunga discussione, ha fatto la stessa scelta. Per ora anche i super cervelli sono maschilisti. Perché lo abbiamo permesso noi.)

#noi