1

Scandalo allevamenti Fileni: B Lab toglierà la certificazione etica all’azienda dopo il servizio di Report?

Scandalo allevamenti Fileni: B Lab toglierà la certificazione etica all’azienda dopo il servizio di Report?

Avrete tutti sentito parlare di quanto emerso nell’ultima puntata di Report riguardo agli allevamenti di polli (anche biologici) del marchio Fileni. Vi abbiamo spiegato i contenuti principali di quanto andato in onda nel servizio su Rai 3 in un precedente articolo, che riporta anche la replica dell’azienda: Allevamenti Fileni di nuovo nella bufera: polli ammassati e uccisi brutalmente (anche negli allevamenti bio)

La questione non si è però esaurita con la trasmissione che, come era inevitabile, ha sollevato un vero e proprio polverone, con tanti utenti che sui social hanno fatto sapere di non voler più acquistare carne proveniente dagli allevamenti Fileni.

Colpiti da quanto emerso dal servizio sono stati anche gli enti certificatori. In particolare parliamo di B Lab, che assegna la prestigiosa certificazione B Corp, che circa un anno fa Fileni si vantava di aver ottenuto, prima tra i produttori di carne a livello globale.

La certificazione B Corp viene concessa alle aziende che:

Si impegnano a misurare e considerare le proprie performance ambientali e sociali con la stessa attenzione tradizionalmente riservata ai risultati economici e che credono nel business come forza positiva che si impegna per produrre valore per la biosfera e la società.

B Lab potrebbe togliere la certificazione a Fileni?

Secondo quanto riporta una dichiarazione di B Lab, l’ente certificatore ha avviato nei confronti di Fileni “una revisione per eventuali casi di cattiva condotta“. Come si legge infatti:

Prima della messa in onda dell’episodio, a seguito di una segnalazione formale ricevuta negli scorsi mesi attraverso il modulo di reclamo sulla Certificazione B Corp (B Corp Certification Complaint Form) e all’uscita di alcuni articoli riguardanti l’azienda in questione, abbiamo dato il via a una revisione ufficiale delle accuse a Fileni, come previsto dalla nostra procedura di reclamo (Complaints Process). Gli elementi emersi nel corso della puntata di Report del 9 gennaio sono già stati recepiti e saranno considerati nell’ambito del processo di valutazione in corso.

Quindi qualcuno aveva già segnalato pratiche scorrette di Fileni, ben prima della messa in onda di Report. Ma a questo punto cosa può succedere?

B Lab si prenderà un tempo di 90 giorni per decidere se eventualmente vi sono i presupposti e le prove per revocare la certificazione ma i tempi potrebbero allungarsi. Come spiega l’ente certificatore:

Ci proponiamo di concludere tutte le revisioni iniziali dei reclami entro 90 giorni dal ricevimento e, se è necessaria una revisione da parte dello Standards Advisory Council, di risolvere il caso entro altri 90 giorni. Questo lasso di tempo minimo è fondamentale per garantire un processo approfondito e oggettivo e arrivare a una decisione equa.

Inoltre B Lab sottolinea che:

La procedura ufficiale di reclamo di B Lab viene utilizzata per identificare eventuali casi di cattiva condotta o di false dichiarazioni da parte delle B Corp ed è parte fondamentale del processo di revisione e verifica per mantenere l’integrità e il valore della certificazione B Corp. I reclami possono essere risolti con specifiche modalità, che vanno dall’obbligo per l’azienda di divulgare pubblicamente i problemi emersi sul proprio profilo, alla messa in campo di misure correttive o, negli scenari più critici, alla revoca della certificazione.

Staremo a vedere quindi cosa emergerà dall’indagine di B Lab.




Intelligenza artificiale, ora Dall-E 2 sa anche creare le proteine: i possibili sviluppi

Intelligenza artificiale, ora Dall-E 2 sa anche creare le proteine: i possibili sviluppi

Usare e riutilizzare ciò che già c’è per ottenere qualcosa di più evoluto è una delle filosofie cardine di ogni branca dell’ingegneria. Lasciando che questa forma mentis entri nei laboratori della farmacopea si ottengono risultati interessanti. In questo caso, la tecnologia su cui si erige Dall-E 2 è usata alcune da aziende e atenei americani per realizzare proteine diverse da quelle esistenti.

Non desta stupore che Dall-E 2, sistema di Intelligenza artificiale (AI) creato nei laboratori della statunitense OpenAI e capace di realizzare immagini partendo da un testo, si stia prestando a diversi settori, tra i quali la moda e la cinematografia, fornendo immagini strane e meravigliose on request.

È molto più sensazionale che la stessa tecnologia alla base di Dall-E 2 sia stata recentemente utilizzata in alcuni laboratori di biotecnologia, che hanno iniziato a utilizzare questo tipo di AI generativa per creare nuove tipologie di proteine non presenti in natura.

I primi annunci

Due aziende del settore hanno recentemente annunciato, in maniera quasi parallela e separata, l’avvio di programmi che utilizzano modelli di diffusione per generare progetti di nuove proteine con una precisione mai vista prima. Generate Biomedicines, una startup a stelle e strisce con sede a Somerville, Massachusetts, ha presentato un programma chiamato Chroma che l’azienda afferma essere il Dall-E 2 della biologia.

Allo stesso tempo, un team statunitense della University of Washington ha realizzato un programma parimenti simile a Dall-E 2: RoseTTAFold Diffusion. In quest’ultimo caso è stato dimostrato che il modello è stato in grado di generare progetti per nuove proteine che possono poi essere realizzate in laboratorio, tutte diverse da quelle esistenti.

Questi generatori artificiali di proteine possono essere indirizzati a produrre protidi con proprietà specifiche, con forme, dimensioni e funzioni diverse. In effetti, è possibile creare nuove proteine per un determinato fine, come può essere lo sviluppo di nuovi farmaci più efficaci di quelli esistenti.

Le proteine sono i “mattoni” fondamentali che costituiscono gli esseri viventi. Negli animali (e, quindi, nell’uomo) sono deputate, per esempio, a digerire il cibo, a contrarre i muscoli e a rilevare la luce. Le proteine sono i “bersagli” principali dei farmaci, quando ci si ammala svolgono un ruolo importante nel sistema immunitario e, molti dei farmaci più recenti, sono proprio a base di proteine. Attualmente chi progetta farmaci deve attingere a un elenco di ingredienti composto da proteine naturali. L’obiettivo della generazione di proteine mediante AI è quello di estendere questo elenco con un complesso quasi infinito di proteine progettate artificialmente.

L’innovazione

Va da sé che le tecniche alla base della progettazione di queste proteine non sono nuove. Tuttavia, gli approcci precedenti sono stati più lenti e non sono stati in grado di progettare proteine di grandi dimensioni o complessi proteici (macchine molecolari composte da più proteine accoppiate tra loro). E queste proteine sono spesso cruciali per il trattamento di determinate malattie.

Chroma e RoseTTAFold Diffusion, peraltro, non sono nemmeno il primo esempio di utilizzo di modelli di diffusione per la generazione di proteine. Entrambe sono, però, classificabili come i primi programmi completi in grado di produrre progetti precisi per un’ampia varietà di proteine.

I modelli di diffusione di proteine sono reti neurali (che riflettono quelle umane) addestrate a rimuovere le perturbazioni casuali aggiunte loro da diversi input. Dato un insieme casuale di pixel, un modello di diffusione cerca di trasformarlo in un’immagine riconoscibile.

In Chroma, il rumore viene aggiunto disfacendo le catene di aminoacidi di cui è composta una proteina. Dato un gruppo casuale di queste catene, Chroma cerca di metterle insieme per formare, appunto, una proteina. Guidato da vincoli specifici sull’aspetto del risultato, Chroma può generare nuove proteine con proprietà specifiche.

Con RoseTTAFold Diffusion, invece, la partita si gioca diversamente. Il team della University of Washington adotta un approccio diverso ma con risultati finali simili. Il proprio modello di diffusione parte da una struttura ancora più confusa. Un’altra differenza fondamentale è che RoseTTAFold Diffusion utilizza le informazioni su come i pezzi di una proteina si incastrano tra loro, fornite da una rete neurale separata addestrata a prevedere la struttura delle proteine (come fa AlphaFold di DeepMind). E tutto ciò guida il processo generativo complessivo.

I risultati ottenuti

Peraltro, sia Chroma che RoseTTAFold Diffusion mostrano una serie impressionante di risultati. Entrambi i sistemi sono in grado di generare proteine con diversi gradi di simmetria, tra cui proteine circolari, triangolari o esagonali.

Per illustrare la versatilità del loro programma, Chroma ha generato proteine a forma delle ventisei lettere dell’alfabeto (latino) e a forma dei numeri da zero a dieci. Entrambi i team, però, possono anche generare pezzi di proteina con un’unica forma, anche abbinando nuove parti di proteine a strutture esistenti. Certo è che la maggior parte di queste nuove strutture artificiali, non avrebbe alcuna utilità nella pratica (siamo ovviamente ancora agli albori). Ma, come si è detto, poiché la funzione di una proteina è determinata dalla sua forma, è fondamentale poter generare strutture diverse on request.

Ovviamente, generare strani progetti a macchina è una cosa magari lo si fa per testare a fondo il sistema. Altra cosa è trasformare questi progetti in “proteine reali” e, quindi, in farmaci.

Le verifiche

Per verificare se Chroma possa produrre progetti effettivamente realizzabili, Generate Biomedicines ha preso sequenze di alcuni dei suoi progetti (stringhe di aminoacidi che compongono la proteina) e le ha sottoposte a un altro programma di Intelligenza artificiale. Il team di Somerville ha scoperto che il 55% di tali sequenze ripiega nella struttura generata da Chroma, il che suggerisce che si tratta di progetti per proteine potenzialmente realizzabili.

Il team della University of Washington ha eseguito un test simile, anche se – stando a ciò che lo stesso ha dichiarato – si è spinto molto più in là di Generate Biomedicines nella valutazione del proprio modello. Per il team della University of Washington, il risultato principale è la generazione di una nuova proteina che si attacca all’ormone paratiroideo, che controlla i livelli di calcio nel sangue. Stando sempre a quanto dichiarato, a RoseTTAFold Diffusion è stato fornito un ormone e nient’altro, con la richiesta di creare una proteina che si legasse ad esso.

Quando a Seattle (dove ha sede la University of Washington) hanno testato la nuova proteina in laboratorio, hanno scoperto che la stessa si legava all’ormone in modo più stretto di qualsiasi altra cosa che avrebbe potuto essere generata con altri metodi computazionali.

Da Generate Biomedicines si riconosce che l’invenzione di nuove proteine è solo il primo passo di molti altri. In fin dei conti la stessa azienda opera nel settore farmaceutico e ciò che conta realmente è riuscire a produrre farmaci che funzionino. I farmaci a base di proteine devono essere prodotti in grandi quantità, poi testati in laboratorio e infine somministrati a esseri umani. Tutto questo può richiedere anni.

Se si accelerasse questo processo, anche in una sola di queste fasi, il mondo intero ne beneficerebbe nel medio-lungo termine. Vedremo l’evolversi della materia, nei prossimi mesi, a cosa ci porterà.




FIRMATO DALLE TRE GRANDI RELIGIONI MONOTEISTE UNO STORICO APPELLO PER LO SVILUPPO ETICO DELL’INTELLIGENZA ARTIFICIALE

FIRMATO DALLE TRE GRANDI RELIGIONI MONOTEISTE UNO STORICO APPELLO PER LO SVILUPPO ETICO DELL’INTELLIGENZA ARTIFICIALE

Lo sviluppo etico dell’intelligenza artificiale è stato il tema dell’incontro che si è tenuto martedì in Vaticano, promosso dalla Fondazione vaticana RenAIssance, dal Forum per la Pace di Abu Dhabi e dalla Commissione per il dialogo interreligioso del Gran Rabbinato di Israele, e che ha visto la firma della Rome Call for AI Ethics da parte dei rappresentanti delle tre religioni abramitiche: l’ebraismo, il cristianesimo e l’islam.

Il rabbino capo Eliezer Simha Weisz, membro del Consiglio del Gran Rabbinato di Israele, l’arcivescovo Vincenzo Paglia, presidente della Pontificia Accademia per la Vita e della Fondazione RenAIssance, e Shaykh Al Mahfoudh Bin Bayyah, Segretario Generale del Forum per la Pace di Abu Dhabi, hanno aderito all’appello messo a punto nel febbraio del 2020 e sottoscritto da società come Microsoft e IBM, dalla FAO e da rappresentanti del Governo italiano. Secondo il Rome Call le Big Tech si impegnano a seguire i principi di trasparenza, inclusione, responsabilità, e imparzialità nello sviluppo dell’intelligenza artificiale.

“L’ebraismo esalta la saggezza dell’umanità, creata a immagine e somiglianza di D-o, che si manifesta in generale nell’innovazione umana e in particolare nell’intelligenza artificiale”, ha dichiarato il rabbino Weisz.

“La firma della Rome Call da parte di leader religiosi insieme ad ebrei e musulmani e la richiesta congiunta di un’algoretica che guidi la progettazione dell’intelligenza artificiale parla della necessità sempre più urgente di costruire percorsi di pace, di rispetto reciproco, di dialogo e di comunità” ha sottolineato l’arcivescovo Paglia.

Lo sceicco Abdallah bin Bayyah si è soffermato sullo scopo delle religioni.  “Le religioni e le leggi, nel loro sforzo di promuovere il benessere e l’accompagnamento, si preoccupano di assicurare che le innovazioni e le conquiste scientifiche e tecnologiche tengano conto di quadri etici che preservino la dignità e la nobiltà dell’uomo, e di fatto ne proteggano la vita” ha affermato lo sceicco.

Tra i partecipanti a questo storico incontro, insieme ai rappresentati di Microsoft e di IBM anche il rabbino David Rosen, direttore Affari Religiosi dell’American Jewish Committee, e l’imam Yahya Pallavicini, vice presidente Comunità Religiosa Islamica Italiana. Le delegazioni sono state ricevute da papa Francesco che ha rinnovato il suo interesse nei confronti di uno sviluppo etico dell’intelligenza artificiale, sottolineando come “la riflessione etica sull’uso degli algoritmi, sia sempre più presente, oltre che nel dibattito pubblico, anche nello sviluppo delle soluzioni tecniche”.

Anche i rappresentanti delle maggiori società tecnologiche hanno dato interessanti spunti di riflessione sul ruolo dell’intelligenza artificiale nel prossimo futuro, nel quale la tecnologia progredirà in maniera esponenziale. “Dobbiamo garantire che l’AI rimanga uno strumento creato dall’umanità per l’umanità”, ha sottolineato Brad Smith, Vice Chair e Presidente di Microsoft.  “Il fatto che le grandi religioni monoteiste si siano riunite per riflettere e agire sulle implicazioni dello sviluppo di tecnologie sempre più avanzate, è di importanza storica”, ha aggiunto Darío Gil, Senior Vice President e Direttore della Ricerca di IBM.




Le scuole di Seattle fanno causa a Instagram e TikTok: stanno avvelenando i nostri ragazzi a scopo di lucro

Le scuole di Seattle fanno causa a Instagram e TikTok: stanno avvelenando i nostri ragazzi a scopo di lucro

Il distretto scolastico della città americana ha presentato denuncia contro Meta, Google, Snap e ByteDance perché «hanno sfruttato per profitto i cervelli vulnerabili dei giovani»

Il caso al momento pare essere unico nel suo genere, pur essendo accompagnato dalle centinaia di cause intentate dalle singole famiglie. Ma quanto portato avanti dal distretto scolastico di Seattle, metropoli del nord-ovest americano sede di Amazon e Microsoft, potrebbe essere l’inizio di un nuovo movimento. In sostanza tutte le scuole pubbliche della città hanno intentato causa contro i giganti dei social media: Meta (Facebook, Instagram, WhatsApp), Google (YouTube), TikTok (l’azienda cinese dietro la piattaforma si chiama ByteDance), Snap, la società che controlla SnapChat. Perché? Nella denuncia si va direttamente al sodo: «Gli imputati hanno sfruttato con successo i cervelli vulnerabili dei giovani, agganciando decine di milioni di studenti in tutto il Paese attraverso un circuito vizioso di risposte positive sui social media che porta all’uso eccessivo e all’abuso delle piattaforme. Peggio ancora», prosegue il documento legale, «il contenuto che gli imputati propongono e indirizzano ai giovani è troppo spesso dannoso e teso allo sfruttamento per interessi economici». In sostanza, riassumendo quanto segue nelle 91 pagine che compongono la denuncia, le aziende sopra citate sono portate davanti al giudice per aver «avvelenato i giovani» con una vera e propria dipendenza da social media, con il risultato che le scuole non possono adempiere correttamente alla propria missione educativa perché un numero sempre maggiore di studenti soffre d’ansia, depressione e altri problemi psicologici legati o acuiti dall’utilizzo delle piattaforme per la socialità digitale.

Come detto, l’iniziativa del distretto di Seattle – un centinaio di scuole per un totale di circa 50 mila ragazzi e ragazze – appare unica nel suo genere. Ma fa seguito a un biennio, 2021 e 2022, che ha visto centinaia di cause intentate dalle famiglie americane contro le firme dei social media, secondo Bloomberg almeno una dozzina delle quali legate a casi di suicidio tra i più giovani. Da un lato dunque c’è senz’altro l’uscita dal periodo del lockdown – momento di isolamento, vissuto da molti tutto in digitale, che si è rivelato spesso devastante per la generazione più giovane -, e dall’altro c’è stata la serie di inchieste portate avanti dal Wall Street Journal, i cosiddetti «Facebook Files» nati a seguito delle rivelazioni fatte dall’ex dipendente di Mark Zuckerberg, Frances Haugen

Le scuole di Seattle fanno causa a Instagram e TikTok: stanno avvelenando i nostri ragazzi
Frances Haugen durante l’audizione in Senato

Tra le accuse di Haugen c’era l’affermazione secondo cui la società (Meta, dunque) stava consapevolmente depredando i giovani vulnerabili per aumentare i profitti. Nello specifico, gli articoli del WSJ avevano puntato il dito contro l’algoritmo di Facebook – che sarebbe intenzionalmente premiante dei contenuti divisivi – e su una ricerca interna all’azienda, tenuta poi segreta, che mostrava come l’utilizzo di Instagram può portare a pericolosi effetti negativi. Una slide della ricerca – non a caso risalente al marzo 2020, momento di inizio delle misure di isolamento per limitare la pandemia – raccontava di come un terzo delle ragazze adolescenti non a proprio agio con il proprio fisico ritenessero che Instagram le facesse sentire ancora peggio. Il Congresso ha tenuto diverse udienze, a seguito delle quali per esempio Instagram ha introdotto i controlli parentali sull’app. E sono state avviate indagini. Ma la linea di difesa delle aziende – basata sul Communications Decency Act – si è sempre trincerata dietro l’immunità dai reclami su contenuti pubblicati dagli utenti. E su cui le piattaforme avrebbero una responsabilità relativa. Una legge del 1996 che ha visto diversi repubblicani e democratici d’accordo per l’urgenza di una riforma. Il presidente Biden, in occasione del discorso sullo Stato dell’Unione, aveva implorato il Congresso di «ritenere le piattaforme di social media responsabili dell’esperimento nazionale che stanno conducendo sui nostri figli a scopo di lucro». 




Consigli dagli algoritmi? No, grazie: la campagna di “resistenza” della FNAC

Consigli dagli algoritmi? No, grazie: la campagna di “resistenza” della FNAC

Negli ultimi decenni il dibattito riguardante l’intelligenza artificiale è incrementato, e quello che preoccupa di più dal punto di vista etico si può riassumere in tre punti fondamentali:

  • Privacy, raccolta e utilizzo dati;
  • Sostituzione lavorativa per via dell’automazione;
  • Rischio di bubble room.

In questo consenso di preoccupazione circa il potere degli algoritmi sulle nostre vite si è inserita l’iniziativa della FNAC, colosso della cultura e l’intrattenimento dal 1954, che in collaborazione con l’agenzia pubblicitaria Publicis Conseil, ha lanciato una campagna di nome “Un-recomended by an algorithm”finora considerata la prima campagna di “resistenza” all’algoritmo.

Ad ogni tipo di società, evidentemente, si può far corrispondere un tipo di macchina: le macchine semplici o dinamiche per le società di sovranità, le macchine energetiche per quelle disciplinari, le cibernetiche e i computer per le società di controllo. Ma le macchine non spiegano nulla, si devono invece analizzare i concatenamenti collettivi di cui le macchine non sono che un aspetto.

Gilles Deleuze, Controllo e divenire

Macchine, algoritmi e incertezze

Il tipo di macchina che sembra corrispondere maggiormente alla nostra società odierna è quella in grado di imparare da noi.

I nodi privacy

Per quanto riguarda le preoccupazioni legate alla privacy, cedere i dati per il perfezionamento di algoritmi che a sua volta suggeriscono e filtrano dei contenuti è stato un argomento protagonista nelle discussioni riguardanti l’etica e l’informatica giuridica. Infatti, attualmente nel nuovo GDPR pubblicato nel 2018 si regolamenta l’utilizzo dei dati proprio partendo dalla raccolta. Questo perché soprattutto i più sofisticati algoritmi di personalizzazione nonché di profilazione e targettizzazione si basano proprio sui dati che non sempre sono chiaramente visibili. Ovvero, non sempre è possibile ricavare l’informazione sul come e da dove sono stati colti.

AI e disoccupazione

Dall’altra parte, una paura costante e ripetutamente discussa è proprio guidata dal rapporto intelligenza artificiale e disoccupazione tecnologica. Quest’ultimo termine fa riferimento alla percentuale di disoccupazione dovuta ad una sostituzione della forza lavoro per le macchine, sia in modo diretto come, ad esempio, la sostituzione o mancata assunzione di cassieri per via delle macchinette di cassa automatiche, sia indiretto, come la progressiva scomparsa massiva di determinate mansioni. In effetti, considerando uno studio realizzato da Semrush, il 38% di lavoratori vedrà il proprio lavoro automatizzato entro il 2023, mentre il 13% riguarderebbe intere mansioni eliminate per via dell’intelligenza artificiale. Tuttavia, l’IA potrebbe creare almeno il 9% di nuovi lavori entro il 2025.

Guardando la situazione da un punto di vista ottimistico, si prevede che la forza lavoro che si trova a dover cambiare occupazione possa reinventarsi e trovare la vera vocazione non dovendo più fare lavori operativi e ripetitivi. Dall’altra parte, questa riqualificazione non è affatto semplice né fattibile in tempi brevi. Il che significa che per almeno un periodo di tempo ci si troverà con una capacità produttiva più alta rispetto all’effettivo potere d’acquisto della popolazione.

Fino a qui questi punti sembrano riguardare soltanto i numeri, i dati, il tasso di disoccupazione, produzione, offerta, domanda, ecc.

Il rischio di restare impantanati dentro una bubble room

Il terzo aspetto riguarda invece il rischio per gli utenti di cadere dentro una bubble room, una stanza che gira all’infinito in un loop creato dalle proprie scelte, dove l’utente si troverà a guardare sempre e solo contenuti che sono “suggeriti per lui” perché compatibili con i suoi interessi, senza avere la minima tentazione di uscirne.

Inoltre, un dubbio emerge proprio dalla base. Possono i dati rispecchiare correttamente la realtà? La risposta è no, i dati non sono altro che una descrizione semplificata e a tratti riduttiva della realtà. Parlando ad esempio delle scelte degli utenti, il fatto che siano compatibili con quello che l’algoritmo ritiene che può essere gradito dal consumatore non significa che effettivamente esso non sia propenso a gradire altro tipo di contenuti o magari provare altre categorie che non sono state prese in considerazione in base ai dati.

Fnac e la campagna contro gli algoritmi

FNAC e Publicis Conseil hanno descritto la loro campagna come “la prima campagna anti-personalizzazione che scoppia la bolla di raccomandazioni”. L’obiettivo principale di questa campagna è affermare la posizione di FNAC come un brand che ci tiene a diffondere la pluralità culturale e fare una denuncia aperta al confinamento che, secondo l’azienda, gli algoritmi provocano nei loro clienti.

La strategia utilizzata è stata disegnata in base a tre canali:

  • Tecnico: sulla base dei dati dei loro consumatori, FNAC ha applicato una strategia opposta alle logiche di profilazione, creando un algoritmo che suggerisce al consumatore contenuti che hanno soltanto un 2% di compatibilità con l’utente, generando una tendenza all’acquisto opposta basata sempre sui dati;
  • Online: La compagnia ha adottato anche un meccanismo di pubblicazione dei contenuti su Twitter che va “contro-tendenza”. Ovvero, un bot condivide tweets che hanno un contenuto culturale opposto a quelli che sono gli hashtag del momento e anche contrari a ciò che potrebbe creare più public engagement;
  • Pubblicità tradizionale: La campagna è stata anche diffusa tramite canali off-line, con manifesti distribuiti per tutto il paese che denunciano apertamente i bias degli algoritmi e esaltano l’importanza dei propri lavoratori al di sopra delle raccomandazioni dell’algoritmo, ricordando agli utenti che un algoritmo può misurare le compatibilità ma non necessariamente l’utente.

I risultati della campagna sono stati notevoli: circa 1 milione di impressioni, +35% di tasso di engagement in confronto con le classiche campagne targettizzate, e un click through rate 3 volte più alto delle precedenti campagne. La campagna è ancora in corso e sembra che la denuncia aperta del brand francese abbia avuto un certo riscontro, ma soprattutto si spera abbia provocato l’aumento della consapevolezza da parte degli utenti riguardo alle proprie scelte di consumo, almeno per quanto riguarda i prodotti culturali.

La riflessione

Quando ogni suggerimento di un algoritmo sostituisce il consiglio di un commesso dotato di qualifiche e conoscenze, non solo si crea un effetto economico dovuto alla potenziale perdita del posto di lavoro del commesso stesso, ma si rischia soprattutto di indurre il consumatore a non uscire mai dalla sua bubble room.

Tornando alle parole di Delouze citate all’inizio di questo articolo, bisogna analizzare gli effetti concatenati che le macchine provocano all’interno della nostra società: ciò significa non analizzarle soltanto come strumenti nettamente tecnici, bensì come parte della dinamica sociale. Tuttavia, nonostante i rischi siano diversi, anche le potenzialità dell’intelligenza artificiale possono essere in tante. L’IA è uno strumento, l’utilizzo e le finalità con cui viene utilizzata ne determinano il risultato.