image_pdfVersione PDFimage_printStampa

Negli ultimi decenni il dibattito riguardante l’intelligenza artificiale è incrementato, e quello che preoccupa di più dal punto di vista etico si può riassumere in tre punti fondamentali:

  • Privacy, raccolta e utilizzo dati;
  • Sostituzione lavorativa per via dell’automazione;
  • Rischio di bubble room.

In questo consenso di preoccupazione circa il potere degli algoritmi sulle nostre vite si è inserita l’iniziativa della FNAC, colosso della cultura e l’intrattenimento dal 1954, che in collaborazione con l’agenzia pubblicitaria Publicis Conseil, ha lanciato una campagna di nome “Un-recomended by an algorithm”finora considerata la prima campagna di “resistenza” all’algoritmo.

Ad ogni tipo di società, evidentemente, si può far corrispondere un tipo di macchina: le macchine semplici o dinamiche per le società di sovranità, le macchine energetiche per quelle disciplinari, le cibernetiche e i computer per le società di controllo. Ma le macchine non spiegano nulla, si devono invece analizzare i concatenamenti collettivi di cui le macchine non sono che un aspetto.

Gilles Deleuze, Controllo e divenire

Macchine, algoritmi e incertezze

Il tipo di macchina che sembra corrispondere maggiormente alla nostra società odierna è quella in grado di imparare da noi.

I nodi privacy

Per quanto riguarda le preoccupazioni legate alla privacy, cedere i dati per il perfezionamento di algoritmi che a sua volta suggeriscono e filtrano dei contenuti è stato un argomento protagonista nelle discussioni riguardanti l’etica e l’informatica giuridica. Infatti, attualmente nel nuovo GDPR pubblicato nel 2018 si regolamenta l’utilizzo dei dati proprio partendo dalla raccolta. Questo perché soprattutto i più sofisticati algoritmi di personalizzazione nonché di profilazione e targettizzazione si basano proprio sui dati che non sempre sono chiaramente visibili. Ovvero, non sempre è possibile ricavare l’informazione sul come e da dove sono stati colti.

AI e disoccupazione

Dall’altra parte, una paura costante e ripetutamente discussa è proprio guidata dal rapporto intelligenza artificiale e disoccupazione tecnologica. Quest’ultimo termine fa riferimento alla percentuale di disoccupazione dovuta ad una sostituzione della forza lavoro per le macchine, sia in modo diretto come, ad esempio, la sostituzione o mancata assunzione di cassieri per via delle macchinette di cassa automatiche, sia indiretto, come la progressiva scomparsa massiva di determinate mansioni. In effetti, considerando uno studio realizzato da Semrush, il 38% di lavoratori vedrà il proprio lavoro automatizzato entro il 2023, mentre il 13% riguarderebbe intere mansioni eliminate per via dell’intelligenza artificiale. Tuttavia, l’IA potrebbe creare almeno il 9% di nuovi lavori entro il 2025.

Guardando la situazione da un punto di vista ottimistico, si prevede che la forza lavoro che si trova a dover cambiare occupazione possa reinventarsi e trovare la vera vocazione non dovendo più fare lavori operativi e ripetitivi. Dall’altra parte, questa riqualificazione non è affatto semplice né fattibile in tempi brevi. Il che significa che per almeno un periodo di tempo ci si troverà con una capacità produttiva più alta rispetto all’effettivo potere d’acquisto della popolazione.

Fino a qui questi punti sembrano riguardare soltanto i numeri, i dati, il tasso di disoccupazione, produzione, offerta, domanda, ecc.

Il rischio di restare impantanati dentro una bubble room

Il terzo aspetto riguarda invece il rischio per gli utenti di cadere dentro una bubble room, una stanza che gira all’infinito in un loop creato dalle proprie scelte, dove l’utente si troverà a guardare sempre e solo contenuti che sono “suggeriti per lui” perché compatibili con i suoi interessi, senza avere la minima tentazione di uscirne.

Inoltre, un dubbio emerge proprio dalla base. Possono i dati rispecchiare correttamente la realtà? La risposta è no, i dati non sono altro che una descrizione semplificata e a tratti riduttiva della realtà. Parlando ad esempio delle scelte degli utenti, il fatto che siano compatibili con quello che l’algoritmo ritiene che può essere gradito dal consumatore non significa che effettivamente esso non sia propenso a gradire altro tipo di contenuti o magari provare altre categorie che non sono state prese in considerazione in base ai dati.

Fnac e la campagna contro gli algoritmi

FNAC e Publicis Conseil hanno descritto la loro campagna come “la prima campagna anti-personalizzazione che scoppia la bolla di raccomandazioni”. L’obiettivo principale di questa campagna è affermare la posizione di FNAC come un brand che ci tiene a diffondere la pluralità culturale e fare una denuncia aperta al confinamento che, secondo l’azienda, gli algoritmi provocano nei loro clienti.

La strategia utilizzata è stata disegnata in base a tre canali:

  • Tecnico: sulla base dei dati dei loro consumatori, FNAC ha applicato una strategia opposta alle logiche di profilazione, creando un algoritmo che suggerisce al consumatore contenuti che hanno soltanto un 2% di compatibilità con l’utente, generando una tendenza all’acquisto opposta basata sempre sui dati;
  • Online: La compagnia ha adottato anche un meccanismo di pubblicazione dei contenuti su Twitter che va “contro-tendenza”. Ovvero, un bot condivide tweets che hanno un contenuto culturale opposto a quelli che sono gli hashtag del momento e anche contrari a ciò che potrebbe creare più public engagement;
  • Pubblicità tradizionale: La campagna è stata anche diffusa tramite canali off-line, con manifesti distribuiti per tutto il paese che denunciano apertamente i bias degli algoritmi e esaltano l’importanza dei propri lavoratori al di sopra delle raccomandazioni dell’algoritmo, ricordando agli utenti che un algoritmo può misurare le compatibilità ma non necessariamente l’utente.

I risultati della campagna sono stati notevoli: circa 1 milione di impressioni, +35% di tasso di engagement in confronto con le classiche campagne targettizzate, e un click through rate 3 volte più alto delle precedenti campagne. La campagna è ancora in corso e sembra che la denuncia aperta del brand francese abbia avuto un certo riscontro, ma soprattutto si spera abbia provocato l’aumento della consapevolezza da parte degli utenti riguardo alle proprie scelte di consumo, almeno per quanto riguarda i prodotti culturali.

La riflessione

Quando ogni suggerimento di un algoritmo sostituisce il consiglio di un commesso dotato di qualifiche e conoscenze, non solo si crea un effetto economico dovuto alla potenziale perdita del posto di lavoro del commesso stesso, ma si rischia soprattutto di indurre il consumatore a non uscire mai dalla sua bubble room.

Tornando alle parole di Delouze citate all’inizio di questo articolo, bisogna analizzare gli effetti concatenati che le macchine provocano all’interno della nostra società: ciò significa non analizzarle soltanto come strumenti nettamente tecnici, bensì come parte della dinamica sociale. Tuttavia, nonostante i rischi siano diversi, anche le potenzialità dell’intelligenza artificiale possono essere in tante. L’IA è uno strumento, l’utilizzo e le finalità con cui viene utilizzata ne determinano il risultato.

image_pdfVersione PDFimage_printStampa