L’accusa all’algoritmo di Instagram: “Un circolo vizioso, favorisce le foto seminude”
Un’indagine di AlgorithmWatch ha analizzato quali immagini appaiano di frequente al vertice delle bacheche degli utenti: le immagini ‘al limite’ vengono promosse sulle altre nella generalità degli utenti, schiacciando la varietà della piattaforma
SE TI spogli su Instagram fai più cuoricini, perché l’algoritmo ti butta in pasto su più bacheche e favorisce la tua foto rispetto ad altre, sostenendo le tue attività e la popolarità sul social. Questa, almeno, la tesi di uno studio realizzato da AlgorithmWatch e dall’European Data Journalism Network secondo il quale i contenuti di questo tipo godano di un trattamento privilegiato in termini di visibilità sulla piattaforma. Il titolo non lascia dubbi: “Spogliati o fallirai: l’algoritmo di Instagram obbliga gli utenti a mostrare la pelle”.
Per provarlo i ricercatori hanno analizzato le newsfeed, parlato con creatori di contenuti e approfondito i brevetti. In particolare, il team – come si legge sul sito di Algorithm Watch – ha chiesto a 26 volontari di installare un add-on, cioè un’estensione per il loro browser programmata per aprire il loro account Instagram a intervalli di tempo regolari e registrare quali post apparissero ogni volta in cima alle loro bacheche. Una specie di campionamento. I volontari hanno poi iniziato a seguire gli account di un gruppo selezionato di creatori – 37 professionisti in 12 paesi – che sfruttano Instagram per promuovere i propri brand o attrarre nuovi utenti e clienti pubblicando post a tema cibo, turismo, fitness, moda o bellezza.
Delle 2.400 immagini postate dai creatori e raccolte in 1.737 post 362 (21%) raffiguravano maschi a torso nudo oppure donne in bikini o in abbigliamento intimo. I ricercatori hanno così voluto mettere alla prova l’algoritmo: se Instagram non dà priorità a questo genere di foto, i volontari avrebbero dovuto visualizzare una certa diversità e varietà di contenuti. Ma questo non è accaduto, come spiega anche The Next Web: “Nelle bacheche dei volontari i post con immagini seminude sono stati il 30% dei contenuti pubblicati dagli account”. Per dirla con le parole del team, “se Instagram non alterasse l’algoritmo, i post nel feed di notizie degli utenti dovrebbero corrispondere, nella loro varietà, ai post dei creatori di contenuti che seguono. E se Instagram personalizzasse il feed di notizie di ciascun utente in base ai suoi gusti personali, la varietà dei post nei feed di notizie dovrebbe essere diversa per ciascun utente. Ma non è quello che abbiamo riscontrato”.
Nel dettaglio, le immagini femminili di questo tipo hanno fatto segnare il 54% in più di probabilità di comparire, anche più volte, nella parte alta della newsfeed mentre i post maschili hanno goduto di una spinta di visibilità del 28%. Al contrario, contenuti con cibo o paesaggi avevano il 60% di probabilità in meno di finire in cima alle bacheche dei volontari. Tutto questo, secondo Nicolas Kayser-Bril, reporter di AlgorithmWatch che ha firmato il report insieme a Judith Duportail, Kira Schacht ed Édouard Richard, sta a incarnare il modo in cui gli algoritmi fossilizzino i pregiudizi di determinati gruppi di utenti, estendendoli alla generalità dell’audience: “Una minoranza di utenti Instagram vede la piattaforma come una libera fonte di immagini soft porn e il loro atteggiamento è probabilmente individuato dai sistemi di machine learning e amplificato, così le immagini di nudo sono promosse a tutti, in un circolo vizioso” ha scritto Kayser-Bril su Twitter. Il circolo vizioso, o meglio questa stortura algoritmica, consisterebbe nello spingere i creatori, in particolare le donne, a postare foto di questo genere per attrarre più visualizzazioni. Distorcendo però anche la varietà presente sull’app, frequentata da un miliardo di persone ogni mese.
Se per esempio le creatrici femminili hanno postato foto seminude nel 17,6% dei casi, agli utenti quelle immagini sono state sottoposte con rilevanza il 28,4% delle volte. Stesso effetto per foto di uomini a torso nudo: 26,9% del totale le immagini effettivamente postate contro il 36,9% delle visualizzazioni in evidenza. Questo potrebbe non valere per tutti gli utenti, specifica lo studio. Per esempio, nonostante il fenomeno si sia verificato con tutti i volontari, a una piccola minoranza sono stati effettivamente offerti post più vari, in grado di riflettere meglio la diversità di argomenti e interessi degli influencer e autori. Insomma, sembrerebbe che una forte personalizzazione dei propri gusti (di chi seguiamo, da chi siamo seguiti, le storie che visualizziamo, le pubblicità che clicchiamo e così via) riesca a contenere, anche se in modo moderato, quella che per gli esperti apparirebbe invece come una pressione costante e generalizzata. “È probabile che l’algoritmo di Instagram favorisca la nudità in generale, ma che la personalizzazione, o altri fattori, limitino questo effetto per alcuni utenti” si legge nel report che ha fatto validare statisticamente i suoi dati.
Si tratta di uno studio molto limitato ma significativo. Fra l’altro, gli autori intendono proseguire concedendo la possibilità a chiunque di installare quell’add-on e contribuire così ad ampliare la portata dell’indagine. Facebook ha ovviamente replicato ai ricercatori spiegando che “questa ricerca è imperfetta in vari modi e mostra un fraintendimento di come funziona Instagram. Classifichiamo i post nel tuo feed in base ai contenuti e agli account per i quali hai mostrato interesse, non a fattori arbitrari come la presenza di costumi da bagno”. Ma per i ricercatori non ci sono dubbi: “Abbiamo motivi per ritenere che i nostri risultati siano rappresentativi di come generalmente funziona Instagram”.
Tanti i pezzi che spingono in questa direzione. Per esempio un brevetto del 2015, che includerebbe anche lo “state of undress”, cioè la quantità di pelle mostrata, fra i parametri utilizzati dall’algoritmo per valutare la “metrica di coinvolgimento” che, in ultima istanza, stabilisce quanta rilevanza debba avere una certa immagine nelle bacheche degli utenti. Senza contare le problematiche legate ai dataset di training dei meccanismi di analisi e visione artificiale che passano al vaglio un certo contenuto ancora prima che l’algoritmo intervenga (e che spesso, fra l’altro, compiono errori grotteschi).
“La sottile differenza tra ciò che è incoraggiato e ciò che è proibito è decisa da algoritmi di visione artificiale non certificati e probabilmente distorti” spiegano i ricercatori. Individuando il meccanismo che gli utenti sono forzati a sposare per rispettare le regole della comunità e al contempo massimizzare le caratteristiche dell’algoritmo: “Ogni volta che pubblicano un’immagine, i creatori di contenuti devono seguire questa linea molto sottile rivelando abbastanza da raggiungere i propri follower ma non così tanto da essere cacciati dalla piattaforma”.
Il gruppo di lavoro si spinge oltre, fino a ipotizzare che dal momento che la gran parte di questi brevetti sembrerebbero essere stati firmati in maggioranza da ingegneri uomini, rispecchierebbero e anzi produrrebbero questi effetti: “Una recensione di 238 brevetti depositati da Facebook contenente la frase “visione artificiale” ha mostrato che, su 340 persone elencate come inventori, solo 27 erano donne” aggiungono gli autori. Un fenomeno così radicato a tal punto da poter configurare possibili discriminazioni all’imprenditoria femminile: “Mentre i nostri risultati mostrano che i creatori di contenuti maschili e femminili sono costretti a ‘mostrare la pelle’ in modi simili se vogliono raggiungere il loro pubblico, l’effetto potrebbe essere maggiore per le donne ed essere considerato una discriminazione delle donne imprenditrici”.