1

Come Funziona l’Algoritmo dei Principali Social

Si discute continuamente degli algoritmi e di come di fatto questi condizionino sempre più la nostra vita digitale, e dunque in ultima analisi, una parte sempre più consistente della nostra vita, del nostro tempo, e naturalmente di quale sia l’impatto per marketers e comunicatori, per brand, imprese, enti ed organizzazioni.
Una buona raccolta delle discussioni al riguardo è quella realizzata dagli amici di Dig.IT, ma in realtà essendo gli algoritmi fondamentalmente un procedimento sistematico di calcolo proprietario nessuno conosce esattamente il loro funzionamento, i criteri di calcolo, che sono noti soltanto a chi lo ha creato, a chi ne è, appunto, proprietario.
Dall’inizio dell’anno ad oggi le discussionile analisi, si sono concentrate prevalentemente su quello di Facebook, che dal 2009 ad oggi ha avuto numerosissimi aggiornamenti e relativo impatto sul news feed, ma degli oltre 100mila parametri che lo costituiscono se ne conoscono fondamentalmente solo i tre principali: affinità, peso e tempo di decadimento, anche perché essendo personalizzato non ne esiste comunque una versione unica ed universale [ndr: diffidare di chi invece vi dice di essere in grado di calcolarlo ed altre panzane].
In base a quanto ha comunicato nel tempo Facebook, spesso tutto da decodificare ed interpretare, ed in funzione dell’esperienza, è però possibile identificare con buona approssimazione, al di là dei tre principali parametri succitati, quali siano complessivamente alcuni degli altri fattori che determinano una maggior o minor visibilità di un post. Tra questi, ad esempio, come ho avuto modo di confutare sin dalla mia esperienza in qualità di social media editor de “La Stampa”, le condivisioni di post dalle fanpage di brand e newsbrand, soprattutto se generano ulteriori discussioni, sono uno dei criteri fondamentali in base al quale aumenterà, o meno, la reach, la portata, e dunque la visibilità, di un post.
Un ottimo contributo al riguardo arriva in questi giorni da parte di Ste Davies che ha pubblicato “Decoding the Social Media Algorithms. A Guide for Communicators”, in cui sviluppa e finalizza delle ipotesi estremamente ragionevoli e realistiche, tanto da indurre qualcuno a presentarle come un “leak” partito dall’interno del social più popoloso del pianeta,  sul funzionamento dell’algoritmo oltre che di Facebook anche di Twitter, YouTube ed Instagram. Vediamole, iniziando proprio da Facebook che, che che se ne dica, tra i social resta comunque il referral più importante.

  • Pare che [il condizionale resta comunque d’obbligo] inizialmente Facebook proponga ogni singolo post solo ad una piccola porzione di utenti, di persone, per testarne l’interesse ed il coinvolgimento iniziale;
  • L’algoritmo di Facebook dà comunque, in particolare dall’inizio di quest’anno, come noto, priorità ai contenuti che stimolano una conversazione tra amici e familiari;
  • Viene inoltre data ulteriore priorità ai post, ed eventualmente ai link contenuti in questi, a quanto condiviso via Messenger;
  • È un ulteriore fattore di ranking la credibilità di un utente [completezza della sua pagina, cronologia delle condivisioni ecc.];
  • Come si diceva, il contenuto del brand o del publisher condiviso da un utente e genera ulteriori discussioni avrà la priorità. Lavorare adeguatamente su questo, con i giusti contenuti, sia in termini di format che di linguaggio, affinchè le persone vi si riconoscano e dunque li condividano facendoli propri diviene assolutamente prioritario in chiave di comunicazione d’impresa;
  • Verrà comunque data la priorità ai video live perché ricevono più interazioni;
  • Naturalmente, i contenuti nativi hanno la precedenza su quelli che portano ad altri siti, al di fuori di Facebook, poiché ovviamente si ha il maggior interesse a far si che le persone permangano il più a lungo possibile all’interno della piattaforma social;
  • I post con commenti “long-form”, articolati, riceveranno una ponderazione più alta;
  • Nell’insieme il coinvolgimento è basato su un sistema di punteggi.


Si parla sempre dell’algoritmo di Facebook, e del suo impatto, come visto, mentre restano marginali gli altri social che invece hanno assolutamente un loro significato, valore e ruolo nell’ambito della comunicazione d’impresa.
Twitter, in newswire per eccellenza la cui notorietà è da sempre alle stelle mentre così non è per quanto riguarda l’utilizzo, ha complessivamente, nella mia esperienza, una reach ancora minore rispetto a Facebook con i tweet che mediamente raggiungono, che vengono visualizzati. al massimo tra il 2 ed il 5% dei follower.
L’algoritmo di Twitter, o “Algorithmic Timeline”, come lo chiama Twitter, è stato introdotto nel 2016 . Prima di allora, quando si effettuava l’accesso a Twitter il feed era in ordine cronologico inverso con gli ultimi tweet delle persone che si seguono nella parte superiore della pagina, mentre oggi non è più così. Inoltre, una nuova modifica all’algoritmo di Twitter è stata annunciata di recente, a Febbraio di quest’anno.
L’intenzione dell’algoritmo di Twitter è di rendere la timeline più pertinente, in modo che gli utenti possano cogliere i tweet importanti dalle persone con cui normalmente hanno maggior engagement che altrimenti perderebbero. Vediamo cosa ragionevolmente sappiamo dell’algoritmo della piattaforma di microblogging.

  • Il timing, in termini di tempismo nella diffusione di informazioni, resta il primo criterio nella ponderazione dell’algoritmo. Aspetto che certifica come la pianificazione dei tweet, specie se superiore alle 12 ore sia assolutamente da evitarsi;
  • La credibilità, stante tutti i ben noti problemi di troll e bot, è un fattore che viene favorito dall’algoritmo. Ecco perché ha senso e valore essere utenti certificati;
  • L’uso del limite di 280 caratteri aumenta i tassi di coinvolgimento;
  • È molto probabile che il contenuto nativo abbia la precedenza sui collegamenti ad altri siti;
  • Così come per Facebook, i tweet vengono “testati”, un tweet è servito a una piccola percentuale di utenti per misurare il coinvolgimento iniziale;
  • I mi piace, le risposte e i retweet hanno molto probabilmente un punteggio di ponderazione maggiore al contenuto twittato. Motivo, tra gli altri, per il quale ha senso fare engagement anche su Twitter;
  • Se, a livello di utilizzo personale, volete sfuggire all’algoritmo usate TweetDeck da desktop, da PC.


 
Anche Instagram da metà 2016 ha introdotto un proprio algoritmo. Se prima la vita media di un post sulla piattaforma social di foto [e video] era di 72 ore, adesso può essere mostrato per molto più a lungo, o naturalmente per un tempo molto più breve.
In tal senso il principale fattore discriminante è l’engagement.  Più like, commenti, mi piace, post salvati, risposte DM e inviati tramite DM ricevuti da un post, maggiore sarà la ponderazione dell’algoritmo. Oltre a questo i principali fattori di ranking di un post sembrano essere i seguenti.

  • Una regolarità nella frequenza di pubblicazione, a parità di condizione, è un fattore che mette in maggior evidenza i post;
  • I post condivisi tramite DM verranno classificati positivamente dall’algoritmo;
  • Gli hashtag funzionano ancora nell’algoritmo ma principalmente per la pagina Explore;
  • Anche per Instagram i post vengono “testati”, un post è servito a una piccola percentuale di utenti per misurare il coinvolgimento iniziale;
  • I generi di contenuti con cui le persone interagiscono maggiormente vengono mostrati più in alto;
  • Commentare e mettere mi piace ai post altrui aiuta a creare maggior engagement sul proprio profilo. Una logica di reciprocità che in realtà è alla base di tutti i social;
  • Maggiore il tempo speso dalle persone su un post, maggiore il ranking nell’algoritmo.


 
Mentre l’algoritmo di LinkedIn non è stato al centro di tante polemiche come quello di Facebook o Twitter, ha certamente avuto qualche “incidente di percorso” lungo la strada. Ad esempio, a Settembre 2016, LinkedIn è stato accusato di mostrare una preferenza per gli uomini rispetto alle donne quando vengono cercati potenziali candidati utilizzando la funzione di ricerca.
LinkedIn è forse stato uno dei social più aperti sul funzionamento del suo algoritmo. Nel marzo dello scorso anno, il team dedicato ai dati ha pubblicato un post sul blog intitolato “Strategie per mantenere pertinente il feed di LinkedIn” che includeva un diagramma dell’algoritmo su come combatte lo spam. Quello che emerge dal post è che LinkedIn utilizza sia l’intervento umano che il suo algoritmo per determinare la qualità del contenuto. Se un post inizia ad avere molto coinvolgimento, “le persone reali su LinkedIn” lo analizzeranno e decideranno se è abbastanza buono da essere visto da un pubblico più ampio sulla piattaforma.
Oltre a questi criteri generali, i fattori primari di ranking sembrano essere i seguenti:

  • I contenuti nativi hanno la precedenza sui collegamenti ad altri siti. Caratteristica comune a tutti i social che fa capire anche ai più ostinati, diciamo, il perché i social non possano essere canali di distribuzione primari;
  • I paragrafi di una frase dei racconti personali [attualmente] sono eccezionalmente funzionali per innescare un meccanismo “virale”. Elemento che “fa a cazzotti” con lo stile che mediamente le persone, ed i brand, adottano su LinkedIn, da tenere assolutamente presente;
  • I contenuti con alto coinvolgimento saranno analizzati dallo staff di LinkedIn e potenzialmente aperti a un pubblico più ampio. Aspetto che, anche se svolto con grande professionalità, introduce comunque soggettività;
  • Ancora una volta, i post vengono proposti a una piccola percentuale di utenti per misurare l’interesse ed il coinvolgimento iniziale.


Ultimo ma non ultimo, quello che sia per intensità di utilizzo che per numerosità di utenti è il secondo social nel mondo occidentale: YouTube.
L’algoritmo di YouTube è stato sviluppato per servire quelli che contribuiscono maggiormente al sito. Ciò si riflette in alcuni dei fattori di ranking che si basano sulla coerenza di pubblicazione e sul numero di “abbonati” di un account. Sistema che anche recentemente ha generato numerosi problemi, e critiche.
Oltre a richiedere una pubblicazione di circa 2/3 volte a settimana per ottenere la trazione algoritmica, i principali fattori alla base dell’algoritmo della piattaforma social di video sono:

  • La frequenza di caricamento di contenuti è, appunto, un fattore importante;
  • Il tempo di visualizzazione totale e la fidelizzazione del pubblico sono fattori importanti nella classificazione;
  • Anche in questo caso, un video recentemente caricato viene offerto a una piccola percentuale di utenti per misurare il coinvolgimento iniziale;
  • Più iscritti ha un account, maggiore sarà la priorità dell’algoritmo sui suoi video. Criterio quantitativo decisamente discutibile, del quale però non resta che prendere atto “giocando” in casa d’altri con regole stabilite unilateralmente. Un’altra costante di tutte le piattaforme social;
  • I video che della durata tra 7 e 16 minuti sono la lunghezza ottimale;
  • L’algoritmo di YouTube è AI. Impara, capisce e si espande;


 
Se volessimo trovare un conclusione critica potremmo tranquillamente dire che in realtà i social sono quanto di meno social possa esistere, almeno in termini di equivalenza tra socializzazione ed apertura. Walled gardens costruiti su regole e criteri unilaterali per mantenere al loro interno il più a lungo possibile gli utenti, le persone, con il fine ultimo di estrarre il maggior numero di dati da rivendere in diverse forme e formati.
D’altro canto, piaccia o non piaccia, sono assolutamente ciò che maggiormente impegna e coinvolge le persone in Rete, confermando, se necessario, che l’essere umano è un “animale sociale”, e dunque restano un punto di contatto, di relazione e di comunicazione per brand e newsbrand.
In quanto tali sono sempre più rented, endorsed e boosted media al tempo stesso. Soprattutto sono canali di monitoraggio della reputazione, attraverso appunto il social media monitoring, medium di ascolto ed indagine delle tendenze, grazie al social media listening, e fonte inesauribile di dati, grazie al social media mining. Utilizzi che sin qui sono stati assolutamente marginali e che costituiscono invece la base minima, la vera chiave di volta del social media marketing e dunque dell’utilizzo delle diverse piattaforme social in chiave di corporate communication. Altro che piattaforme di distribuzione e fonte di traffico.
Temi che naturalmente, se interessasse approfondire, ci vedono a disposizione come gruppo di lavoro, e che saranno al centro del programma del nostro master in giornalismi e comunicazione corporate.
 




Schiavi dell’algoritmo

Acquistare feltrini da mettere sotto le zampe dei mobili, almeno negli Stati Uniti, può rivelarsi un ottimo affare. E non solo per la salvaguardia dei pavimenti di casa. Un algoritmo utilizzato dai gestori di carte di credito ha infatti stabilito che chi utilizza quei dischetti rappresenta il miglior cliente possibile per le banche. E questo perchè non può che trattarsi di un individuo talmente scrupoloso da considerare insopportabile l’onta di un debito insoluto.

Ogni stagione ha bisogno di un suo idolo laico, e defunti i vari culti della Ragione, della Storia, o della Scienza, la nuova divinità è quella che porta il nome (con buona pace degli spregiatori dell’Islam), di un matematico arabo del nono secolo, Al-Khwarizm, e che, appunto, della divinità possiede tutte le attribuzioni: sembra capace di influire in modo determinante (e benefico) sulle vicende umane, è misterioso e può essere contattato solo da una ristretta, e perciò potentissima, classe di chierici.
Che l’algoritmo sia una bella (e necessaria) invenzione, è fuori di dubbio. Le pagine indicizzate da Google sono arrivate all’incredibile cifra di 30 mila miliardi. Su Facebook vengono postate quotidianamente 350 milioni di foto e 4,5 miliardi di like. Nell’arco di 48 ore, la rete genera la stessa quantità di informazioni che l’umanità ha prodotto dalla preistoria fino al 2003, e tale velocità è destinata ad aumentare.
Ogni giorno Google gestisce 3,3 miliardi di richieste provenienti dai suoi utenti. Solo grazie agli algoritmi, cioè a una serie d’istruzioni matematiche (segrete) che servono a vagliare grandi masse di dati, da una tale disordinata immensità è possibile ricavare ciò che è utile; tanto alla banca desiderosa di individuare la buona clientela che alla coppia in cerca di un ristorante romantico, ma non dispendioso, per festeggiare l’anniversario.
Il fatto è che la cieca fede nell’algoritmo (e forse anche la sua maggiore comodità rispetto al faticoso processo dell’umana valutazione) sta portando a una dilatazione piuttosto inquietante del suo dominio. Dilatazione alla quale si accompagnano i primi dubbi sulla sua effettiva imparzialità. Insomma, il nuovo culto incontra le prime (pesanti) apostasie.
Nelle scorse settimane, per restare solo in Italia, sia il Garante della Privacy Antonello Soro che quello della Concorrenza Giovanni Pitruzzella, hanno lanciato l’allarme. «L’assunzione di lavoratori, la determinazione dell’affidabilità di un prestito, la valutazione di un insegnante, persino il rating di legalità ai fini dell’aggiudicazione degli appalti sono sempre meno il frutto di una scelta umana e sempre più l’esito di selezioni algoritmiche alle quali deleghiamo quasi fideisticamente il compito di decidere aspetti determinanti della vita delle persone», ha osservato Soro. «Il consumatore», ha detto Pitruzzella, «è abituato a ritenere neutrali le informazioni che vede sul suo schermo. Invece sono selezionate da un algoritmo, e il modo in cui questo opera ha conseguenze enormi sulla formazione dell’opinione pubblica. Trovare una notizia al primo posto, o in una seconda schermata, cambia tutto, anche sulle dinamiche competitive…».
Dinanzi a una situazione nella quale la rivoluzione algoritmica non si limita ad aiutare gli esseri umani, ma finisce sempre più per orientarli e persino per predire (condizionandolo) il futuro, è lecito porsi le domande del sociologo francese Dominique Cardon: «Onnipresenti, i calcoli per noi restano un mistero. Guardiamo ai loro effetti senza esaminarne la fabbricazione. Quali sono i principi rappresentativi che animano il modello statistico usato per mettere in classifica tale oggetto piuttosto che un altro? Chi pilota la codificazione dei calcoli, e con quali obiettivi?».
Interrogativi ai quali il Garante della Privacy fornisce una preoccupante risposta: gli algoritmi non sono neutrali perchè riflettono i pregiudizi (o le intenzioni) di chi li ha concepiti. «Numerose applicazioni hanno dimostrato che gli algoritmi non sono matematica pura, infallibile e neutra, ma piuttosto opinioni umane strutturate in forma matematica e riflettono spesso le precomprensioni di chi li progetta, o le serie storiche assunte a riferimento. Con il rischio, dunque, non solo di cristallizzare il futuro nel passato, leggendo il primo con gli schemi del secondo, ma anche di assumere le correlazioni (quasi sempre contingenti) delle serie storiche considerate come relazioni necessariamente causali».
L’esempio più eloquente è quello di un algoritmo utilizzato negli Usa per calcolare il rischio di recidiva penale, che assegna ai neri una più elevata percentuale di “ricadute” solo sulla base di una certa serie storica presa a riferimento. Effetto casuale, o piuttosto voluto ?
Tutto ciò ha anche una ricaduta politica. Se è in grado di condizionare i cittadini nella scelta di un dopobarba o di un’auto, l’algoritmo può essere utilizzato anche per suggerire chi votare. L’elezione di Trump è stata segnata dal sospetto (interventi russi a parte) che la sua campagna si sia servita di un diabolico algoritmo messo a punto dalla Cambridge Analytica.
Le (temute) ambizioni politiche del capo di Facebook, Mark Zuckerberg, già dimostrano che al vecchio populismo erga omnes si può sostituire una più mirata azione dispiegata attraverso la manipolazione degli elettori-navigatori. L’impressione è che per la prima volta nella storia le chiavi del futuro siano state affidate a giocatori non solo privi di controllo democratico, ma persino di volto. Capaci di usare la matematica come, e meglio, dei missili, e dei cannoni.




La modella con 500mila follower che non esiste

Si chiama Lilmiquela e pubblica immagini simili a quelle di una normale fashion blogger, solo che lei è fatta al computer

“Lilmiquela” è il seguito account Instagram di Miquela Sousa, una modella statunitense che da un po’ di tempo ha iniziato anche una carriera da cantante. Lilmiquela ha oltre 550mila follower su Instagram e pubblica costantemente foto di se stessa vestita con abiti di Chanel, Supreme, Proenza Schouler, Vans e molti altri marchi. I suoi post, simili a quelli di moltissime altre modelle sui social, raccolgono decine di migliaia di like, ma hanno una particolarità: ritraggono una modella generata al computer, che non esiste davvero. Almeno per quanto se ne sa.
La storia di Lilmiquela ha iniziato ad attirare le attenzioni dei giornali dal 2016, quando nacque il suo account. Il sito Business of Fashion l’ha recentemente intervistata – o meglio, ha intervistato la persona che gestisce l’account, che non ha mai voluto rivelare la sua vera identità. «Mi piacerebbe essere descritta come un’artista o una cantante, o comunque qualcosa che rispecchi quello che faccio, invece che concentrarsi sulle qualità superficiali di quello che sono». I follower di Lilmiquela sono stati soprannominati “miquelites” e hanno creato una comunità molto coesa e appassionata, come dimostrano i commenti ai suoi post ai quali Lilmiquela risponde spesso personalmente.
Lilmiquela indossa principalmente abiti di streetwear, cioè felpe, sneaker, e altri vestiti che provengono originariamente dalla cultura hip hop, non solo americana ma anche giapponese, e che da qualche anno sono una delle fette principali della moda sui social network. Nei suoi post, Lilmiquela pubblica talvolta anche immagini per sensibilizzare i suoi follower a temi come le discriminazioni verso gli afroamericani o le persone transgender. A volte la sua immagine – chiaramente prodotta da un computer – compare insieme a modelle vere, quasi sempre a Los Angeles, per strada o nei locali. Dal punto di vista del realismo, le simulazioni sono comunque migliorate nel tempo.
Business of Fashion la persona dietro l’account ha detto di non ricevere compensi direttamente dalle aziende di moda: sceglie gli outfit in base ai suoi gusti e ogni tanto riceve abiti omaggio per i suoi post, soprattutto da giovani stilisti che vogliono ottenere visibilità. L’intervista si presta a una certa ambiguità, visto che si parla di un’immagine generata al computer e di abiti veri. In molti hanno ipotizzato però che Lilmiquela – almeno nelle immagini più recenti – sia il risultato del ritocco al computer di immagini di una o più vere modelle. È per questo che la persona dietro Lilmiquela ha detto che i suoi guadagni provengono, oltre che dagli streaming delle sue tre canzoni pubblicate finora, dal lavoro come modella, che ha suscitato l’interesse di «alcune delle più grosse agenzie del mondo».

Sulla vera identità di Lilmiquela sono state fatte molte supposizioni, su YouTube, su Reddit e negli stessi commenti di Instagram. Qualcuno l’ha identificata con Nicole Ruggiero, una grafica di Los Angeles che lavora spesso con le immagini in 3D: lei ha negato, dicendo di non saperne niente. Ma il nome più circolato nelle discussioni tra i fan è quello di Arti Poppenberg, un’altra artista che dopo essere stata citata come possibile autrice dell’account si è eliminata dai social network.
Qualcuno ha ipotizzato che, dal punto di vista del successo ottenuto, l’account sia una critica molto riuscita del confine sempre più sottile tra realtà e finzione nel mondo della moda sui social network e degli influencer, spesso accusati di esibire vite e personaggi completamente fittizi e non aderenti alle loro reali abitudini e personalità. Qualcun altro crede invece che Lilmiquela sia una truffa, mentre altri ancora – la versione più accreditata – dicono sia un esperimento riuscito di un metodo alternativo di promuovere la moda sui social.




Dallo spreco al dono: il modello italiano da esportare in Europa

V Giornata nazionale contro lo spreco alimentare. L’Italia è all’avanguardia sul tema, grazie alla legge 166/2016 che mette l’accento sul recupero e la donazione delle eccedenze alimentari. Un volume curato dall’eurodeputata Patrizia Toia insieme a VITA raccoglie best practice e riflessioni sull’esperienza italiana, per farla conoscere ai colleghi del Parlamento europeo

Dal 2013, il 5 febbraio è la Giornata nazionale contro lo spreco alimentare. Su qualsiasi sito troverete oggi dei dati allarmanti, per dire quanto cibo ciascuno di noi ogni anno o ogni giorno butta nella spazzatura e qual è l’esorbitante valore economico di questo spreco. Lo spreco alimentare rappresenta in Italia il 15,4% dei consumi annui alimentari: nel complesso in Italia sono così persi 12,6 miliardi di euro all’anno, pari a circa 210 euro per persona residente. Ogni anno nell’Unione europea (Ue-28) vengono sprecate circa 88 milioni di tonnellate di cibo, circa 173 kg pro capite, per un valore complessivo di circa 143 miliardi di euro. Stimando la produzione complessiva di alimenti in Europa in 865 kg/per persona, significa che il 20% del cibo prodotto viene sprecato. Lo spreco alimentare genera evidenti costi sociali, economici e ambientali. Tutto vero e tutto giusto, dai numeri all’indignazione fino al desiderio di cambiare e promuovere comportamenti differenti.
Quel che non troverete su molti siti è invece forse la sottolineatura (e la spiegazione) di come i dati sullo spreco alimentare variano in realtà significativamente a seconda della fonte e delle diverse metodologie utilizzate per misurarlo, poiché manca una definizione condivisa di cosa sia “spreco”. Il problema è tanto grave che, dopo anni e soldi sprecati – è il caso di dirlo – per tentare di misurare lo spreco, oggi è maturata a livello europeo una nuova consapevolezza che si sta traducendo in un nuovo approccio al tema dello spreco alimentare, con la distinzione tra Food Loss, Food Waste e Food Surplus. Sempre di più si parla di “eccedenze alimentari” anziché di spreco e si predilige un approccio volto a valorizzare il recupero delle eccedenze lungo tutta la filiera, con l’obiettivo di allungare il più possibile la shelf life (la “vita sul banco”) dei beni alimentari e di destinarli in via prioritaria al consumo umano. Prevenzione della produzione di eccedenze e donazioni del cibo che altrimenti andrebbe sprecato sono infatti i due modi preferibili per combattere lo spreco di cibo. In Italia, ad esempio, due recenti lavori del Politecnico di Milano hanno messo in evidenza come un’analisi più precisa della quantificazione dello scarto, delle eccedenze e dello spreco restituisca un quadro della realtà molto diverso dall’approccio sensazionalistico con cui i media influenzano il dibattito pubblico e soprattutto come una programmazione sistematica e organizzata dei processi di gestione delle eccedenze possa dare risultati di tutto rilievo nell’ottica di aumentare le quantità di cibo recuperato e di diminuire lo spreco alimentare.
Semplificando, l’idea è oggi quella di mettere l’accento, l’attenzione e l’impegno operativo non più sulla misurazione del cibo che viene sprecato ma sulla misurazione del cibo che viene recuperato e donato: le donazioni di alimenti non solo aiutano a combattere la povertà alimentare, ma possono diventare una leva efficace per ridurre le eccedenze alimentari e i rifiuti. Fare buon uso delle eccedenze, è questo il punto decisivo per cambiare i comportamenti. E l’Italia è all’avanguardia su questo, grazie a una legge – la 166/2016, entrata in vigore il 14 settembre 2016, che in un solo anno ha già prodotto risultati di riguardo, a cominciare da un +20% nelle donazioni di cibo, con alcune aree del Sud che hanno registrato tassi di crescita del +120% in un solo anno e soprattutto l’avvio di esperienze di recupero e donazione in settori inediti, come i freschi, il pesce, i cibi già cotti – che mette il riflettore proprio sulle opportunità che esistono per mettere a buon uso le eccedenze una volta che si sono create, riconoscendo la “priorità” del recupero del cibo per fini sociali. È una legge che fin dal titolo mira specificatamente a incentivare la donazione e la redistribuzione delle eccedenze alimentari e a limitare gli sprechi, con un’ottica non punitiva, nata dal confronto diretto con chi questa legge avrebbe dovuto poi usarla ogni giorno, dal Terzo settore ai soggetti donatori.
Questa legge va fatta conoscere, nel suo testo, nei suoi principi ispirativi, nei suoi risultati: è una best practice italiana che ha molto da dire in Europa e che potrebbe essere presa a modello. È per questo che l’onorevole Patrizia Toia pensato al volume “Dallo spreco al dono. Il modello italiano per il recupero delle eccedenze alimentari”, realizzato in collaborazione con VITA, che oggi – in occasione della V Giornata nazionale contro lo spreco alimentare – viene pubblicato (qui potete scaricare il pdf).
Indice Toia Spreco
Troverete analisi, interviste, riflessioni e otto buone pratiche, dal Banco Alimentare a Costa Crociere, da Coop al Tavolo per la lotta agli sprechi e l’assistenza alimentare del Ministero delle politiche agricole alimentari e forestali. «Questo volume nasce con l’intenzione di far conoscere quanto fatto in Italia, affinché la nostra esperienza diventi una buona pratica da esportare a livello continentale e per anticipare quanto l’Europa sta costruendo. L’Unione europea è una delle regioni più ricche del pianeta ed è anche quella più all’avanguardia sui temi dell’ambiente e dell’economia circolare. È arrivato il momento di affrontare sul serio la questione dello spreco alimentare e di considerare l’adozione e l’estensione delle migliori pratiche nazionali, a partire da quella italiana. Siamo orgogliosi che l’Italia come in altri settori abbia proposto all’agenda europea contenuti e iniziative molto avanzate», afferma l’onorevole Patrizia Toia. «La legge 166/2016, cosiddetta “antisprechi”, ruota attorno ad un concetto molto semplice: sprecare non conviene a nessuno, recuperare è un bene per tutti. Si tratta di trasformare lo spreco in una opportunità e ridare valore ai prodotti in eccedenza, a partire dal cibo. Quando si parla di “lotta allo spreco” spesso il primo pensiero va al grande problema della gestione dei rifiuti, in particolare alimentari. Verissimo, ma ho l’impressione che in talune discussioni – anche a livello comunitario – è come se la lancetta si fosse fermata a un concetto obsoleto di economia circolare, superato anche dalle molte esperienze virtuose di aziende, enti del terzo settore e cittadini impegnati su questo versante», scrive nel suo contributo l’onorevole Maria Chiara Gadda, che alla legge italiana ha dato il nome «il contrasto allo spreco, in realtà, ci invita a riflettere in maniera più profonda sul concetto stesso di recupero e riutilizzo delle risorse, che non significa solo gestione efficace ed efficiente, ma un modello in grado di coniugare la sostenibilità sociale, economica ed ambientale di un intero sistema, che nel tempo ha purtroppo mostrato le sue criticità».
Noi abbiamo voluto mettere l’accento sul fatto che la legge italiana è un primo concreto esempio di economia circolare, tema su cui l’Unione europea è fortemente impegnata. Nel paradigma di un’economia circolare è cruciale preservare il valore dei prodotti il più a lungo possibile e i prodotti stessi sono posti al centro del processo di transizione. Ad oggi, però, questa transizione verso l’economia circolare si è concentrata più sui materiali che sui processi, fatto non casuale poiché l’economia circolare nasce dal tentativo di dare soluzione al problema dei rifiuti e gli attuali strumenti politici e commerciali si concentrano su rifiuti o materiali. Ma il design – inteso come progettazione di scenario e come rovesciamento di processi – è la sfida che si apre.
Cosa trovate nel volume? Gli interventi di Alessandro Perego, direttore del Dipartimento di Ingegneria Gestionale del Politecnico di Milano; Jacques Vandenschrik, presidente della Federazione Europea Banchi Alimentari; Patrizia ToiaSimona BonaféElena Gentile Brando Benifei, parlamentari europei; Maria Chiara Gadda, deputata italiana, promotrice della legge 166/2016; Serge LatoucheAldo Bonomi Luigino Bruni. Per le best pratice: “Banco Alimentare. I pionieri del recupero delle eccedenze”, raccontata da Marco Lucchini, Segretario Generale Fondazione Banco Alimentare; “Costa Crociere. La prima volta di una nave”, a firma di Stefania Lallai, Sustainability and External Relations Director, Sustainability and External Relations Department; “KFC. Il pollo fritto entra nel menù”, con la voce di Corrado Cagnola, Amministratore Delegato; “Italmercati. Una rete per l’ortofrutta”, nelle parole del presidente Fabio Massimo Pallottini; “Federdistribuzione. Strutturare i processi aziendali”, a firma di Stefano Crippa, Direttore Area Comunicazione e Ricerche; “Coop. Un volano per la far crescere le donazioni”, spiegato da Mauro Bruzzone, Responsabile Politiche Sociali ANCC – Coop; Luciano Gualzetti, Direttore di Caritas Ambrosiana racconta l’impegno di Caritas Ambrosiana dal Refettorio Ambrosiano di Bottura agli empori solidali e infine Felice Assenza, Presidente del Tavolo per la lotta agli sprechi e l’assistenza alimentare del Ministero delle politiche agricole alimentari e forestali, presenta il Tavolo innovativo istituito dalla Legge 166/2016.



L’economia circolare va al mare

La buona notizia di questa settimana è che per un’impresa adottare l’analisi del ciclo di vita (LCA) per valutare gli impatti ambientali dei prodotti e delle attività produttive può portare ad interessanti scoperte. È il caso di Aquafil, azienda trentina che da anni investe per trovare soluzioni innovative utili al business ma anche all’ambiente.
L’impresa ha scoperto che la maggior parte dell’impatto della produzione di un filo di nylon è dovuto alla produzione delle materie prime: da qui è partito il progetto ECONYL Regeneration System, un sistema innovativo che permette di sostituire la materia prima vergine di origine non rinnovabile con materia prima seconda derivante dal riciclo di rifiuti raccolti in mare.
Dal mare, per il mare: reti da pesca, scarti tessili e scarti di altri tessuti vengono raccolti, ripuliti, triturati e imballati e si trasformano in costumi da bagno venduti in tutto il mondo. Un processo di trasformazione e rigenerazione che rimette in circolo materiali trasformati in fili per tappeti e tessili. Aquafil può affermare che l’economia circolare non è una interessante teoria ma una realtà che migliora il business.
Cosa c’è di nuovo
Riciclare è sempre meglio che produrre consumando risorse preziose ma il riciclo non è sufficiente per sostenere l’industria nel suo sviluppo futuro. Per questo Aquafil coinvolge diversi partner della catena di fornitura per trovare soluzioni sempre nuove: grazie al progetto ECONYL® Qualified l’azienda cerca di stimolare l’eccellenza nella catena di fornitura per rendere la filiera sempre più virtuosa. Con quattro aziende con cui collabora ha creato alcune Linee Guida con cui i fornitori dovranno misurarsi per ottenere il riconoscimento di fornitore ECONYL® Qualified.