1

Gli influencer sono inaffidabili, agenzia li molla e lavora con l’IA

Gli influencer sono inaffidabili, agenzia li molla e lavora con l'IA

Aitana è una ragazza spagnola di 25 anni, originaria di Barcellona, che sta avendo grande successo come modella. Fin qui nulla di strano, se non fosse che Aitana è un’invenzione: si tratta di una ragazza creata con l’intelligenza artificiale da una società spagnola che, dopo essersi stufata di lavorare con modelli e influencer e doverne assecondare i capricci, ha deciso di affidarsi all’IA.

The Clueless, questo il nome dell’agenzia, è stata molto chiara nelle sue dichiarazioni, rilasciate dal fondatore Rubén Cruz: “L’abbiamo fatto per poter vivere meglio e non dipendere da altre persone che hanno l’ego, manie o che vogliono solo guadagnare molto mettendosi in posa”. Diana Núñez, co-fondatrice di The Clueless, ha dichiarato a Fortune di essere rimasta sorpresa soprattutto dai “costi alle stelle” di quegli influencer.

 

 
 
 
 
 
Visualizza questo post su Instagram
 
 
 
 
 
 
 
 
 
 
 

 

Un post condiviso da Aitana Lopez✨|Virtual Soul (@fit_aitana)

Aitana è senza dubbio un successo, con oltre 140 mila follower su Instagram, un contratto come ragazza immagine del brand di integratori sportivi Big e tanto altro. La modella è stata creata con una personalità complessa, dei tratti caratteriali ben definiti e, sui social, viene data l’impressione di una vita reale, tant’è che moltissimi follower continuano a seguirla e ad amarla anche ora, nonostante si sappia che si tratta di un’invenzione.

Dopo diversi tentativi per trovare il design e la personalità migliori, The Clueless ha fatto decisamente centro: Aitana guadagna circa 3.000 euro al mese, ma in un’occasione è arrivata a 10.000.

Nonostante i problemi avuti con modelli e influencer in carne e ossa, Núñez è convinta che l’IA non li sostituirà, almeno per il momento: guardando al futuro, è difficile immaginare cose che Aitana non possa fare. “Immagina di parlare con Aitana a casa tua attraverso occhiali per la realtà virtuale. Siamo persino aperti all’idea che ogni follower di Aitana abbia un’esperienza personalizzata, il tutto con rispetto e con lo stesso affetto che le diamo come se fosse una persona reale”.




KISS: annunciano i loro avatar, continueranno a suonare dal vivo come band virtuale

KISS: annunciano i loro avatar, continueranno a suonare dal vivo come band virtuale

KISS hanno concluso pochi minuti fa a New York l’ultimo concerto del tour “End Of the Road“, annunciato da tempo come il concerto finale della band.
In coda al concerto la band ha annunciato l’inizio di una nuova era in cui la band continuerà in forma di avatar.

Alla fine del concerto la band ha lasciato il palco mentre una versione virtuale dei KISS ha suonato “God Gave Rock And Roll To You“.
Gli avatar dei KISS sono stati creati dalla celebre azienda di effetti speciali Industrial Light & Magic (ILM) e prodotti e finanziati dalla Pophouse Entertainment, la stessa azienda dietro allo spettacolo ABBA Voyage.

Paul Staney ha dichiarato:

Quello che abbiamo realizzato è stato incredibile, ma non è abbastanza. La band merita di continuare a vivere perché è più grande di noi. È emozionante per noi fare il passo successivo e vedere i KISS resi immortali.

Gene Simmons ha aggiunto:

Possiamo essere per sempre giovani e per sempre iconici portandoci in luoghi che non abbiamo mai sognato prima. La tecnologia farà saltare Paul più in alto di quanto abbia mai fatto prima.

Il CEO della Pophouse Entertainment Per Sundin ha dichiarato:

Questa tecnologia permetterà ai KISS di portare avanti la loro eredità in eterno. I KISS potrebbero tenere un concerto in tre città nella stessa notte in tre diversi continenti. Ecco cosa si potrebbe fare con questa tecnologia.




Ai Act, sulle regole per l’intelligenza artificiale raggiunto l’accordo in Europa. Breton: “Momento storico, guideremo la corsa”

Ai Act, sulle regole per l’intelligenza artificiale raggiunto l’accordo in Europa. Breton: “Momento storico, guideremo la corsa”

L’Unione europea avrà una pionieristica legislazione sull’Intelligenza artificiale, la più completa ed organica al mondo, con l’obiettivo di coniugarne lo sviluppo con il rispetto dei diritti fondamentali. Sabato notte – dopo 36 ore di negoziato finale condotto nell’arco di tre giorni – l’Europarlamento, la Commissione e il Consiglio hanno trovato un accordo politico sull’AI Act. Il testo finale andrà ancora limato nelle prossime settimane, ma l’intesa assicura che sarà approvato entro la fine della legislatura europea, per poi entrare progressivamente in vigore nei successivi due anni. Un risultato non scontato, considerate le distanze con cui da un lato il Parlamento, più attento alla protezione dei diritti, e dall’altro i governi, più attenti alle ragioni dello sviluppo economico e dell’ordine pubblico, si erano presentati a questo ultimo appuntamento negoziale. Lo scoglio sulla regolamentazione delle Intelligenze artificiali più potenti, come quelle sviluppate dai colossi OpenAi, Meta e Google, era stata superato giovedì: saranno sottoposte a regole vincolanti su trasparenza e sicurezza, non solo a codici di condotta volontari. Ieri poi si è trovato un compromesso anche sull’ultimo, l’utilizzo delle applicazioni di AI nei contesti di polizia: resta ammesso il riconoscimento biometrico, per citare uno dei temi più spinosi, ma solo in caso di reati gravi e previa autorizzazione di un giudice.

“E’ un momento storico”, ha esultato il Commissario europeo Thierry Breton, definendo l’AI Act una rampa di lancio che permetterà a ricercatori e aziende europee “di guidare la corsa globale all’AI”. “Questa legge assicura che i diritti e le libertà siano al centro dello sviluppo di questa tecnologia rivoluzionaria, garantendo un bilanciamento tra innovazione e protezione”, ha detto Brando Benifei, europarlamentare Pd e relatore della norma. Anche se le incognite sull’equilibrio finale, l’applicazione e l’efficacia dell’AI Act restano molte.

Emozioni, discriminazioni e supervisione umana

Il principio alla base dell’AI Act è la distinzione delle applicazioni dell’Intelligenza artificiale sulla base del livello di rischio che pongono per i diritti fondamentali. Una serie di ambiti giudicati troppo rischiosi sono quindi banditi: si tratta per esempio dei sistemi di “social scoring” (come quello teorizzato e sperimentato in Cina), o di quelli che manipolano comportamenti e decisioni. Gli algoritmi di riconoscimento delle emozioni vengono banditi da scuole e luoghi di lavoro, ma sembrerebbe restino utilizzabili in contesti di immigrazione e sicurezza, come chiedevano i governi. La spunta invece il Parlamento sui sistemi di categorizzazione basati su informazioni sensibili – razza, religione, orientamento sessuale -: saranno vietati.

C’è poi una lunga serie di applicazioni giudicate ad “alto rischio” e sono quelle che riguardano ambiti che toccano i diritti fondamentali come salute, lavoro, educazione, immigrazione, giustizia. Qui l’AI Act introduce una serie di prescrizioni per chi le sviluppa e per chi le utilizza, come per esempio una valutazione preliminare dell’impatto, anche per evitare i rischi – ben documentato – di errori o discriminazioni, la necessità di una supervisione umana, quella di informare l’utilizzatore che sta interagendo con una macchina.

Riconoscimento facciale ed eccezioni per la polizia

Come detto, un punto molto dibattuto è stato l’utilizzo dei sistemi di riconoscimento biometrico. Il Parlamento – con l’appoggio di diverse organizzazioni per i diritti civili – aveva proposto un bando completo, mentre i governi volevano ampissime eccezioni per i contesti di sicurezza. Il compromesso è che potranno essere usati solo previa autorizzazione di un giudice e in circostanze ben definite. Quelli “ex post”, quindi su immagini registrate solo per cercare persone sospettate di crimini gravi, quelli in tempo reale solo per emergenze terroristiche, ricerca di vittime o di sospettati di crimini gravi. Le eccezioni per la polizia riguardano anche l’utilizzo di applicazioni alto rischio, che potranno essere impiegate anche prima di aver ricevuto l’attestazione di conformità su autorizzazione di un giudice.

La legge non pone invece alcune limite all’utilizzo degli algoritmi nell’ambito della difesa e militare, che è esclusiva competenza degli Stati membri.

ChatGPT e i suoi fratelli

Rispetto al testo originario della Commissione, che risale a due anni fa, questo accordo aggiunge una serie di prescrizioni per le cosiddette General purpose AI, cioè grandi modelli così potenti da prestarsi a molteplici utilizzi. E’ il caso di quello alla base di ChatGPT e di quelli sviluppati dagli altri big della Silicon Valley come Google o Meta. Queste prescrizioni saranno vincolanti: una vittoria del Parlamento, visto che i governi – in particolare Germania, Francia e Italia – avevano chiesto nei giorni scorsi di limitarsi a dei semplici codici di condotta, nel timore che una regolazione troppo stringente finisca per soffocare l’innovazione in Europa.

La norma su questi grandi modelli ha due livelli. Il primo, che si applica a tutti, prevede la pubblicazione di una lista dei materiali usati per l’addestramento degli algoritmi, strumento che in teoria dovrebbe aiutare i produttori di contenuti a difendere – o farsi riconoscere – i diritti d’autore, oltre all’obbligo di rendere riconoscibili – per contrastare truffe o disinformazione – tutti i contenuti prodotti all’AI. Il secondo livello si applicherà invece ai sistemi più potenti, quelli che pongono “rischi sistemici”, e prevede delle valutazioni di questi pericoli e delle strategie di mitigazione, oltre che l’obbligo di comunicare alla Commissione, che si doterà di un apposito AI Office, eventuali incidenti. Il mancato rispetto delle regole comporta multe che vanno dall’1,5 al 7% del fatturato globale delle aziende coinvolte.

Le incognite

Le disposizioni dell’AI Act, una volta approvato, entreranno in vigore in maniera progressiva: dopo sei mesi quelle sulle applicazioni proibite, dopo dodici quelle sui sistemi ad alto rischio e sui modelli più potenti, le ultime dopo due anni. Sono tempi che serviranno alla Commissione per stabilire i dettagli tecnici necessari all’implementazione e alle aziende per adattarsi, anche se nel frattempo saranno già incoraggiate ad adeguarsi volontariamente. Ma certo questo lungo periodo di avvio alimenta i dubbi di chi sostiene che per una legge sarà difficilissimo tenere il passo di una tecnologia che – grazie all’abilità degli ingegneri e ai miliardi investiti – evolve in modo esponenziale. E che più la normativa è dettagliata più rischia di essere inefficace. L’alternativa, d’altra parte, è non prevedere alcuna regola o affidarsi ai codici di condotta autonomamente elaborati dalle stesse aziende: un approccio che è quello adottato per ora in sede di G7 e anche negli Stati Uniti, ma che consegna a Big Tech il potere di autoregolarsi. L’Europa pensa che non basti.

L’altra incognita riguarda la possibilità che questa normativa finisca per danneggiare l’innovazione in Europa più che favorirla. L’idea, anche questa diffusa, è che l’arbitro – in questo caso la Ue – non vince mai. Ma i rischi posti dall’Intelligenza artificiale, enormi come le opportunità, fanno dire a tanti altri che un arbitro in questo caso è necessario. Con la speranza che un campo da gioco delimitato con chiarezza aiuti a far crescere fuoriclasse in grado di competere con quelli americani.




“Ferragni? Video di scuse inutile, compromesse immagine e reputazione”

"Ferragni? Video di scuse inutile, compromesse immagine e reputazione"

Chiara Ferragni, il gestore di crisi dopo lo scandalo con Balocco: “Non prendano in giro i cittadini”

Chissà cosa starà pensando adesso Chiara Ferragni, con un milione di euro in meno e la reputazione decisamente compromessa. Il caso, divenuto in breve tempo “scandalo”, che ha visto protagonisti la regina degli influencer e i pandoro della Balocco rappresenta certamente un brutto colpo per i due brand. E riguardo questo non c’è molto su cui disquisire.

Resta invece un dubbio. Che effetto avrà il video di scuse della Ferragni, in cui annuncia oltretutto l’importante donazione, sulla propria reputazione? Affaritaliani.it lo ha chiesto a Luca Poma, Professore di Reputation management all’Università LUMSA di Roma e all’Università della Repubblica di San Marino, oltre che specialista in digital strategy e crisis communication.

Il video di scuse aiuterà l’influencer e la Balocco a far cadere tutto nel dimenticatoio?

Il filmato sarà efficace con il pubblico più fidelizzato dell’influencer, quello capace di perdonare “tutto”. Era il minimo che potesse fare, ma è anche arrivato in modo tardivo; l’influencer avrebbe dovuto pubblicarlo prima. Comunque, in questo momento, il sentiment dei Social non sembra venirle in aiuto: secondo i primi sondaggi, infatti, il 69% dei commenti online sono negativi.

Questo video non è autentico, in quanto contiene intrinsecamente una bugia. Ferragni dice di donare un milione di euro per sostenere le cure dei bambini dell’Ospedale Santa Margherita, ma i soldi che mette non sono i suoi. Devolverà semplicemente la cifra che ha incassato dal business dei pandoro con Balocco. Non si possono prendere in giro i cittadini.

Ferragni lo definisce un errore di comunicazione

Non è assolutamente un problema di questo tipo, la vicenda è stata chiaramente costruita in maniera discutibile fin dall’inizio. È stata manipolata la percezione del pubblico a fini di lucro, e non è la prima volta che succede. Chiara Ferragni è già finita nuovamente sotto i riflettori per una storia molto simile con al centro, questa volta, le uova di Pasqua. Mi sembra incredibile che un’azienda come la Balocco possa prestarsi a manovre di questo genere.

Che impatto pensa che avrà sui due brand?

Pesante, senza ombra di dubbio. Facendo un’analisi più generale, l’immagine e la reputazione di Chiara Ferragni e della Balocco sono state pregiudicate e compromesse. Questa storia rappresenta una vicenda triste che porta a tema che la reputazione è una cosa seria.

Dopo quanto tempo viene dimenticato un evento del genere?

La credibilità è molto complessa da costruire, mentre basta pochissimo per distruggerla. Difficile dire quanto tempo ci vorrà per far tornare le cose alla normalità, ma la strada per la Ferragni è sicuramente in salita.




Rating ESG e lotta al greenwashing, la proposta del nuovo regolamento

Rating ESG e lotta al greenwashing, la proposta del nuovo regolamento

A Bruxelles si avvicina il momento per discutere della proposta di Regolamento del Parlamento europeo e del Consiglio europeo sulla trasparenza e sull’integrità delle attività di rating ambientale, sociale e di governance (ESG), messo recentemente a punto dalla Commissione europea.

Pur risultando centrale per agevolare il raggiungimento degli obiettivi del Green Deal europeo e delle Nazioni Unite, il mercato dei rating ESG è attualmente viziato da non conformità, elementi distorsivi e soprattutto rischio di greenwashing, con il risultato che la fiducia degli investitori può risultarne compromessa. Un problema dimostrato anche da una recente ricerca finanziata dall’Europarlamento stesso e presentata a Bruxelles nel giugno scorso, secondo la quale il 70% circa delle aziende che pubblicano bilanci di sostenibilità, convalidati da una Società di certificazione, confermano che il lavoro di quest’ultima si è basato solamente sull’analisi di documenti ed evidenze prodotte dall’azienda stessa, senza quindi venire sottoposti a una vera e propria verifica da parte dei Certificatori, mentre sono solo un quarto (25) le organizzazioni che affermano di essersi sottoposte a uno specifico audit interno sulla rendicontazione dei criteri ESG.

In particolare, i rating ESG sono ormai indispensabili ovunque per partecipare a bandi, appalti e anche solo beauty contest, ma il mercato appare come una giungla, e nella maggior parte dei casi le cosiddette “certificazioni ESG” altro non sono che banali validazioni di auto-dichiarazioni delle aziende stesse, spesso risultanti dalla compilazione di “checklist online” – ovviamente a pagamento – sulle quali non viene effettuato poi alcun controllo di autenticità.

“Non esistendo un quadro normativo specifico a livello europeo per i rating ESG, gli Stati membri, attualmente, operano indipendentemente l’uno dall’altro, generando eccessiva eterogeneità, possibili conflitti e una protezione ineguale degli investitori nei diversi Stati membri”, ha dichiarato Luca Poma, Professore di Reputation Management all’Università LUMSA di Roma e all’Università della Repubblica di San Marino, che ha avuto modo di analizzare nel dettaglio la bozza di proposta che sta per approdare in Parlamento ed avanzare alle autorità preposte alcune osservazioni di merito. “Questo strumento legislativo vuole garantire, attraverso dichiarazioni ESG credibili, autentiche e rilasciate da enti e agenzie autorizzate, una standardizzazione di questo genere di certificazioni, garantendo un approccio omogeneo tra gli Stati membri e una maggiore trasparenza e protezione degli investitori”.

Il valore di un simile intervento legislativo risiede quindi nell’offrire coerenza per un quadro normativo omogeneo che faciliterebbe la comparabilità tra i rating ESG, evitando l’emergere di norme diverse a livello nazionale, e garantendo attraverso un approccio uniforme su tutto il territorio europeo la riduzione delle incertezze per gli operatori del mercato.

Un passo importante nella lotta al greenwashing, ma non mancano le criticità, ha confermato il professore: “Per fare solo tre esempi tra tanti, la bozza per com’è ad oggi concepita prevede che l’ESMA (l’Autorità europea degli strumenti finanziari e dei mercati dell’UE) abbia l’autorità per fare ispezioni solo in caso di segnalazione di violazioni e non di propria iniziativa. Senza ispezioni in loco, verifiche e altri meccanismi di controllo, non vi sarà alcuna certezza che i requisiti previsti dal regolamento siano mantenuti nel tempo dalle agenzie di certificazione. Poi, non è prevista la creazione di una banca dati delle aziende che hanno ricevuto il rating ESG e delle relative agenzie che le hanno certificare. Questo limita fortemente la trasparenza verso i cittadini, che dovrebbe invece essere una delle prerogative principali dell’UE. Infine, dovrebbero essere gli stessi fornitori di rating ESG ad adottare le misure necessarie per garantire che i rating ESG forniti non siano influenzati da alcun conflitto di interessi, ma chi poi, dall’esterno, avrà la responsabilità di verificare che queste misure siano effettivamente rispettate? Insomma – ha concluso Poma – c’è molto di buono in questa proposta di regolamento, ma anche molto ancora da migliorare”.

La proposta è ora approdata in Parlamento con la votazione in Commissione prevista per la fine di novembre.