1

Nuovo codice di Autoregolamentazione per la reputazione

Nuovo codice di Autoregolamentazione per la reputazione

Dopo un intenso periodo di dibattito e confronto, durato svariati mesi, ha visto la luce il Codice di Autoregolamentazione per la gestione etica della Reputazione nella professione dei relatori pubblici e dei comunicatori, grazie all’appassionato lavoro di un gruppo di colleghi professionisti che ho avuto il piacere e l’onore di coordinare, affiancati da alcuni talenti di eccezione esterni alla Federazione, che hanno prestato le loro competenze al progetto[1].

Che un’organizzazione sia un insieme di sistemi di relazione, che interagisce in continuazione con altri sistemi di relazione, è fuori discussione, anche senza scomodare Lofti Zadeth e la sua teoria fuzzy degli insiemi sfumati: come spieghiamo nel Codice, la forza di questa sintesi si verifica nella solidità di un modello teorico che porta a valutare la performance delle organizzazioni non solo in termini economico-finanziari, ma, soprattutto, di fatto, relazionali; e la qualità delle relazioni si misura – anche – mediante la loro reputazione.

Contare su una buona reputazione costituisce infatti la leva più significativa per ampliare la propria licenza di operare, licenza che è frutto di un processo di continua negoziazione tra un’organizzazione e i suoi pubblici influenti, da rinnovare continuamente, e del quali i relatori pubblici sono per certi versi i sacerdoti, amministratori consapevoli di una liturgia che perimetra e definisce la cornice di senso nella quale le organizzazioni economiche si muovono per attuare la propria mission e raggiungere i loro obiettivi di business e sociali.

La letteratura scientifica – diverse referenze sono citate in calce al Codice stesso – conferma oltre ogni ragionevole dubbio che la reputazione è uno dei maggiori vantaggi competitivi di cui un’organizzazione possa disporre, nonché il più importante dei suoi asset intangibili: orienta i comportamenti di acquisto, e quindi genera – o meno – denaro. E come tutto ciò che è generatore di valore, diventa sempre più oggetto di attenzione e – in alcuni casi, purtroppo – di manipolazione.

Se un tempo i rischi principali per la reputazione di un’organizzazione erano rappresentati, entro una certa misura, dall’organizzazione stessa, ovvero dalla sua capacità o meno di gestire la coerenza tra intenzioni e comportamenti, oggi occorre prender atto di come l’arena della comunicazione sia diventata infinitamente più complessa e insidiosa: agenzie e aziende sempre più spregiudicate, così come liberi professionisti di dubbia integrità, forniscono servizi di vera e propria costruzione ad hoc della reputazione, anche tramite la diffusione ad arte di fake news, o la generazione di fake consensus in rete tramite bot e fake account, per influenzare non solo gli stakeholder, ma soprattutto gli algoritmi che regolano i meccanismi di visibilità nelle varie piattaforme Social e nei principali motori di ricerca.

Ancor più grave, come abbiamo sottolineato nel Codice di Autoregolamentazione, è registrare come quelle stesse agenzie non esitino ad aggredire e distruggere la reputazione di eventuali realtà competitor o comunque sgradite ai propri assistiti, attraverso articolate operazioni informatiche di data forging o data deletion, volte ad alterare le informazioni relative all’organizzazione target, operazioni queste che molto spesso infrangono la legge, prima ancora che i fondamenti etici e deontologici su cui dovrebbe basarsi la nostra professione.

Per questi motivi, è imperativo che i professionisti delle relazioni pubbliche rinnovino l’intenzione e la volontà di agire – nella professione e nel rapporto con i propri mandanti e con gli altri stakeholder di volta in volta coinvolti – con integrità, trasparenza e responsabilità. Ma realmente, non solo a parole.

Perché in presenza di manipolazione, crolla la fiducia; e la costruzione di rapporti basati sulla fiducia appare come un elemento fondamentale per garantire il buon funzionamento delle istituzioni democratiche, per la competitività del sistema economico e per la coesione del tessuto sociale, nonché la precondizione per un’efficace azione di sistema, come ben sottolineato anche dalla Partnership for the Goals – SDG 17 Agenda 2030 dell’ONU.

Da tutto ciò deriva che ogni azione volta a compromettere o alterare in modo non genuino la reputazione, di un’organizzazione quanto di un personaggio pubblico, è tanto più grave nella misura in cui rischia di minare, in modo spesso irrimediabile, il rapporto di fiducia costruito – appunto – con i vari pubblici, con conseguenze a catena spesso catastrofiche, come distruzione di valore, pregiudizio alla business continuity, e, nei casi più gravi, il fallimento di un’azienda o anche il tracollo di un governo regolarmente eletto.

Con questo Codice di Autoregolamentazione, FERPI ha l’ambizione di influenzare virtuosamente non solo i comportamenti e le pratiche degli addetti ai lavori, sollecitandoli a rifiutare di collaborare con clienti che richiedono l’attuazione di pratiche manipolative o ingannevoli a danni di terzi, circostanza purtroppo ben più frequente di quanto si possa pensare, ma anche di elevare il livello di consapevolezza e di responsabilità delle stesse organizzazioni e dei centri di influenza che a noi professionisti si rivolgono per meglio governare i propri sistemi di relazione.

Ammonizione scritta, sospensione temporanea o nei casi più gravi espulsione dall’associazione professionale, sono le sanzioni previste per chi sarà sorpreso a violare le norme del Codice di Autoregolamentazione; che si presenta – vorrei sottolinearlo – come un progetto aperto al dibattito e confronto con altre associazioni di categoria e gruppi di interesse, che auspicabilmente – immaginiamo – amerebbero anch esse garantire che le pratiche professionali nel settore delle relazioni pubbliche e più in generale della comunicazione siano etiche e orientate alla verità e al rispetto dei diritti e degli interessi di tutti i soggetti coinvolti.

La domanda, a questo punto, sorge spontanea: chi raccoglierà la sfida e giocherà la partita da protagonista, e chi invece manterrà un basso profilo sfuggendo al confronto e alla richiesta di ingaggio?

Codice di Autoregolamentazione per la gestione etica della Reputazione nella professione dei relatori pubblici e dei comunicatori


[1] Il documento è stato redatto nel corso dell’anno 2024/25 da un gruppo di lavoro composto dai soci FERPI (in ordine alfabetico per cognome): Ezio Bertino, Daniele Chieffi, Antonio Deruda, Giorgia Grandoni, Biagio Oppi, Luca Poma, Maurizio Ravidà, Cristiana Rogate, Francesco Rotolo, Giampiero Vecchiato e Fabio Ventoruzzo, con la preziosa collaborazione esterna di Giovanna Cosenza (Professore di Semiotica all’Università di Bologna), Alberto Pirni (Professore di Filosofia Morale alla Scuola Superiore Sant’Anna di Pisa) e Nicola Menardo (Avvocato, già Studio Grande Stevens, oggi Studio Weigmann) per la verifica di conformità giuridica. Il gruppo di lavoro è stato coordinato dal socio FERPI Luca Poma. Il Codice è stato redatto attenendosi ai criteri Rough Consensus – Consenso a grandi linee (fonti: DIB – Defence Innovation Board, Comitato misto pubblico/privato del governo USA, e IETF – Internet Engineering Task Force)




Davvero ChatGPT ci sta rendendo stupidi?

Davvero ChatGPT ci sta rendendo stupidi?

A prima vista, i recenti studi scientifici che hanno indagato l’impatto dell’intelligenza artificiale generativa sul nostro cervello non lasciano spazio a dubbi. E portano a una conclusione inevitabile: ChatGPT e gli altri large language model ci stanno rendendo stupidi. Il più recente – e noto – di questi studi è stato condotto dall’Mit di Boston e ha coinvolto 54 persone divise in tre gruppi: il primo ha scritto dei saggi brevi senza nessun ausilio esterno, il secondo si è potuto avvalere dei motori di ricerca e il terzo ha invece sfruttato proprio ChatGPT, il più noto dei large language model.

Risultato del test? “L’elettroencefalogramma ha fornito prove solide del fatto che i gruppi che hanno usato Llm, quelli che hanno impiegato i motori di ricerca e quelli che hanno usato solo il cervello hanno mostrato schemi di attività neurale significativamente differenti, che mostrano strategie cognitive divergenti”, si legge nello studio. L’attività cerebrale diminuiva sistematicamente all’aumentare del supporto esterno: il gruppo ‘solo cervello’ mostrava le reti più forti e diffuse, quello con il motore di ricerca un coinvolgimento intermedio, mentre l’assistenza dell’Llm generava l’attività cerebrale più debole”.

Gli utenti che hanno potuto utilizzare ChatGPT, in particolare, hanno mostrato tassi molto più bassi di attività neurale nelle aree del cervello associate alle funzioni creative e all’attenzione, oltre ad aver prodotto testi omogenei tra loro e ad avere ottenuto i punteggi più bassi nella capacità di ricordare i contenuti dei loro stessi saggi.

Test diversi, risultati simili

Risultati simili sono emersi durante un secondo studio, condotto dalla Swiss Business School di Zurigo e durante il quale è stato chiesto a 666 partecipanti di indicare con quale frequenza impiegassero l’intelligenza artificiale e quanto si fidassero di essa. Una volta ottenute queste informazioni, i partecipanti sono stati sottoposti a dei test per la valutazione del pensiero critico. Prevedibilmente, chi faceva un maggiore uso dell’intelligenza artificiale ha ottenuto punteggi più bassi, mostrando quindi un’inferiore capacità di pensiero critico.

Si potrebbero citare altri studi – tra cui questo di Microsoft Research – ma le conclusioni sono pressoché sempre le stesse: chi usa con maggiore frequenza l’intelligenza artificiale, e si fida maggiormente delle sue capacità, mostra meno attività cerebrale, meno pensiero critico, meno abilità creative e mnemoniche.

Siamo quindi senza speranza? Dobbiamo rinunciare a utilizzare ChatGPT e i suoi fratelli, se vogliamo salvaguardare il nostro cervello? In realtà, la questione è molto più sfumata e sono gli stessi autori dei paper citati a indicare la necessità di condurre “ulteriori e più ampi studi” per verificare le loro conclusioni preliminari.

Conclusioni preliminari che, in un caso, ricordano la proverbiale scoperta dell’acqua calda e, nell’altro, lasciano aperti numerosi interrogativi e altrettante perplessità. Partiamo dallo studio dell’Mit: era inevitabile che il gruppo che poteva appoggiarsi ai large language model mostrasse una ridotta attività cerebrale rispetto a chi non ha potuto impiegare nessuno strumento esterno.

Questo vale soprattutto perché ci sono chiari segnali che il gruppo che ha sfruttato ChatGPT non abbia utilizzato il sistema di OpenAI per produrre dei saggi, ma ne abbia abusato. Lo dimostra innanzitutto la scarsa qualità e omogeneità dei saggi scritti dal “gruppo Llm”: segno evidente che tutto il lavoro (o quasi) sia stato affidato a ChatGPT, con un inevitabile calo dell’attività cerebrale. In poche parole, invece di usare i large language model come supporto l’hanno utilizzato come sostituto (su questo aspetto cruciale torneremo più avanti): l’attività cerebrale non poteva che risentirne.

A confermare questo sospetto è la seconda parte dello studio dell’Mit. Dopo aver completato i primi tre saggi, a 18 dei 54 partecipanti è stato chiesto di scriverne un quarto in condizioni invertite: chi aveva usato gli Llm ha potuto impiegare solo il cervello e viceversa. L’aspetto più interessante di quest’ultima parte dello studio, non sono tanto gli scarsi risultati ottenuti da chi aveva precedentemente usato gli Llm e poi si è ritrovato senza supporto, ma gli ottimi risultati ottenuti invece dal gruppo opposto.

Come scrivono gli autori dello studio: “I risultati suggeriscono che introdurre gli strumenti di intelligenza artificiale in un secondo momento, dopo una fase iniziale di sforzo autonomo, può favorire un maggiore coinvolgimento e una migliore integrazione neurale. I marcatori Eeg corrispondenti indicano che questa sequenza potrebbe essere neurocognitivamente più ottimale rispetto a un utilizzo costante dell’AI fin dall’inizio”. Una nota che conferma come un utilizzo corretto dell’intelligenza artificiale, invece che un suo abuso, possa dare esiti molto diversi, sia dal punto di vista della qualità dell’output, sia dal punto di vista dell’attività cerebrale.

Anche il secondo studio, quello della Swiss Business School, presenta alcuni problemi. Prima di tutto, gli studi basati sull’autovalutazione dei partecipanti sono storicamente poco affidabili; in secondo luogo, non è chiaro quale sia la causa e quale l’effetto: è il fatto di utilizzare intensivamente ChatGPT e avere fiducia in esso che causa una mancanza di pensiero critico, o sono le persone che non spiccano per pensiero critico a utilizzare e a fidarsi eccessivamente dei large language model?

Non è tutto: vista la valutazione (moderatamente) positiva che, nello studio dell’Mit, viene fatta dell’utilizzo dei motori di ricerca, è impossibile non pensare a quando gli stessi identici timori che oggi si hanno nei confronti di ChatGPT riguardavano invece proprio Google. Un celeberrimo articolo dell’Atlantic del 2008 si intitolava proprio: Google ci sta rendendo stupidi?. È lo stesso studio dell’Mit a rievocare il temutissimo “Google Effect”, secondo il quale affidarsi ai motori di ricerca causa “un declino nell’abilità di ricordare” e provoca “uno spostamento degli sforzi cognitivi dalla conservazione delle informazioni a processi mnemonici più esternalizzati”.

E quindi?

Siamo di fronte al solito allarmismo tecnofobico di cui non dobbiamo preoccuparci? A questo punto, tanto vale rievocare i più classici e citati di questi timori. Come si legge sull’Economist, “già nel quinto secolo a.C., Socrate si lamentava della scrittura. Una pozione non per ricordare (remembering), ma per ricordare a sé stessi (reminding). Le calcolatrici evitano ai cassieri di dover calcolare un conto. Le app di navigazione eliminano la necessità di saper leggere una mappa. Eppure, pochi sosterrebbero che per questo motivo le persone siano diventate meno capaci”.

In parte, quindi, siamo di fronte alle inevitabili preoccupazioni che sorgono quando ci troviamo di fronte a una nuova tecnologia. Allo stesso tempo, sarebbe superficiale derubricare questi timori troppo alla svelta. D’altronde, che Google abbia effettivamente avuto un impatto sulla nostra memoria è confermato anche da studi recenti. Se non bastasse, c’è parecchia differenza tra fare una divisione con la calcolatrice e farsi scrivere un tema scolastico da ChatGPT.

Come ha spiegato sempre all’Economist lo psicologo Evan Risko, docente all’università di Waterloo e noto per aver coniato il termine cognitive offloading (“esternalizzazione del carico cognitivo”): “L’intelligenza artificiale generativa permette di esternalizzare un insieme di processi molto più complessi. Delegare qualche calcolo mentale, che ha applicazioni piuttosto limitate, non è la stessa cosa che delegare un intero processo di pensiero come la scrittura o la risoluzione di problemi. E una volta che il cervello prende gusto a questa esternalizzazione cognitiva, può diventare un’abitudine difficile da abbandonare”.

Concedetemi un esempio personale, che riguarda il giornalismo ma che sicuramente si può adattare a molti altri contesti. Per il mio lavoro utilizzo quotidianamente ChatGPT e altri strumenti basati sull’intelligenza artificiale. Ovviamente non per scrivere articoli, ma per trovare refusi, individuare la traduzione migliore per un termine inglese (come “cognitive offloading”), farmi suggerire delle alternative per titoli o sottotitoli quando non mi viene in mente nulla (modificandoli a piacimento o rifiutandoli del tutto), farmi consigliare come rendere più scorrevole un paragrafo che mi sembra involuto (anche solo per “sbloccarmi” e spesso senza poi utilizzare i suggerimenti che mi vengono forniti).

Insomma, credo di impiegare ChatGPT nel modo corretto e non di delegare a esso il mio lavoro (e, in realtà, nemmeno di risparmiare tempo). Eppure, è ovvio che se prendo l’abitudine di chiedere a ChatGPT di suggerirmi come completare un sottotitolo ogni volta che sono bloccato, alla lunga non sarò più in grado di farne a meno e magari perderò qualche abilità creativa. È un processo simile a quello a cui ci ha costretto Google: forse la nostra memoria si è davvero atrofizzata, in cambio abbiamo ottenuto la possibilità di accedere a qualsiasi informazione in qualsiasi momento, spalancando opportunità (anche) intellettuali che un tempo ci erano precluse.

In due parole: pro e contro

Alcune abilità si perderanno, altre si acquisiranno. Per affrontare al meglio i rovesci della medaglia dell’intelligenza artificiale generativa è però indispensabile uscire dalla “narrazione della sostituzione”, secondo la quale ChatGPT e gli altri sistemi affini sono sul punto di sostituire l’essere umano.

È una narrazione utile alle aziende che vogliono tagliare i costi e sostituire quanti più dipendenti possibile con le AI, ma non è quella corretta. Le abilità di ChatGPT e gli altri (fondamentalmente, eseguire complicatissimi calcoli probabilistici) non sono sostitutive delle nostre (astrazione, pensiero critico, valutazioni, ecc.), ma complementari a esse.

È anche a causa di questa interpretazione errata dell’intelligenza artificiale che può sembrare corretto valutare l’impatto di ChatGPT sul nostro cervello facendogli svolgere un lavoro al posto nostro. Questi sistemi vanno invece impiegati come se fossero degli assistenti molto volenterosi, ma per niente affidabili. Che possono supportarci ma che vanno usati con cognizione di causa e attentamente supervisionati.

Come segnala Barbara Larson, docente di Management alla Northeastern University, “Il modo più intelligente per trarre vantaggio dall’intelligenza artificiale è limitarne il ruolo a quello di un assistente entusiasta ma un po’ ingenuo”. Non dobbiamo quindi chiedere a un chatbot di generare direttamente il risultato finale desiderato, ma guidarlo passo dopo passo lungo il percorso che porta alla nostra soluzione. Questo utilizzo dell’intelligenza artificiale non è preferibile a quello sostitutivo (solo) perché ci permette di salvaguardare il cervello, ma soprattutto perché è il modo giusto per sfruttarne al meglio le potenzialità.

Quando sarà passata la fase di hype e il nostro rapporto con le intelligenze artificiali sarà più maturo, probabilmente tutto ciò ci sembrerà scontato. E se ciò avverrà, è anche possibile che – tra ciò che si perde e ciò che invece si guadagna – alla fine il bilancio per l’essere umano sia positivo.




American Eagle crolla dopo aver assunto un team di crisi per la pubblicità

American Eagle crolla dopo aver assunto un team di crisi per la pubblicità

 Le azioni di American Eagle Outfitters Inc (NYSE:AEO) sono scese del 3,9% dopo che Modern Retail ha riportato che l’azienda ha assunto specialisti esterni di comunicazione di crisi per gestire le reazioni negative alla recente campagna pubblicitaria con Sydney Sweeney.

Il rivenditore di abbigliamento da 3,3 miliardi di dollari sta collaborando con Actum, una società di consulenza globale specializzata nella gestione delle crisi, secondo informazioni ottenute da Modern Retail. La mossa arriva mentre American Eagle affronta critiche per la sua campagna “Sydney Sweeney Has Great Jeans”, che gioca sull’omofonia tra “jeans” e “genes” (geni).

I critici hanno condannato la campagna per aver presumibilmente evocato temi di eugenetica e suprematismo bianco, mentre altri hanno notato che rappresenta un allontanamento dall’approccio di marketing precedentemente orientato alla body positivity del marchio. Le pubblicità controverse sono state esposte in modo prominente su autobus, su un cartellone di 20 piani a Times Square, sulla Sphere di Las Vegas e su piattaforme social come Snapchat e Instagram.

Quando contattato riguardo alla controversia, un rappresentante di Actum ha risposto alle richieste dei media, confermando il loro coinvolgimento con il marchio. Tuttavia, l’agenzia di pubbliche relazioni ufficiale di American Eagle ha successivamente dichiarato che questo rappresentante “non era autorizzato a parlare per conto di AE”.

La reazione negativa del mercato suggerisce che gli investitori sono preoccupati per il potenziale danno alla reputazione del marchio e il possibile impatto sulle vendite mentre il rivenditore affronta questa sfida di pubbliche relazioni.




Gwyneth Paltrow, Astronomer e la crisis communication del 2025

Gwyneth Paltrow, Astronomer e la crisis communication del 2025

Le immagini di Andy Byron, abbracciato alla sua amante durante il concerto dei Coldplay, fanno parte di un bagaglio immaginifico complessivo incredibilmente attuale, oltre che ancor più assurdamente protagonista degli ultimi giorni. Non c’è bisogno neanche di spiegare perché e, soprattutto, di quali accezioni stiamo parlando: per giorni, sui social non si è parlato di altro, soprattutto in un’era in cui di gossip si ha bisogno quasi vitalmente e costantemente; allo stesso tempo, però, accanto ad Andy Byron e ai Coldplay, che sono stati inglobati in un ciclone mediatico tutt’altro che banale, c’è stata anche l’occasione di chiamare in causa il cinema e di renderlo protagonista in quella che – in gergo – viene chiamata crisis communication. In questo senso, c’entra il nome di Gwyneth Paltrow, scelta come nuovo volto “temporaneo” di Astronomer per riabilitare l’immagine del brand: ma vediamo più da vicino che cosa è successo e perché.

La crisi di Astronomer e la scelta di Gwyneth Paltrow

Senza scendere troppo nel dettaglio di quelli che sono stati i fatti che hanno riguardato Andy BryonCEO di Astronomer, sintetizziamo in pochissime battute tutto ciò che è accaduto per ragioni di cronaca: durante il concerto dei Coldplay, nel momento della kiss-cam, l’uomo viene inquadrato dalle telecamere mentre era abbracciato alla sua amante, dirigente della stessa azienda. Le immagini dell’uomo che si nasconde e della donna che si copre il volto diventano virali, causando la reazione silente della moglie di lui, le dimissioni di Andy Byron da CEO e di Astronomer e tutte le polemiche relative a quanto l’effettiva immagine-social possa entrare nella vita di un individuo (indipendentemente dalla sua moralità), cambiando l’intera storia che lo riguarda.

Quella che ha affrontato Astronomer è una marketing crisis, in termini tecnici: un’associazione del lavoro, delle opportunità finanziare e dell’intero bagaglio di un’azienda ad un solo volto, non esattamente ben voluto e oggetto di hating da parte dei più. Insomma, si può tranquillamente immaginare come questa crisi sia particolarmente negativa per l’immagine complessiva di un’azienda, che ha necessariamente bisogno di scollegarsi da quella di una sola persona, in questo caso Andy Byron, per riabilitare il proprio impatto con il pubblico. Da qui la scelta di Gwyneth Paltrow, che non è soltanto un’attrice particolarmente amata, ma anche l’ex moglie di Chris Martin, frontman dei Coldplay, con un duplice risultato che ha l’obiettivo di risollevare immediatamente consenso: ironizzare sulla vicenda e strizzare anche l’occhio a quel timore, profondamente attuale, che la privacy di ognuno possa essere incontrovertibilmente minata.

Le immagini di Andy Byron e la sua amante durante il concerto dei Coldplay

La crisis communication del 2025 e il cinema come fonte di fiducia

La scelta di Gwyneth Paltrow per gestire la crisi comunicativa di Astronomer muove sostanzialmente da un elemento: l’attrice è l’ex moglie di Chris Martin, e sceglierla come volto testimonial della fase di transizione di Astronomer permette di ironizzare su una vicenda che, al di là di ogni altra valutazione, ha messo anche i Coldplay sotto i riflettori per quel tema dell’invasione della privacy che da tempo si lamenta, soprattutto in contesti come quello del concerto. La stessa band ha avuto modo di aggiustare il tiro nei concerti successivi, avvisando della presenza di una kiss-cam prima che questa fosse effettivamente attivata, ma il punto resta: qual è il confine tra un elemento di per sé amato dal pubblico e la possibilità che un solo errore e una sola immagine rovini una realtà molto più ampia?

Poiché non più solo di Andy Byron si parla, ma anche di Astronomer e di 300 dipendenti che rischiano di affrontare una crisi sistemica, il video fortemente ironico con cui Gwyneth Paltrow svia l’interesse del pubblico verso l’effettiva operatività dell’azienda acquisisce un grande valore. Per più motivi: innanzitutto, slega l’immagine dell’azienda da un volto noto (anche se per poco tempo), associandolo (anche se temporaneamente) ad un altro volto noto; in secondo luogo, pone l’accento sull’affidabilità di un’azienda che non si identifica nel suo ex-CEO; in ultimo, e questo ci sembra l’elemento più importante di tutti, associa al cinema un’idea di fiducia e affidabilità, elemento importantissimo se si parla di crisis communication: riconquistare il favore del pubblico è fondamentale per chi affronta una crisi di immagine, e il cinema può fornire il destro per una nuova immagine, questa volta più bonaria e legata quasi al tema del deus ex machina. In più semplici parole: se a parlare è un attore, specie se famoso, allora quel che dice deve essere presumibilmente vero, ed ecco che l’immagine di Andy Byron si affievolisce immediatamente, rimanendo legata ad un sì brutto, ma al contempo ormai superato passato.

Che tutto sia effettuato in maniera repentina e quasi invadente è certamente un altro discorso: la grande esposizione mediatica a cui ci si sottopone, al giorno d’oggi, impone delle logiche che non sono più uguali al passato, e bisogna rendersi conto che qualsiasi errore – o presunto tale – ha un’amplificazione molto più ampia rispetto a quanto ci si potrebbe altrimenti attendere. Andy Byron è allora il passato, Gwyneth Paltrow resta temporanea e adatta a superare la crisi, ma per Astronomer è tempo di guardare oltre. E il modo in cui lo si è concretizzato è, comunicativamente, impeccabile.




Se il comunicato stampa è umano il pubblico si fida: nuova ricerca rivela che l’origine del messaggio influenza credibilità, responsabilità e percezione aziendale più della strategia adottata nella crisi

Se il comunicato stampa è umano il pubblico si fida: nuova ricerca rivela che l’origine del messaggio influenza credibilità, responsabilità e percezione aziendale più della strategia adottata nella crisi

Una tastiera che batte tasti in carne e ossa, oppure un algoritmo che tesse frasi con intelligenza binaria: spesso il lettore non percepisce alcuna differenza, ma la fiducia si costruisce tutta nella trasparenza della firma. In tempi di crisi aziendali, la domanda non è più solo cosa comunicare—ma soprattutto chi lo sta scrivendo.

Circa un campione di partecipanti, informato su un’immaginaria crisi alimentare che coinvolge un’azienda dolciaria, è stato invitato a leggere un comunicato stampa redatto con identico contenuto ma attribuito alternativamente a un autore umano o all’intelligenza artificiale.

I risultati sono stati netti: i messaggi identificati come di origine umana hanno guadagnato punteggi di fiducia e credibilità sensibilmente superiori rispetto ai messaggi presumibilmente scritti da un algoritmo.

Le reazioni, raccolte dopo esposizione a differenti tipologie di strategia comunicativa (da quella meramente informativa, a quelle scusanti e compassionevoli), evidenziano che né il tono né il tipo di messaggio influenzano la percezione quanto l’identità—umana o digitale—del mittente.

Reputazione aziendale e responsabilità percepita

Oltre alla valutazione dei singoli testi, i partecipanti sono stati chiamati a giudicare l’affidabilità della organizzazione alla base del messaggio. Emerge così che il grado di responsabilità attribuito all’azienda cresce in modo significativo quando la comunicazione si presenta con un “volto umano”.

In particolare, i lettori reputano più trasparenti e responsabili quelle realtà che si espongono direttamente, mentre l’uso dichiarato di IA genera una sottile diffidenza, indipendentemente dalla strategia di risposta. Secondo i ricercatori, “il pubblico non può imporre la responsabilità su una macchina. Devono attribuire la responsabilità a una persona”.

I dati sottolineano come la responsabilità delle aziende venga effettivamente riconosciuta solo attraverso un intermediario percepito come reale.

Intelligence artificiale, etica e nuove linee guida per la comunicazione di crisi

La crescente presenza dell’intelligenza artificiale nelle pubbliche relazioni apre nuove sfide per la trasparenza e la gestione delle crisi aziendali. L’indagine mostra che non basta replicare formalmente i contenuti umani per garantire la stessa fiducia del pubblico.

Si impone la necessità di chiarezza sull’utilizzo della tecnologia, di attenzione nella revisione degli output e di consapevolezza che ogni messaggio automatizzato potrebbe essere accolto con maggiore scetticismo.

Le aziende, di fronte a incidenti che possono compromettere la reputazione, sono chiamate a riflettere sul valore di una comunicazione autentica, in grado di trasmettere responsabilità e affidabilità reale. La scelta fra esseri umani e intelligenza artificiale diventa così una variabile strategica sempre più centrale nel rapporto tra imprese e consumatori.