image_pdfVersione PDFimage_printStampa

Una tastiera che batte tasti in carne e ossa, oppure un algoritmo che tesse frasi con intelligenza binaria: spesso il lettore non percepisce alcuna differenza, ma la fiducia si costruisce tutta nella trasparenza della firma. In tempi di crisi aziendali, la domanda non è più solo cosa comunicare—ma soprattutto chi lo sta scrivendo.

Circa un campione di partecipanti, informato su un’immaginaria crisi alimentare che coinvolge un’azienda dolciaria, è stato invitato a leggere un comunicato stampa redatto con identico contenuto ma attribuito alternativamente a un autore umano o all’intelligenza artificiale.

I risultati sono stati netti: i messaggi identificati come di origine umana hanno guadagnato punteggi di fiducia e credibilità sensibilmente superiori rispetto ai messaggi presumibilmente scritti da un algoritmo.

Le reazioni, raccolte dopo esposizione a differenti tipologie di strategia comunicativa (da quella meramente informativa, a quelle scusanti e compassionevoli), evidenziano che né il tono né il tipo di messaggio influenzano la percezione quanto l’identità—umana o digitale—del mittente.

Reputazione aziendale e responsabilità percepita

Oltre alla valutazione dei singoli testi, i partecipanti sono stati chiamati a giudicare l’affidabilità della organizzazione alla base del messaggio. Emerge così che il grado di responsabilità attribuito all’azienda cresce in modo significativo quando la comunicazione si presenta con un “volto umano”.

In particolare, i lettori reputano più trasparenti e responsabili quelle realtà che si espongono direttamente, mentre l’uso dichiarato di IA genera una sottile diffidenza, indipendentemente dalla strategia di risposta. Secondo i ricercatori, “il pubblico non può imporre la responsabilità su una macchina. Devono attribuire la responsabilità a una persona”.

I dati sottolineano come la responsabilità delle aziende venga effettivamente riconosciuta solo attraverso un intermediario percepito come reale.

Intelligence artificiale, etica e nuove linee guida per la comunicazione di crisi

La crescente presenza dell’intelligenza artificiale nelle pubbliche relazioni apre nuove sfide per la trasparenza e la gestione delle crisi aziendali. L’indagine mostra che non basta replicare formalmente i contenuti umani per garantire la stessa fiducia del pubblico.

Si impone la necessità di chiarezza sull’utilizzo della tecnologia, di attenzione nella revisione degli output e di consapevolezza che ogni messaggio automatizzato potrebbe essere accolto con maggiore scetticismo.

Le aziende, di fronte a incidenti che possono compromettere la reputazione, sono chiamate a riflettere sul valore di una comunicazione autentica, in grado di trasmettere responsabilità e affidabilità reale. La scelta fra esseri umani e intelligenza artificiale diventa così una variabile strategica sempre più centrale nel rapporto tra imprese e consumatori.

image_pdfVersione PDFimage_printStampa