Il settore tecnologico ha superato i 165.000 licenziamenti nell’ultimo anno, secondo il tracker Layoffs.fyi. Microsoft ha eliminato 15.000 posizioni, Amazon 30.000 in sei mesi, Block ha tagliato il 40% della forza lavoro — 4.000 persone — a febbraio. Meta ha avviato riduzioni per oltre 1.000 dipendenti e, secondo Reuters, potrebbe arrivare al 20% dell’organico. Oracle ha licenziato migliaia di persone questa settimana. Pinterest e Atlassian hanno azzerato rispettivamente il 15% e il 10% dei propri team.

La giustificazione è ovunque la stessa: investire nell’intelligenza artificiale, automatizzare, fare di più con meno; tuttavia, gli unici benefici sono i costi di personale ridotti, mentre l’AI ha generato ben poco di misurabile, nella maggior parte dei casi. Se ogni trimestrale diventa l’occasione per annunciare tagli “AI-driven” e incassare l’applauso di Wall Street, è lecito chiedersi quanto di questa narrativa sia strategia industriale e quanto sia — per usare un termine che in Italia conosciamo già bene — puro AI washing.

Il caso più esplicito è quello di Block: quando Jack Dorsey ha collegato pubblicamente i licenziamenti ai guadagni di produttività dell’AI, il titolo della società è salito del 22% in un giorno. Due settimane dopo aveva già perso il 7%, scivolando a quota 60 dollari, anche a causa di un’indagine dello studio legale Halper Sadeh sulle responsabilità fiduciarie del management. Lo stesso schema si è ripetuto con Amazon e Oracle: il mercato applaude l’annuncio, poi aspetta i risultati. E nel frattempo dubita. Truist Securities ha mantenuto un rating Hold su Block dopo i tagli, alzando le stime sugli utili del 14% ma senza nascondere l’incertezza: la domanda è se l’azienda abbia tagliato nell’osso, eliminando competenze che non potrà ricostruire.

Il mercato applaude l’annuncio, poi aspetta i risultati. E nel frattempo dubita.

Ethan Mollick, professore alla Wharton School ed esperto di AI, lo dice senza giri di parole: “Il massimo dell’hype, quello per cui l’AI sta sostituendo le persone, non è vero. Ma non è nemmeno vero che l’AI non minaccerà mai i posti di lavoro. Sarà complicato.” La posizione di Mollick è la più onesta nel panorama degli analisti: riconosce la potenziale crisi occupazionale futura, senza assecondare la narrativa del rimpiazzo imminente.

Eppure i tagli avvengono in un contesto dove l’intelligenza artificiale generativa non è affidabile abbastanza per mantenere le promesse. Stephan Rabanser, ricercatore post-dottorale a Princeton, è coautore di un paper sull’affidabilità degli agenti AI: i sistemi attuali faticano a produrre la stessa risposta corretta anche con lo stesso prompt, soprattutto quando cambiano utenti o condizioni operative. “L’affidabilità sarà un fattore limitante chiave“, ha detto Rabanser. Un problema che anche ricerche condotte da Google e MIT hanno confermato.

Aggiungere complessità ai sistemi multi-agente spesso ne degrada le prestazioni anziché migliorarle

Stuart Russell, professore a Berkeley e tra i massimi esperti mondiali di intelligenza artificiale, aggiunge un elemento strutturalei dati di training di alta qualità si stanno esaurendo. E quando un modello non dispone di dati sufficienti, tende a rispondere con sicurezza comunque, producendo errori che in contesti aziendali possono tradursi in transazioni difettose o cancellazioni di database.

Il divario tra le cifre e la realtà operativa

I dati di training di alta qualità si stanno esaurendo, ma i modelli rispondono con sicurezza comunque

Le metriche di produttività citate dalle aziende non reggono a un esame ravvicinato. Google ha accreditato all’AI il 50% del proprio codice nell’ultima trimestrale. Block sostiene che il 90% del codice venga scritto “parzialmente o completamente con supporto AI”. Ma un ex supervisor di ingegneria di Block, licenziato a febbraio, racconta una dinamica diversa: “Ora c’è tre volte tanto codice perché l’AI produce più velocemente. Non riuscivamo a stare al passo con le code review.” Le revisioni umane restano indispensabili per individuare conflitti tra componenti del sistema e bug che il codice generato rende apparentemente legittimi.

Un ex designer UX senior di Amazon Web Services, anch’egli licenziato di recente, descrive una situazione analoga: il suo team usava due strumenti AI interni, entrambi in fase di test iniziale, nessuno dei due funzionante a regime. Quando sono arrivati i tagli, la reazione è stata di spaesamento. “Niente di tutto questo è pronto. Chi farà questo lavoro, e come?”

Mollick definisce “fabbriche oscure” le aziende che hanno già adottato i casi d’uso più estremi: codice scritto interamente dall’AI e spedito in produzione senza revisione umana. Il rischio, in settori come sanità o giustizia, non è soltanto reputazionale. È una questione di conseguenze concrete su persone reali. Eppure il modello si diffonde, trainato dalla pressione dei mercati finanziari e dalla corsa a tagliare costi.

Codice scritto dall’AI e spedito senza revisione umana: Mollick le chiama fabbriche oscure

Il rischio di sopravvalutare la portata dell’AI nel mondo del lavoro ha precedenti abbondanti. Dalla bolla dot-com ai veicoli autonomi, la storia della tecnologia è una sequenza di previsioni aggressive seguite da correzioni dolorose. Thomas Malone, professore di information technology al MIT Sloan, è cauto: “Molte persone stanno sopravvalutando la velocità con cui i posti di lavoro cambieranno.”

Marc Andreessen, venture capitalist e tra i più ascoltati evangelisti dell’intelligenza artificiale, ha affermato in un podcast che le grandi aziende tech stanno licenziando perché erano sovraffollate, e “ora hanno la scusa perfetta: ah, è l’AI”. La tesi — che il clima di hype funzioni da copertura per decisioni dettate da mercati in rallentamento, domanda debole e costi crescenti — trova conferma nei dati. Ryan Nunn, direttore della ricerca al Budget Lab di Yale, è netto: “Non vediamo nulla di differenziale nel mercato del lavoro esposto all’AI.” Come ha scritto l’economista John Quiggin su The Guardian, i guadagni di produttività dell’AI finiscono nei profitti, non nelle condizioni di lavoro.

Nel frattempo, dentro le aziende il clima è quello della conformità forzata. Un ex dipendente Microsoft ha descritto la pressione ad adottare la tecnologia “che lo volesse o no”. Sollevare perplessità — ambientali, occupazionali — era un rischio: “Non vuoi essere conosciuto come la persona contro l’AI.”

Il risultato è un doppio binario: licenziamenti giustificati con l’intelligenza artificiale da un lato, adozione forzata di strumenti che non hanno ancora prodotto i vantaggi dichiarati dall’altro. Andrej Karpathy ha pubblicato uno strumento che assegna un punteggio di esposizione all’AI a 342 occupazioni: i colletti bianchi ben pagati risultano i più esposti, non i lavoratori a basso reddito. C’è un’ironia nel fatto che chi ha costruito questi strumenti sia anche il primo a essere colpito dai tagli. Ma l’ironia più amara riguarda chi ha costruito la narrativa. I numeri di Layoffs.fyi sono reali. Il collegamento causale con l’intelligenza artificiale, per usare il linguaggio della ricerca, è tutto da dimostrare.

I numeri sono reali. Il collegamento causale con l’intelligenza artificiale è tutto da dimostrare.

Quello che emerge dai dati, dalle testimonianze e dall’analisi delle trimestrali è un settore che ha trovato nell’AI il perfetto dispositivo retorico: sufficientemente nuovo da giustificare qualsiasi ristrutturazione, sufficientemente vago da non richiedere prove immediate, sufficientemente attraente per Wall Street da trasformare ogni taglio in un rialzo del titolo. È un meccanismo che si autoalimenta. Più le aziende licenziano in nome dell’AI, più il mercato premia la decisione, più le altre aziende si sentono legittimate a fare lo stesso. Il problema è che i fondamentali non seguono: la tecnologia non è matura, l’affidabilità è incerta, i dati di training scarseggiano.

Resta una domanda che nessun CEO sembra voler affrontare: cosa succede quando il ciclo si spezza? Quando i mercati cominceranno a chiedere non più annunci ma risultati, le aziende che hanno tagliato nell’osso si troveranno senza le competenze necessarie per costruire ciò che hanno promesso. È già successo: è la storia della dot-com, del cloud ai suoi esordi, dell’IoT. La differenza, questa volta, è che 165.000 persone hanno già pagato il prezzo di un esperimento non dichiarato.

image_pdfVersione PDFimage_printStampa