“Incolla il formaggio sulla pizza e mangia una pietra”: perché Google ci sta dando risposte assurde
Sul palco del Google I/O 2024, la conferenza più importante dell’anno per l’azienda, Google ha collegato l’ultimo modello di intelligenza artificiale (IA) Gemini con il suo motore di ricerca. L’obiettivoè sostituire gli elenchi di link con risposte intuitive e cordiali. Non solo, l’IA può anche analizzare il comportamento di ricerca passato e i dati degli utenti per fornire risultati su misura. Questa è la promessa. Poi c’è il formaggio della pizza che deve essere fissato con la colla per fare in modo che non scivoli.
Questa è una delle risposte generate dalla nuova funzione IA Overview. Non solo, ha anche consigliato agli utenti di “mangiare una pietra al giorno” per assumere più minerali, e ha avuto qualche problema con i presidenti statunitensi, secondo IA Overview Barack Obama è stato il primo presidente musulmano, e Andrew Jackson si è laureato al college nel 2005 .
Secondo il web traffic tracker, Statcounter, il motore di ricerca di Google rappresenta oltre il 90% del mercato globale. Al di là della corsa sfrenata per lo sviluppo e l’integrazione dell’IA, l’azienda deve fare attenzione, al momento, il motore di ricerca rimane infatti il suo prodotto più prezioso.
Gli errori commessi da AI Overview
Che non si deve mettere la colla sulla pizza è risaputo. Il problema è quando il chatbot dà cosigli come “pulire la lavatrice usando candeggina e aceto bianco”, una miscela che, se combinata, può creare gas di cloro nocivo e pericoloso per chi lo inala.
Le risposte sbagliate dell’IA hanno innescato una corsa all’errore, gli utenti sui social hanno condiviso gli screenshot delle loro conversazioni con i chatbot, alcuni hanno persino manipolato le foto. Un account infatti ha allegato una foto e scritto: “Google dice che un buon rimedio per la depressione sarebbe buttarsi dal Golden Gate Bridge”. Come ha spiegato Lara Levin, portavoce di Google, i sistemi dell’azienda non hanno mai prodotto quel risultato.
Il prezzo delle risposte sbagliate
Queste risposte sbagliate potrebbero costare molto all’azienda. Google lo sa, semplicemente perché è già successo. E infatti quando a febbraio 2023 presentò Bard, il rivale di ChatGPT, il chatbot generò informazioni errate o incomplete, anche in ambito scientifico. Dopo la presentazione il valore di mercato dell’azienda è sceso di 100 miliardi di dollari.
Cosa farà ora Google
Levin ha ribattuto spiegando che la maggior parte delle query di AI Overview ha prodotto “informazioni di alta qualità, con collegamenti per scavare più a fondo sul web”.
“Molti degli esempi che abbiamo visto erano query insolite, e abbiamo anche visto esempi falsificati o che non potevamo riprodurre”, ha aggiunto. L’azienda userà questi “esempi isolati” di risposte problematiche per perfezionare il proprio sistema.