Gemini rimandata a settembre !
Google ha riconosciuto di aver commesso degli errori con la sua funzione di ricerca basata sull’intelligenza artificiale, Gemini AI, che in alcuni casi ha fornito consigli bizzarri e inappropriati, come suggerire di mettere la colla sulla pizza o di mangiare sassi1. Tuttavia, Liz Reid, manager a capo di Ricerca Google, ha chiarito che molti degli screenshot che circolavano online erano falsi e non riflettevano le risposte effettivamente fornite da Google1.
Reid ha spiegato che alcune delle risposte strane e imprecise erano dovute a quello che viene definito un “gap informativo”, che si verifica quando ci sono poche fonti disponibili su un determinato argomento1. Google ha lavorato per migliorare la situazione, apportando più di una dozzina di miglioramenti tecnici per affrontare i problemi identificati1.
Questo incidente mette in luce le sfide che le aziende devono affrontare nel garantire che le IA generino risposte accurate e utili, specialmente quando le informazioni disponibili sono limitate o di dubbia qualità. È un promemoria importante del fatto che, nonostante i progressi tecnologici, l’intelligenza artificiale non è infallibile e richiede un monitoraggio e un miglioramento continui1.