Gemini rimandata a settembre !

Google ha riconosciuto di aver commesso degli errori con la sua funzione di ricerca basata sull’intelligenza artificiale, Gemini AI, che in alcuni casi ha fornito consigli bizzarri e inappropriati, come suggerire di mettere la colla sulla pizza o di mangiare sassi1Tuttavia, Liz Reid, manager a capo di Ricerca Google, ha chiarito che molti degli screenshot che circolavano online erano falsi e non riflettevano le risposte effettivamente fornite da Google1.

Reid ha spiegato che alcune delle risposte strane e imprecise erano dovute a quello che viene definito un “gap informativo”, che si verifica quando ci sono poche fonti disponibili su un determinato argomento1Google ha lavorato per migliorare la situazione, apportando più di una dozzina di miglioramenti tecnici per affrontare i problemi identificati1.

Questo incidente mette in luce le sfide che le aziende devono affrontare nel garantire che le IA generino risposte accurate e utili, specialmente quando le informazioni disponibili sono limitate o di dubbia qualità. È un promemoria importante del fatto che, nonostante i progressi tecnologici, l’intelligenza artificiale non è infallibile e richiede un monitoraggio e un miglioramento continui1.

Lascia un commento

AI Generativa

Articolo precedente

Una corsa contro il tempo
AI Generativa

Articolo successivo

AI Generativa: Innovazione Senza Limiti