AI di Google, da Marcy a Marziani: quando l’ignoranza diventa automatica (e ti dice pure di mangiare colla)

L’AI Overviews di Google è già attiva in Italia. Ma tra cani scambiati per umani e consigli da barattolo, ci mostra un futuro dove l’intelligenza è artificiale… ma l’errore è reale.

In Usa l’intelligenza artificiale di Google continua a far parlare di sé. Dopo aver suggerito  agli utenti di “aggiungere un po’ di colla alla pizza” e “mangiare sassi”, l’AI Overviews è tornata a far notizia con un errore imbarazzante: ha scambiato una consulente SEO di fama internazionale per il suo cane.

La vittima dell’ultima “allucinazione” è Lily Ray, SEO strategist e VP di Amsive, descritta come una cagnolina di 9 anni da Google AI. Il sistema ha preso un contenuto dal sito personale di Ray, confondendo la sua bio con quella del suo cane Marcy. Sì, davvero.

La notizia è stata riportata da PPC Land e ha suscitato una raffica di reazioni online. Ma è solo l’ultimo di una serie di scivoloni preoccupanti: lo scorso anno, come documentato dalla BBC, l’AI Overviews aveva consigliato agli utenti di consumare colla e pietre, prendendo alla lettera un post ironico su Reddit. Reddit, tra l’altro, ha  firmato un accordo da circa 60 milioni di dollari con Google per fornire dati con cui addestrare la sua intelligenza artificiale.

Cos’è AI Overviews e perché ne sentirete parlare ancora

AI Overviews è la funzione introdotta da Google per fornire risposte sintetiche e automatiche in cima ai risultati di ricerca. Dopo i test negli Stati Uniti, è già attiva anche in Italia, in particolare per chi usa Chrome o le app Google su dispositivi mobili.

Non tutte le ricerche attivano l’overview, ma quando compare, il sistema propone un riassunto testuale creato da un modello AI — che può includere anche errori clamorosi. E la maggior parte degli utenti non sa che può evitarlo.

Come evitare gli errori dell’AI Overviews di Google

Probabilmente chi usa ancora Google come motore di ricerca non si è accorto che qualcosa è cambiato. E non in meglio.
Ora le risposte non arrivano più da fonti affidabili, ma da un’intelligenza artificiale che inventa, confonde e spesso semina errori con assoluta sicurezza.

Per evitarlo, ecco cosa potete fare:

  • Quando compare l’AI Overview, cliccate su “Web” in alto per tornare ai risultati classici.

  • Provate motori alternativi come Bing, DuckDuckGo o Ecosia. Non sono perfetti, ma almeno distinguono un umano da un cane.

  • E, soprattutto: non credete a tutto quello che leggete. Se una risposta sembra troppo comoda o troppo “giusta per essere vera”, forse non lo è.

Se oggi l’AI Overview di Mountain View scambia una  donna per un cane, e ieri consigliava di mangiare colla e sassi, forse è il caso di fermarsi a riflettere.
Non tanto sulla tecnologia in sé, ma su come la stiamo accettando, senza farci domande, dentro strumenti che continuiamo a usare per abitudine.

L’errore non è solo tecnico. È culturale. È l’idea che Google  non sbagli mai — anche quando le prove dicono il contrario.
E se tutte le AI possono inciampare, le cantonate di Google sono epiche. Ma la cosa più grave è che non si scusano nemmeno.

In un mondo dove le risposte arrivano prima delle domande, l’unica vera intelligenza resta quella che ci fa dubitare. E cambiare strada, se serve.

VEDI ANCHE: COME GLI ITALIANI USANO L’AI

Ben tornato!