Le nuove ricerche basate sull’intelligenza artificiale di Google diventano un meme a causa dei loro numerosi errori

Le acquisizioni con questi errori iniziano a moltiplicarsi perché suggeriscono agli utenti di usare la colla sulle pizze, di mangiare pietre ogni giorno e spesso offrono tutti i tipi di informazioni errate

La settimana scorsa Google ha iniziato a offrire nelle sue ricerche un piccolo riassunto dei risultati preparati attraverso il suo lungo modello linguistico, Gemelli. La funzione è nota come “Sintesi generali dell’IA“, e mostra prima dei normali risultati della ricerca un piccolo testo che spiega la risposta alla domanda se si tratta di qualcosa che ha una risposta diretta.

“A volte hai bisogno di una risposta veloceE non hai tempo per raccogliere informazioni da qui e da là. La ricerca lo farà per te con i riepiloghi creati con l’intelligenza artificiale”, spiega Lisa Reidvicepresidente di Ricerca Googlela divisione dell’azienda che si occupa della manutenzione del famoso motore di ricerca, in assoluto il più utilizzato sul web.

Al momento la nuova funzione è disponibile solo negli USA ma nonostante le risposte siano rapide, sembra che non sempre siano corrette. In una sola settimana il esempi di riassunti ricerca pieno di errori hanno cominciato a circolare sui social network e segnalano un problema abbastanza serio nel validità che questa intelligenza artificiale fornisce alle informazioni che raccoglie da siti satirici, come la pubblicazione umoristica La cipollao forum con supervisione a bassa risposta, come reddit.

Alla domanda “quante pietre devo mangiare al giorno?”, ad esempio, risponde il motore di ricerca In sicurezza che è salutare mangiare quotidianamente un sasso di piccole dimensioni, citando uno studio del università di berkeley in California. Questa è una conclusione assurda a cui è stata presumibilmente raggiunta un unico articolo in La cipolla in cui questa stessa raccomandazione è fatta con chiaro tono di umorismo.

Un altro utente ha scoperto che il motore di ricerca consiglia di mettere la colla sulla pizza in modo che il formaggio non cada se si usa molta salsa di pomodoro. Questo è un “suggerimento” fatto da un utente su reddit anche in chiaro tono sarcastico che l’AI di Google offre come certezza avendo come riferimento solo quell’unica fonte.

Nelle dichiarazioni alla pubblicazione specializzata TechCrunchi portavoce di Google assicurano che si tratta di domande poco frequenti e spesso formulate appositamente per creare scenari assurdi. Alla domanda “ha mai giocato un cane nella NBA?”, ad esempio, l’intelligenza artificiale di Google risponde affermativamente. Le query più legittime che utilizzano il nuovo sistema spiegano: ottenere risposte utili.

Ma alcuni esempi che gli utenti pubblicano sui social network mostrano chiaramente che i problemi si verificano anche con query abbastanza comuni. L’intelligenza artificiale, ad esempio, assicura che l’ex presidente degli Stati Uniti Barak Obama è musulmanouna bufala che tende a circolare con una certa frequenza nei forum di estrema destra.

Sembra anche certo che almeno 13 presidenti degli Stati Uniti si siano laureati all’Università del Wisconsin-Madison, molti dei quali secoli dopo la loro morte. Secondo l’intelligenza artificiale di Google, Andrea Jacksonil settimo presidente degli Stati Uniti, morì nel 1837ha completato i suoi studi all’università nell’anno 2005.

In alcuni casi questi errori possono avere conseguenze gravi per la salute. Diversi esperti, ad esempio, sottolineano che il motore di ricerca ha avuto degli errori nell’individuare a specie di fungo o dà consiglio sbagliato su cosa fare se soffri di a Morso di serpente. Google include sempre, insieme ai riassunti, i link alle fonti utilizzate per redigerli, ma non sempre sceglie i siti con maggiore autorità e può finire per dare maggior peso alle informazioni che appaiono ripetuto in varie fonti, anche quando errato.

SECONDO FALLIMENTO

I problemi con il nuovo sistema di generazione dei riepiloghi AI nelle ricerche arrivano mesi dopo Google anche riconoscere fallimenti nel sistema di generazione di immagini che utilizza lo stesso motore linguistico, Gemelli.

A febbraio Google ha dovuto interrompere l’implementazione di Gemini perché lo strumento rifiutato di rappresentare i bianchi in contesti storici che lo richiedevano o inserirono persone asiatiche o nere quando veniva chiesto di mostrare immagini di vichinghi, nazisti o cavalieri inglesi medievali.

È una dichiarazione, Sundar Pichai Il CEO di Google si è scusato pubblicamente per la situazione. “So che alcuni dei vostri le risposte hanno offeso ai nostri utenti e hanno mostrato pregiudizi; “Per essere chiari, ciò è del tutto inaccettabile e abbiamo commesso un errore”, ha spiegato Pichai.

 
For Latest Updates Follow us on Google News
 

-

PREV Intervista con Joserra López e Teresa Martos di Findasense
NEXT Apple rinnoverebbe Siri con l’intelligenza artificiale per migliorare il controllo di funzioni specifiche