Una ricerca effettuata tramite intelligenza artificiale su Google ha affermato erroneamente che Obama è musulmano. Ora l’azienda disattiva alcuni risultati

Una ricerca effettuata tramite intelligenza artificiale su Google ha affermato erroneamente che Obama è musulmano. Ora l’azienda disattiva alcuni risultati
Una ricerca effettuata tramite intelligenza artificiale su Google ha affermato erroneamente che Obama è musulmano. Ora l’azienda disattiva alcuni risultati

Valeria Ordóñez Ghio

New York (CNN) – Google ha promesso che i suoi nuovi strumenti di ricerca di intelligenza artificiale (AI) “faranno il lavoro per te” e renderanno la ricerca di informazioni online più rapida e semplice. Ma pochi giorni dopo il lancio, l’azienda sta già tornando sui propri passi dopo alcuni risultati sostanzialmente errati.

Google all’inizio di questo mese ha introdotto uno strumento di panoramica dei risultati di ricerca generati dall’intelligenza artificiale, che riassume i risultati di ricerca in modo che gli utenti non debbano fare clic su più collegamenti per ottenere risposte rapide alle loro domande. Ma la funzionalità è stata criticata alla fine di questa settimana per aver fornito informazioni false o fuorvianti alle domande di alcuni utenti.

Ad esempio, diversi utenti hanno pubblicato su X che il riepilogo dell’intelligenza artificiale di Google afferma che l’ex presidente degli Stati Uniti Barack Obama è musulmano. In effetti, Obama è cristiano. Un altro utente ha pubblicato un riepilogo dell’intelligenza artificiale di Google in cui si afferma che “nessuno dei 54 paesi riconosciuti in Africa inizia con la lettera ‘K'”, dimenticandosi chiaramente del Kenya.

I redattori di notizie mettono in guardia dalla nuova ricerca di Google basata sull’intelligenza artificiale e mettono in guardia dagli impatti “catastrofici”.

Venerdì Google ha confermato alla CNN che i riepiloghi AI per entrambe le query erano stati rimossi per violazione delle politiche aziendali.

“La stragrande maggioranza delle panoramiche sull’intelligenza artificiale fornisce informazioni di alta qualità, con collegamenti per immergersi più a fondo nel web”, ha detto in una nota la portavoce di Google Colette Garcia, aggiungendo che alcuni altri esempi virali di errori dell’intelligenza artificiale di Google sembrano essere immagini manipolate. “Abbiamo condotto test approfonditi prima di lanciare questa nuova esperienza e, come per altre funzionalità che abbiamo lanciato nella Ricerca, accogliamo con favore il feedback. “Stiamo adottando misure rapide, ove opportuno, in base alle nostre politiche sui contenuti.”

La parte inferiore di ogni panoramica della ricerca sull’intelligenza artificiale di Google riconosce che “l’intelligenza artificiale generativa è sperimentale”. E l’azienda afferma di eseguire test progettati per imitare potenziali malintenzionati nel tentativo di evitare che risultati falsi o di bassa qualità appaiano nei riepiloghi dell’intelligenza artificiale.

Le panoramiche di ricerca di Google fanno parte della più ampia spinta dell’azienda a incorporare la sua tecnologia Gemini AI in tutti i suoi prodotti mentre cerca di tenere il passo nella corsa agli armamenti dell’IA con rivali come OpenAI e Meta. Ma il disastro di questa settimana mostra il rischio che l’aggiunta dell’intelligenza artificiale – che tende a fornire informazioni false – possa minare la reputazione di Google come fonte affidabile per la ricerca di informazioni online.

Google mostra come funzionerà l’intelligenza artificiale di Gmail, Foto e acquisti online

Anche nelle ricerche meno serie, la panoramica dell’intelligenza artificiale di Google a volte sembra fornire informazioni errate o confuse.

In un test, la CNN ha chiesto a Google “quanto sodio c’è nel succo di sottaceti”. La revisione dell’IA ha risposto che una porzione da 8 once fluide di succo di sottaceti contiene 342 milligrammi di sodio, ma che una porzione inferiore alla metà (3 once fluide) conteneva più del doppio di sodio (690 milligrammi). (Il succo di sottaceti Best Maid, venduto da Walmart, contiene 250 milligrammi di sodio in appena 1 oncia.)

La CNN ha anche cercato: “dati utilizzati per la formazione sull’intelligenza artificiale di Google”. Nella sua risposta, AI Overview ha riconosciuto che “non è chiaro se Google impedisca l’inclusione di materiali protetti da copyright” nei dati online raccolti per addestrare i suoi modelli di intelligenza artificiale, citando una delle principali preoccupazioni su come operano le società di dati.

Questa non è la prima volta che Google è costretta a ridurre le capacità dei suoi strumenti di intelligenza artificiale a causa di un errore imbarazzante. A febbraio, la società ha interrotto la capacità del suo generatore di foto AI di creare immagini di persone dopo essere stata criticata per aver prodotto immagini storicamente imprecise che raffiguravano in gran parte persone di colore piuttosto che bianchi.

Il sito Web Search Labs di Google consente agli utenti nelle aree in cui sono state implementate panoramiche di ricerca AI di attivare e disattivare la funzionalità.

Il filo della CNN
™ & © 2024 Cable News Network, Inc., una società della Warner Bros. Discovery. Tutti i diritti riservati.

 
For Latest Updates Follow us on Google News
 

-

PREV Due imprenditori hanno creato una piattaforma con intelligenza artificiale per combattere il cambiamento climatico
NEXT Guarda l’universo come non l’hai mai visto prima