Amazon voleva trasformare Alexa nella nemesi di ChatGPT. Il progetto ha finito per essere un caos

Amazon voleva trasformare Alexa nella nemesi di ChatGPT. Il progetto ha finito per essere un caos
Amazon voleva trasformare Alexa nella nemesi di ChatGPT. Il progetto ha finito per essere un caos
  • L’assistente vocale prometteva un notevole rinnovamento, ma i mesi passano e non arrivano nuove novità

  • I dipendenti dell’azienda parlano di problemi burocratici e “disfunzioni strutturali”

  • Lo sviluppo teorico di un LLM per Alexa procede più lentamente del previsto

Lo scorso settembre Amazon sembrava pronta a lanciare la sua particolare rivoluzione nel mondo dell’intelligenza artificiale. Durante un evento a Washington DC, i responsabili dell’azienda ci hanno mostrato la nuova versione di Alexa. Il suo assistente vocale ci ha invitato a parlare con lui di tutti i tipi di problemi. Volevo essere stupido come una roccia e sembrava che potessi farcela. E poi, silenzio.

Dov’è la nuova Alexa? Si presumeva che dopo la presentazione l’implementazione di Alexa, che sembrava davvero promettente, si sarebbe estesa rapidamente ai circa 500 milioni di dispositivi dotati di tale assistente. Amazon però non ha fornito ulteriori notizie sull’evoluzione del progetto, e solo nel gennaio 2024 sono emerse voci secondo cui Alexa potrebbe apparire quest’anno… con un abbonamento in mano. Cosa sta succedendo? Perché la nuova versione non è stata rilasciata?

Caos su Amazon. Secondo fonti aziendali citate da Fortune, il problema riguarda Amazon. L’organizzazione, dicono, è afflitta da “disfunzioni strutturali” che hanno ripetutamente ritardato il lancio di una nuova Alexa alimentata dall’intelligenza artificiale generativa.

La demo era quella. una dimostrazione. Sebbene la presentazione di Alexa lo scorso settembre fosse stata accattivante, era solo una demo. Quella versione non era pronta per la distribuzione e non è ancora pronta oggi. Il LLM su cui si basa è “tutt’altro che all’avanguardia”, e le ragioni sono varie.

Nessun dato, nessuna GPU. Gli scienziati intervistati che hanno lavorato al progetto hanno spiegato a Fortune che Amazon non disponeva di dati sufficienti per addestrare il modello, né di chip sufficienti per addestrarlo ed eseguirlo in modo competitivo.

È meglio creare un chatbot per il cloud. Invece di continuare a lavorare su Alexa a pieno ritmo, Amazon sembra aver cambiato focus e sta sviluppando un modello di intelligenza artificiale generativa rivolto ad Amazon Web Services. L’azienda ha investito 4 miliardi di dollari in Anthropic, creatore di Claude, ma finora ciò non ha aiutato né da una parte né dall’altra.

Amazon nega che ci siano problemi. Un portavoce di Amazon ha detto a Fortune che i dati forniti erano vecchi, aggiungendo che la società ha accesso a centinaia di migliaia di GPU. Nega inoltre che ad Alexa sia stata depriorizzata o che non stiano usando Claude, ma non ha fornito dettagli su come lo stanno facendo.

Siri supera Alexa a destra. Questo è almeno quello che sembra dopo gli annunci di questa settimana alla WWDC 2024. Lì Apple ha mostrato una versione migliorata di Siri con una voce sintetica più naturale e la possibilità per l’assistente di completare azioni tramite le app a cui si connette. L’integrazione con ChatGPT è un’altra delle straordinarie opzioni di un assistente vocale lanciato nel 2011 e che ora, pur dimenticandosi di alcuni dispositivi che potrebbero migliorarlo, ha una nuova opportunità. Alexa potrebbe essere lasciata indietro.

Gli ex dipendenti di Amazon non sono ottimisti. Mihail Eric, un esperto di machine learning che ha lavorato su Alexa AI, ha recentemente pubblicato un lungo post sull’azienda “piena di problemi tecnici e burocratici”.

E l’Olimpo? Lo scorso novembre è stato rivelato che Amazon aveva in corso un progetto per creare un gigantesco LLM chiamato Olympus con due trilioni di parametri. Si tratta del doppio di quello che si stima utilizzi GPT-4, ma uno degli intervistati su Fortune indica che questa cifra “è uno scherzo”. In realtà, afferma, il modello più grande che hanno è di circa 470.000 milioni di parametri (470B), un quarto di quello che teoricamente avrebbe avuto l’Olympus. Nel frattempo, il LLM di quella nuova versione di Alexa è di circa 100 miliardi, e ora sembrano lavorare per perfezionarlo.

Lento. I progressi nel LLM di Alexa sono ancora modesti. Secondo i dati pubblicati, Llama 3 è stato pre-addestrato con 15 miliardi di token, mentre Alexa LLM è riuscita a farlo solo con 3 miliardi. Anche la sua messa a punto è peggiore di quella del modello di Meta, che utilizzava 10 milioni di punti dati rispetto a solo un milione nel caso di Amazon.

Troppe persone, troppa complessità. Il progetto si è allontanato dai famosi gruppi di lavoro delle “due pizze” di Jeff Bezos e ora riunisce circa 10.000 dipendenti che lavorano anche in diversi scenari d’uso, come la casa, lo shopping, la musica o l’intrattenimento. Ciò non semplifica le cose, ma anche così Amazon è fiduciosa, così come alcuni degli intervistati, che questo LLM per Alexa finirà per apparire sul mercato.

Immagine | Jonathan Borba

A Xataka | Amazon ha assunto il nome “Alexa”. Chiamare le neonate è ridotto del 90% rispetto a prima del primo Echo

 
For Latest Updates Follow us on Google News
 

-