un’intelligenza artificiale fuori controllo

un’intelligenza artificiale fuori controllo
un’intelligenza artificiale fuori controllo

Lo scioglimento del team che garantiva lo sviluppo responsabile dell’IA lascia la questione di chi e come lo farà d’ora in poi

Dopo una presentazione più che riuscita, all’annuncio di GPT-4o sono seguite novità complicate per OpenAI. La partenza di Ilya Sutskever ha riportato in auge lo spettro della crisi che l’azienda ha avuto a novembre, e ora ritornano le complicazioni con l’accusa di non aver mantenuto le promesse riguardo al superallineamento.

Questo è stato il concetto che l’azienda ha introdotto per lanciare un team dedicato alla ricerca su come tenere sotto controllo un’intelligenza artificiale super intelligente. Adesso quella squadra si scioglie tra i rimproveri di non aver offerto le risorse promesse.

Perché è importante. Questa decisione solleva interrogativi sulle priorità di OpenAI, la società fondata con la missione di sviluppare un’intelligenza artificiale sicura e benefica per tutta l’umanità (il successo del lancio di ChatGPT l’ha portata a riconsiderare altre priorità). Ora sembra più focalizzato sulla possibilità di lanciare nuovi prodotti a pieno ritmo.

Cos’è successo.

  • OpenAI ha annunciato nel luglio 2022 la creazione del Superallineamento (“Super allineamento”). È stato co-diretto dal co-fondatore Ilya Sutskever e dal ricercatore Jan Leike. Aveva l’obiettivo di “risolvere le principali sfide tecniche legate all’allineamento di una superintelligenza entro quattro anni”.
  • Sutstkever e Leike hanno annunciato le loro dimissioni la settimana scorsa. Sutskever è stato coinvolto in un tentativo fallito di licenziare il CEO Altman a novembre.
  • Leike ha criticato aspramente OpenAI, affermando in X che negli ultimi anni “la cultura e i processi della sicurezza sono passati in secondo piano rispetto a prodotti brillanti”.
  • Secondo quanto riferito, almeno altri cinque dipendenti focalizzati sulla sicurezza dell’intelligenza artificiale si sono dimessi o sono stati licenziati da quell’episodio di novembre Vox.

La risposta di OpenAI. La società ha affermato che il lavoro del team Superalignment sarà “più profondamente integrato” in quello degli altri team di ricerca e che questo cambiamento è iniziato settimane fa.

Sam Altman ha detto in X che hanno “molto da fare” nel campo della sicurezza e si è impegnato a farlo. Anche Greg Brockman, co-fondatore dell’azienda, ha difeso l’approccio alla sicurezza di OpenAI in un lungo post su X, assicurando che sono disposti a ritardare i lanci per questo tipo di problemi.

Immagine: Wikimedia Commons, OpenAI, Xataka.

I dubbi persistono. CNBC E Cablato Includono accuse da parte di diversi ex dipendenti di non allocare risorse computazionali sufficienti per ricercare come controllare un’intelligenza artificiale che diventa più intelligente degli umani.

Gli ex dipendenti affermano inoltre di aver perso fiducia nella leadership di Altman, e più specificamente nel suo impegno per lo sviluppo responsabile dell’intelligenza artificiale. Altri affermano di essere soggetti ad accordi di riservatezza che impediscono loro di criticare apertamente l’azienda.

La tendenza del settore. Anche altre aziende leader nel settore dell’intelligenza artificiale, come Google all’inizio dell’anno o Meta alla fine dello scorso anno, hanno riorganizzato o sciolto i team dedicati alla sicurezza e alla responsabilità.

L’argomento principale è solitamente che preferiscono che questo lavoro venga svolto tangenzialmente all’interno dell’azienda, e non come parte di un’area specifica, ma i critici di questa posizione affermano che avere team specializzati garantisce risorse e potere decisionale per queste questioni.

In sintesi. La corsa per lanciare nuovi prodotti basati sull’intelligenza artificiale è frenetica e OpenAI, che è in testa alla corsa, si trova ad affrontare l’accusa di trascurare la sicurezza. Altre aziende del settore si trovano in situazioni simili.

Lo scioglimento del team dedicato lascia dubbi su chi e come all’interno di OpenAI garantirà che l’intelligenza artificiale sia un vantaggio per l’umanità e non una minaccia, come aveva avvertito la società quando è stata fondata.

A Xataka | Cos’è un gettone quando parliamo di intelligenza artificiale e perché è importante che i Gemelli ne sostengano un milione

Immagine in primo piano | Xataka con Midjourney

 
For Latest Updates Follow us on Google News
 

-

NEXT Prodotti per la pulizia dell’auto a Dollarcity che sono economici