I dipendenti di OpenAI avvertono dei rischi dell’intelligenza artificiale e della mancanza di supervisione

I dipendenti di OpenAI avvertono dei rischi dell’intelligenza artificiale e della mancanza di supervisione
I dipendenti di OpenAI avvertono dei rischi dell’intelligenza artificiale e della mancanza di supervisione

La presunta incoscienza di Sam Altman a capo di OpenAI, creatore dello strumento di intelligenza artificiale ChatGPT, gli è già costata temporaneamente la posizione alla fine dello scorso anno.

Ma è tornato vittorioso dopo un’epurazione nel consiglio di amministrazione della società che gli ha aperto la strada per dare priorità agli affari rispetto alle preoccupazioni per la sicurezza e alla possibile minaccia per l’umanità.

La tempesta interna, però, non si placa. Un gruppo di dipendenti interni lancia ancora una volta l’allarme su quella che vedono come la cultura spericolata e riservata dell’azienda di San Francisco che sta correndo per creare i più potenti sistemi di intelligenza artificiale mai costruiti. Quel gruppo critico, che comprende nove dipendenti attuali ed ex, ha pubblicato ieri una lettera in cui chiede meno segretezza e denuncia la priorità di OpenAI sui vantaggi economici spostandosi verso un’intelligenza artificiale generale con la capacità di sviluppare tutto ciò che fanno gli esseri umani.

Lamentano anche che l’azienda guidata da Altman, dotata di potere assoluto, ricorre a tattiche molto dure per impedire ai lavoratori di esprimere le loro preoccupazioni su questa tecnologia, come gli accordi di silenzio restrittivi che devono firmare coloro che lasciano questa azienda. Il silenzio non vale se chi se ne va parla bene.

“OpenAI è molto entusiasta di costruire IAG e sta gareggiando selvaggiamente per essere il primo ad arrivarci”, ha detto Daniel Kokotajlo, un ex ricercatore di quell’azienda. Il New York Times . È uno dei membri del gruppo critico e, secondo la sua versione, numerosi dipendenti hanno firmato la sua lettera, anche se in forma anonima per timore di ritorsioni.

Lindsey Held, portavoce di OpenAI, ha risposto: “Siamo orgogliosi del nostro track record e di fornire i servizi più capaci e sicuri nel nostro approccio scientifico per affrontare i potenziali rischi”.

Pochi giorni fa Ilya Sutskeyer, cofondatore e uno di coloro che hanno votato per il licenziamento di Altman, ha lasciato l’azienda dopo aver avvertito del potenziale pericolo dell’intelligenza artificiale.

 
For Latest Updates Follow us on Google News
 

-

PREV Il trucco per conoscere i vestiti che saranno in vendita da Zara prima che escano
NEXT Chi è Luana Alonso? Il giovane nuotatore olimpico diventato trend sui social