Breaking news

Opinione: Il dramma attorno a Sam Altman è un avvertimento urgente

Opinione: Il dramma attorno a Sam Altman è un avvertimento urgente
Opinione: Il dramma attorno a Sam Altman è un avvertimento urgente

Opinione di Jill Filipovic

(CNN)— La notizia tecnologica più importante di questa settimana è la cacciata di Sam Altman dal suo ruolo di CEO di OpenAI, una mossa che ha scosso l’azienda e l’industria. Centinaia di dipendenti di OpenAI hanno minacciato di dimettersi. Altman è già passato a un ruolo presso Microsoft. E OpenAI, la società dietro ChatGPT, è al suo terzo CEO in altrettanti giorni.

È tutto molto succoso. Ma questo dramma dovrebbe anche sollevare domande più ampie, ben oltre le assunzioni e i licenziamenti interni di un’azienda, tra cui: chi sono le persone che prendono le decisioni che determineranno gran parte del nostro futuro tecnologico? Quali principi guida stanno utilizzando per prendere tali decisioni? E come dovrebbero le altre istituzioni – governi, industrie non tecnologiche, alleanze globali, organismi di regolamentazione – tenere sotto controllo i peggiori eccessi degli innovatori dell’IA potenzialmente pericolosi?

OpenAI è stata fondata come organizzazione no-profit, con la missione esplicita di sfruttare quella che potrebbe presto diventare un’intelligenza sovrumana “a beneficio dell’umanità nel suo insieme”. Ma quella sensibilità non è durata. L’azienda ora ha un ramo a scopo di lucro multimiliardario. Hanno sviluppato nuove tecnologie alla velocità della luce e talvolta le hanno rese pubbliche prima che alcuni dipendenti credessero che fossero pronte. Secondo quanto riferito, l’azienda ha già inventato una tecnologia di intelligenza artificiale così pericolosa che non la rilascerà mai, ma non dirà nemmeno ai giornalisti o al pubblico esattamente di cosa si tratta.

Questa dinamica – una tecnologia potenzialmente pericolosa sviluppata a velocità estrema, in gran parte a porte chiuse – è in parte responsabile del licenziamento di Altman. Il consiglio di amministrazione di OpenAI, secondo David Goldman della CNN, temeva che “la società stesse realizzando l’equivalente tecnologico di una bomba nucleare e il suo custode, Sam Altman, si stava muovendo così velocemente da rischiare una catastrofe globale”. In particolare sembravano essere gli sforzi di Altman per rendere disponibili gli strumenti dietro ChatGPT a chiunque volesse creare la propria versione del chatbot. Ciò potrebbe essere ampiamente disastroso, temono alcuni membri del consiglio.

Ma poi lo hanno licenziato senza preavviso e, a quanto pare, senza coinvolgere Microsoft, il maggiore azionista della società. Ora, Altman fa parte del nuovo gruppo AI di Microsoft, e c’è da chiedersi se la supervisione e la cautela saranno alla pari con quelle di OpenAI, o se gli verrà data carta bianca per spingere velocemente e con forza quanto vuole. . E nonostante tutta la giustificata reticenza del consiglio di amministrazione di OpenAI, la società ha svolto gran parte del suo lavoro in segreto, senza che il pubblico capisse davvero cosa stanno costruendo una manciata di tecnologi irresponsabili e come sia quasi garantito che cambierà indelebilmente le loro vite.

È opinione diffusa che l’intelligenza artificiale abbia il potenziale di rimodellare vaste aree dell’esistenza umana. Per lo meno, sembra quasi garantito che cambierà il modo in cui elaboriamo le informazioni, come comunichiamo, come apprendiamo e come lavoriamo (e se lavoriamo). E le conseguenze potrebbero essere molto più estreme. Le tecnologie IA hanno già dimostrato la capacità di mentire e di coprire le proprie tracce. Sono già stati in grado di suggerire il progetto per far sì che un virus si diffonda più rapidamente. Molti ricercatori comprendono perfettamente quanto velocemente queste macchine potrebbero sviluppare la capacità di annientarci, compreso Altman: ha preparato un paradiso per i prepper a Big Sur, completo di pistole e “maschere antigas delle forze di difesa israeliane” nel caso in cui l’intelligenza artificiale esca dai binari. e i robot entrano in guerra contro gli umani, secondo quanto riportato dal New Yorker.

Ma non preoccupatevi, ha detto a un giornalista dell’Atlantico: se l’intelligenza artificiale è determinata a spazzarci via, “nessuna maschera antigas aiuterà nessuno”. (Se volete un eccellente e terrificante resoconto dei rischi dell’intelligenza artificiale – almeno quelli che comprendiamo in questo momento, che sono quasi certamente solo una scheggia dei pericoli incombenti – vale la pena leggere il profilo atlantico di Altman e della sua tecnologia).

-

L’intelligenza artificiale è una tecnologia molto interessante. Ma è anche potenzialmente molto pericoloso, e non nel senso che i social media intendono “potrebbe darci una cattiva autostima e farci sentire soli”, ma nel senso che “potrebbe distruggere le società umane e ucciderci tutti”.

-

Dato il potenziale dell’intelligenza artificiale di alterare la vita – che anche se non ci ucciderà tutti, quasi certamente cambierà l’esistenza umana in modi senza precedenti e a una velocità senza precedenti – tutti abbiamo un interesse nel modo in cui viene sviluppata. Eppure lo sviluppo viene lasciato a una manciata di persone (che sembrano essere in gran parte uomini) nella Silicon Valley e in altre aree tecnologiche in tutto il mondo. E tutti noi abbiamo un interesse negli interessi che l’intelligenza artificiale servirà – e in questo momento, il suo sviluppo viene finanziato con miliardi di dollari da persone che si aspettano di realizzare un enorme profitto.

Gli interessi del pubblico sono in linea con gli interessi degli azionisti per i quali si considerano aziende orientate al profitto e potenzialmente estremamente redditizie per pochi? O con gli interessi degli imprenditori tecnologici che sono innanzitutto entusiasti di essere in prima linea nella rivoluzione dell’intelligenza artificiale, indipendentemente dai potenziali costi umani?

Una cosa è chiara: l’intelligenza artificiale sta arrivando. E il modo in cui viene costruito e diffuso nel pubblico conta forse più di qualsiasi altra tecnologia del secolo scorso. In effetti, è allo stesso livello della bomba atomica nel suo potenziale distruttivo, anche se probabilmente è più difficile da regolamentare e controllare.

La “regolamentazione” non inizia a scalfire la superficie di ciò che è necessario per garantire che il futuro dell’intelligenza artificiale non sia catastrofico, soprattutto perché lo sviluppo dell’intelligenza artificiale è ora una massiccia corsa agli armamenti internazionale, con implicazioni particolarmente orribili se si sviluppano attori malvagi. prima questa tecnologia. Ma la regolamentazione è, come minimo, un passo necessario.

Lo stesso vale per la trasparenza: negli Stati Uniti, le aziende hanno un’ampia possibilità di lavorare dietro un velo di segretezza, e gran parte di ciò che fanno le società di intelligenza artificiale è tenuto segreto per ostacolare la concorrenza. Ma il pubblico ha certamente il diritto di capire quali tecnologie che alterano la vita ci verranno inflitte e cosa stanno facendo i creatori per proteggere l’umanità: i nostri posti di lavoro, le nostre comunità, le nostre famiglie, le nostre connessioni, la nostra istruzione e le nostre capacità di costruire una vita con uno scopo, ma anche la nostra vita e la nostra sicurezza.

La storia di Altman è affascinante perché Altman è la figura più potente nella tecnologia dell’intelligenza artificiale, il che lo rende in effetti uno degli uomini più potenti al mondo. Ma questo dovrebbe farci riflettere: chi è, che potere detiene, cosa ne fa, a chi risponde e ci sentiamo a nostro agio con questo potenziale di alterazione della vita detenuto da poche persone irresponsabili?

Il filo della CNN
™ & © 2023 Cable News Network, Inc., una società della Warner Bros. Discovery. Tutti i diritti riservati.

 
For Latest Updates Follow us on Google News
 

-

-

PREV La Kia Picanto 2023 rinnovata mantiene un prezzo iniziale inferiore a $ 20.000
NEXT Il capo del Tesoro nazionale attira l’ira dei parlamentari per l’aumento dei prezzi del carburante