OpenAI, Nvidia, Microsoft e Google forniranno consulenza al Dipartimento per la sicurezza nazionale sui rischi dell’intelligenza artificiale

OpenAI, Nvidia, Microsoft e Google forniranno consulenza al Dipartimento per la sicurezza nazionale sui rischi dell’intelligenza artificiale
OpenAI, Nvidia, Microsoft e Google forniranno consulenza al Dipartimento per la sicurezza nazionale sui rischi dell’intelligenza artificiale

Secondo un rapporto di OpenAI, Microsoft, Alphabet e Nvidia entreranno a far parte dell’Artificial Intelligence Security Board statunitense Il giornale di Wall Street. L’agenzia federale è progettata per consigliare il Dipartimento per la sicurezza interna (DHS) sull’implementazione sicura dei sistemi di intelligenza artificiale (AI) nelle infrastrutture critiche del paese.

L’entità è composta da specialisti di intelligenza artificiale del settore privato, accademici e funzionari governativi. La sua missione è quella di “sfruttare le competenze e le infrastrutture dell’intelligenza artificiale per valutare i rischi emergenti legati all’uso della tecnologia in settori domestici critici e fornire consigli e raccomandazioni per mitigare tali pericoli”. Il Consiglio contribuirà alla progettazione di linee guida e standard per garantire l’uso sicuro di algoritmi intelligenti in settori come la rete elettrica, i trasporti e il manifatturiero.

Alejandro Mayorkas, segretario del DHS, ha dichiarato al giornale che l’intelligenza artificiale ha un enorme potenziale per migliorare il funzionamento, le prestazioni e l’efficacia dei servizi pubblici. Riconosce che la sua attuazione comporta rischi significativi che devono essere identificati e contenuti in modo tempestivo. Le azioni e le raccomandazioni dell’Artificial Intelligence Security Board costituiranno la base per stabilire politiche e meccanismi che contengano possibili minacce.


L’ONU approva la prima risoluzione globale sull’intelligenza artificiale

La risoluzione sull’IA adottata questo giovedì all’ONU non è vincolante e non è stata ancora firmata nella sua formulazione definitiva. È stato presentato dagli Stati Uniti e la Cina ha dato il suo sostegno.


L’amministrazione del presidente Joe Biden l’anno scorso ha ordinato la creazione del consiglio AI attraverso un ordine esecutivo. Tra le altre cose, il decreto consente di utilizzare la legge sulla produzione della difesa per richiedere ai produttori di grandi modelli di intelligenza artificiale di fornire informazioni chiave sui processi di addestramento dei loro sistemi. Ciò include la divulgazione dei risultati delle cosiddette esercitazioni della squadra rossa, volte a rivelare vulnerabilità nei modelli di intelligenza artificiale che ne facilitano l’uso dannoso o a generare malware.

L’aggiunta di Sam Altman, Satya Nadella, Sundar Pichai e Jensen Huang al consiglio dell’AI ha sollevato preoccupazioni sui loro interessi commerciali e su come potrebbero influenzare le raccomandazioni rivolte al DHS. Mayorkas afferma che i leader “comprendono la missione del consiglio e sono consapevoli che non è correlata allo sviluppo del business. “È una questione di sicurezza nazionale”.

Il governo degli Stati Uniti ha tentato di regolamentare il progresso dell’intelligenza artificiale senza successo. Analisti citati da Il giornale di Wall Street Suggeriscono che i pochi progressi siano legati alle controversie interne portate avanti dalle forze politiche del Congresso.



Aumenta l’urgenza di regolamentare l’IA

La regolamentazione dell’IA è diventata uno dei temi di maggiore interesse a livello mondiale. Il quadro normativo imposto dall’Unione Europea è considerato uno dei progetti più solidi finora. La normativa è stata criticata in più occasioni da Sam Altman, CEO di OpenAI. Sundar Pichai, CEO di Alphabet, ha anticipato l’approvazione della legge e ha annunciato un accordo volontario con i legislatori europei per stabilire una serie provvisoria di accordi sullo sviluppo dell’intelligenza artificiale.

Gli esperti hanno avvertito che l’industria tecnologica intende stabilire regolamenti secondo i propri standard. OpenAI, Google, Microsoft e Anthropic hanno collaborato per lanciare il Forum Modello di frontiera, un panel incentrato sulla garanzia dello sviluppo sicuro e responsabile di modelli di intelligenza artificiale. IL grande tecnologia Sperano di stabilire le migliori pratiche e meccanismi che regolano il progresso di questa tecnologia. Il successo degli sforzi è compromesso. Sono coinvolti diversi interessi. Dati della banca dati Statista Si prevede che il valore di mercato dell’intelligenza artificiale potrebbe superare i 300 miliardi di dollari entro il 2025.

 
For Latest Updates Follow us on Google News
 

-

PREV José Raúl Mulino è stato proclamato presidente eletto di Panama – Escambray
NEXT Samsung ti porta pienamente nell’era 8K con le sue nuove Smart TV