La sicurezza informatica rimane una preoccupazione fondamentale nelle implementazioni dell’intelligenza artificiale | Sicurezza

La sicurezza informatica rimane una preoccupazione fondamentale nelle implementazioni dell’intelligenza artificiale | Sicurezza
La sicurezza informatica rimane una preoccupazione fondamentale nelle implementazioni dell’intelligenza artificiale | Sicurezza

Consigliato….

Verso la migliore strategia dei dati attraverso la gestione, l’analisi e l’intelligenza artificiale. Leggere

Come combattere le minacce sconosciute con le tecnologie Cisco. Disponibile

Industria ed energia, settori trainanti anche nella digitalizzazione Documentazione

Approfittando della celebrazione a Madrid di AppWorld, il suo evento annuale per partner e clienti, F5 ha reso pubblico il 2024 State of AI Application Strategy Report, che rivela che sebbene il 75% delle aziende stia già implementando l’intelligenza artificiale, il 72% dispone di dati significativi problemi di qualità e incapacità di scalare le pratiche relative ai dati, fondamentali per il successo dell’adozione e dell’ottimizzazione dell’IA.

“L’intelligenza artificiale è una forza dirompente che consente alle organizzazioni di creare esperienze digitali innovative e uniche. Tuttavia, gli aspetti pratici dell’implementazione dell’intelligenza artificiale sono estremamente complessi e la propensione al rischio dell’azienda può aumentare in modo significativo se non viene adottato un approccio appropriato e sicuro, afferma Aran Erel, direttore generale di F5 in Spagna. “Questo rapporto evidenzia una tendenza preoccupante: molte aziende, nel tentativo di sfruttare l’intelligenza artificiale, trascurano la necessità di stabilire basi solide. Ciò non solo diminuisce l’efficacia delle soluzioni di intelligenza artificiale, ma le espone anche a una moltitudine di minacce alla sicurezza”.

IA generativa e sfide dell’implementazione dell’IA

Le organizzazioni sono entusiaste dell’impatto dell’intelligenza artificiale generativa sulle loro attività. Tuttavia, solo il 24% delle organizzazioni afferma di aver implementato l’intelligenza artificiale generativa su larga scala.

Sebbene l’uso dell’intelligenza artificiale generativa sia in aumento, i casi d’uso più comuni tendono a svolgere funzioni non strategiche. Questi includono copiloti e altri strumenti di produttività dei dipendenti (utilizzati dal 40% degli intervistati) e strumenti di servizio clienti, come i chatbot (36%). Tuttavia, gli intervistati ritengono che il caso d’uso dell’IA con la massima priorità sarebbero gli strumenti per l’automazione del flusso di lavoro (36%).

Nell’esaminare le sfide legate all’implementazione di applicazioni basate sull’intelligenza artificiale, i manager sottolineano tre preoccupazioni principali a livello dell’infrastruttura: il 62% cita il costo dell’elaborazione come una delle principali preoccupazioni per la scalabilità dell’intelligenza artificiale, il 57% cita il modello come una preoccupazione primaria e il 55% cita considerare la performance in tutti gli aspetti del modello.

A livello dati, la maturità dei dati è una sfida immediata e importante che influisce sulla diffusione diffusa dell’intelligenza artificiale. Il 72% degli intervistati cita la qualità dei dati e l’incapacità di scalare le pratiche relative ai dati come i principali ostacoli alla scalabilità dell’intelligenza artificiale, mentre il 53% cita la mancanza di competenze in materia di intelligenza artificiale e dati come uno dei principali ostacoli.

Sebbene il 53% delle aziende affermi di avere una strategia dati definita, oltre il 77% delle organizzazioni intervistate afferma di non avere un’unica fonte di verità per i propri dati.

La sicurezza informatica come preoccupazione principale

Secondo lo studio F5, la sicurezza informatica è una delle principali preoccupazioni di coloro che hanno il compito di fornire servizi di intelligenza artificiale. Fattori come gli attacchi basati sull’intelligenza artificiale, la privacy dei dati o la fuga di dati sono tra le principali preoccupazioni per la sicurezza dell’intelligenza artificiale.

Alla domanda su come intendono difendersi da queste minacce per proteggere le implementazioni di intelligenza artificiale (o se lo stanno già facendo), gli intervistati affermano di concentrarsi su servizi applicativi come la sicurezza delle API, il monitoraggio e la protezione contro DDoS e bot. Pertanto, il 42% afferma di utilizzare o di voler utilizzare soluzioni di sicurezza API per proteggere i dati mentre si spostano attraverso modelli di formazione basati sull’intelligenza artificiale; Il 41% utilizza o prevede di utilizzare strumenti di monitoraggio per ottenere visibilità sull’uso delle applicazioni IA; Il 39% utilizza o prevede di utilizzare la protezione DDoS per i modelli IA; e il 38% utilizza o prevede di utilizzare la protezione dai bot per i modelli di intelligenza artificiale.

 
For Latest Updates Follow us on Google News
 

-

PREV In Guatemala le banche chiuderanno per due giorni per festività
NEXT la più grande vendita di una startup digitale nella storia della Spagna