come rubano l’identità con l’intelligenza artificiale

Righe che vanno dietro l’angolo persone in attesa di farsi scansionare l’iride in cambio di alcune criptovalute.

Questa realtà, che era e continua a essere una novità, apre troppe domande, e una di queste tiene svegli gli esperti di cybersecurity: per quanto tempo ancora la biometria continuerà a essere un elemento efficace per prendersi cura degli asset digitali?

Biometria e intelligenza artificiale

“Con l’emergere dell’intelligenza artificiale (AI) possono farlo potrebbero essere violate diverse tipologie di autenticazione e autorizzazione tramite dati biometriciquesto include la biometria facciale”, avverte iProUP Félix Lauzem, Red Team Manager di NeoSecure by SEK.

Con l’avanzare dei deepfake creati dall’intelligenza artificiale e il loro elevato livello di realismo, “l’affidabilità delle soluzioni di autenticazione potrebbe non avere una capacità sufficiente per verificare se si tratta di una persona (umana) o di un elemento falso creato da una macchina”, aggiunge Lauzem.

“L’intelligenza artificiale complica la sicurezza informatica consentendo attacchi informatici più sofisticati. Questi possono includere strumenti di hacking automatizzati che si adattano alle difese di sicurezza, deepfake che manipolano audio e video per impersonare individui”, spiega. iProUP Pablo Gagliardo, vicepresidente di Noventiq America Latina.

Ma secondo lo specialista c’è ancora di più: “L’intelligenza artificiale può anche analizzare grandi quantità di dati per identificare le vulnerabilità più rapidamente rispetto ai suoi omologhi umani”.

La scansione dell’iride rimane il metodo biometrico più efficace

Il punto è che questa nuova tecnologia facilita il lavoro dei criminali. “Si stanno verificando attacchi sempre più sofisticati, preparati con intelligenza artificiale generativa“, sostiene iProUP Jesús Alonso Murillo, Chief Information Security Officer (CISO) di Prosegur globale.

“Chiunque, senza molta conoscenza preliminare, può sferrare attacchi sofisticati con schemi avanzati, che possono compromettere la sicurezza. Inoltre, la privacy è un altro modello di cui tenere conto”, conclude.

Assicura Hernando Castiglioni, direttore Engineering di Fortinet South America East iProUP che “qualsiasi tipo di dato può sempre essere soggetto vulnerabilità o perdite. dati biometrici Sono pur sempre informazioni che possono cadere nelle mani sbagliate.

Allo stesso modo, “molti sistemi di autorizzazione biometrica possono essere violati sfruttando gli spazi per ingannare l’autorizzazione, sia con la riproduzione vocale che con il riconoscimento facciale, tra gli altri”, precisa.

Biometria: possono hackerare la mia voce?

¿Audio con la voce di Messi? È la voce dei 10 della Nazionale argentina? No, è l’IA che fa di nuovo il suo dovere. Quindi cosa succede a ciò che è stato progettato come essere in grado di gestire i dispositivi dalle nostre parole.

L’imitazione delle voci dei L’intelligenza artificiale può rendere vulnerabili i modelli di immissione di dettatura vocale? “Senza dubbio sì!” dice Lauzem.

Gli esperti assicurano che è possibile clonare la voce con l’intelligenza artificiale per impersonare le vittime

“I meccanismi di apprendimento dell’IA lo sono evolvendosi selvaggiamente, imparando dagli inserimenti di dati, siano essi testo, audio o video. È sempre più evidente quanto i loro risultati siano vicini alla realtà umana, creando voci e intonazioni precise“spiega il responsabile di NeoSecure by SEK.

Diversi casi, basati su queste manipolazioni vocali, “già vengono utilizzati per praticare frodi e truffe, e ciò può consentire anche l’evasione dei sistemi che utilizzano l’autenticazione vocale”, aggiunge l’esperto.

L’avanzamento di questi trucchi per aggirare i meccanismi di sicurezza informatica costringe gli esperti a pensare continuamente a come rafforzare le entrate.

“Il complemento perfetto a questi meccanismi è il autenticazione a più fattori tramite token, SMS o app e portare tutto verso un modello di accesso Zero Trust”, racconta iProUP Martín Medina, Responsabile dello sviluppo aziendale presso BGH Tech Partner.

“L’intelligenza artificiale potrebbe essere utilizzata per analizzare, elaborare e utilizzare dati biometrici per scopi illegali”, afferma a iProUP Gustavo Pontoriero, Cybersecurity Lead di Nubiral. In questo senso precisa:

  • Impronte digitali: L’intelligenza artificiale potrebbe essere utilizzata per creare falsificazioni o elusioni dei controlli dei sistemi di gestione.
  • Riconoscimento facciale: potrebbe essere utilizzato per creare tecniche generare immagini false o rubare immagini/modelli di sistema che li ospita allo scopo di ingannare i sistemi di riconoscimento facciale.
  • riconoscimento dell’iride: Comunque, è ancora uno dei metodi biometrici più sicuriper questo motivo sono più utilizzati negli aeroporti o negli enti bancari per il loro basso tasso di falsi positivi e per la loro efficacia.

Attacchi informatici con intelligenza artificiale: come difendersi

Per contrastare le sfide della sicurezza informatica guidate dall’intelligenza artificiale, “le aziende possono utilizzare questa stessa tecnologia e integrarla nei propri sistemi di intelligence sulle minacce per il rilevamento precoce e l’analisi predittiva”, afferma Gagliardo.

Gli esperti avvertono che l’intelligenza artificiale consente a persone senza conoscenze tecniche di effettuare attacchi avanzati

“I meccanismi di risposta automatizzata consentono un’azione rapida contro le minacce, mentre La sicurezza biometrica migliorata con l’autenticazione adattiva migliora la difesa contro l’imitazione biometrica”, afferma il leader di Noventiq America Latina.

Inoltre, rimarcò Gagliardo, «il sLe simulazioni di formazione potenziate dall’intelligenza artificiale aiutano a creare una forza lavoro attenta alla sicurezzae la decentralizzazione delle applicazioni di intelligenza artificiale attraverso tecniche come l’apprendimento federato riduce i rischi dei dati centralizzati, rafforzando così le misure di sicurezza informatica su più fronti.”

“La biometria è una tecnologia praticamente infallibile in termini di sicurezza operativa, soprattutto nel campo della banca digitale. Ma nessun tipo di biometria è in grado di rilevare false identità basate sull’intelligenza artificiale”, dice Marcelo a iProUP, CCO di Veritran.

Attualmente, “la maggior parte dei le entità finanziarie utilizzano la biometria 2Dche presenta molti punti deboli in termini di tutela e può essere violato”, spiega Fondacaro.

“La biometria 3D, invece, è quella che fornisce un maggiore livello di sicurezza ed è consigliata per il sistema finanziario, poiché è in grado di convalidare l’identità di una persona ed eseguire una prova di vita in modo semplice e in pochi secondi . rendendolo praticamente infallibile e senza sacrificare l’esperienza dell’utente.”

Infine, Gastón Vargas, analista SOC presso Sparkfound, sottolinea che “il Gli utenti sono responsabili delle proprie informazioni “quindi devono prendersi cura dei propri dati biometrici scegliendo dove usarli e dove non esporli.”

 
For Latest Updates Follow us on Google News
 

-

NEXT 20 GB di RAM e batteria da 5200 mAh