Queste cuffie AI ti consentono di ascoltare una singola persona in mezzo alla folla guardandola solo una volta

Queste cuffie AI ti consentono di ascoltare una singola persona in mezzo alla folla guardandola solo una volta
Queste cuffie AI ti consentono di ascoltare una singola persona in mezzo alla folla guardandola solo una volta

Le cuffie con cancellazione del rumore sono diventate molto efficaci nel creare una barriera che filtra i suoni esterni. Questo è possibile, insomma, grazie a microfoni che catturano l’ambiente e lo cancellano con altre frequenze. Ma questo cancella tutti i suoni, non ci permette di distinguere quelli che ci interessano. Almeno così è stato fino ad ora.

Un team dell’Università di Washington ha sviluppato un sistema di intelligenza artificiale consente a un utente che indossa le cuffie di guardare una persona che sta parlando per “registrarla”.. Il sistema, denominato Target Speech Hearing, cancella tutti gli altri suoni presenti nell’ambiente e riproduce in tempo reale solo la voce di chi parla registrata, anche quando l’ascoltatore si muove in luoghi rumorosi e non guarda più l’emittente sonora. La squadra, guidata da Shyam Gollakota, ha presentato le sue scoperte nella conferenza ACM CHI sui fattori umani nei sistemi informatici. Il codice per il dispositivo di prova può essere sviluppato da altri, ma per ora non è disponibile in commercio.

“Quando si pensa all’intelligenza artificiale basata sui chatbot sul sito che rispondono alle domande – spiega Gollakota in un comunicato. Ma in questo progetto, sviluppiamo un’intelligenza artificiale per modificare la percezioneOsentire nessuno utilizzare le cuffie, in base alle tue preferenze. Con i nostri dispositivi ora puoi sentire chiaramente un singolo interlocutore, anche se lo èAÈ in un ambiente rumoroso con molte altre persone che parlano.

Per utilizzare il sistema, una persona che indossa cuffie standard dotate di microfoni preme un pulsante mentre punta la testa verso qualcuno che parla per 3-5 secondi. Le onde sonore della voce di chi parla dovrebbero raggiungere simultaneamente i microfoni su entrambi i lati delle cuffie; C’è un margine di errore di 16 gradi. Le cuffie inviano quel segnale a un computer di bordo, dove il software di apprendimento automatico della macchina apprende gli schemi vocali dell’oratore previsto.

Il sistema cattura la voce di quella persona e continua a suonarlo per l’ascoltatore, anche se entrambi si muovono. La capacità del sistema di concentrarsi sulla voce registrata migliora man mano che l’oratore continua a parlare, fornendo al sistema maggiori dati di addestramento. Considerando che la nostra voce potrebbe essere utilizzata come un’impronta digitale, in pratica ciò che fa il sistema è collegare la voce a uno specifico modello di onde sonore e cercarla in modo permanente.

Il team ha testato il proprio sistema su 21 soggetti, che hanno valutato il In media, la chiarezza della voce dell’oratore registrato è quasi doppia rispetto a quella dell’audio non filtrato. Attualmente, il sistema TSH può registrare un solo oratore alla volta e può registrare un oratore solo quando non c’è altra voce forte proveniente dalla stessa direzione della voce dell’oratore target. Se un utente non è soddisfatto della qualità del suono, può effettuare un’altra registrazione sull’altoparlante per migliorare la chiarezza. Il team sta lavorando per espandere in futuro il sistema a cuffie e auricolari.

 
For Latest Updates Follow us on Google News
 

-

NEXT Apple rinnoverebbe Siri con l’intelligenza artificiale per migliorare il controllo di funzioni specifiche