Un modello GenAI per le “capacità affettive visive” che esalta l’espressività dei Digital Humans (e DeepFakes & FakeNews)

(e da DeepFakes e FakeNews)

Per farti capire il lavoro devi prima capire in cosa consistono queste “Talking Heads” di cui ti avevo già parlato nel 2019, dove con un singolo fotogramma o una serie di essi si può applicare un modello di comunicazione. Trasferire l’apprendimento per ottenere un movimento della testa da eseguire. Un processo noto anche come Volto rinascimentalee, e di cui avete spiegato il video dell’anno 2019.

Ora con il modello VASA-1il processo va oltre e, data una fotografia più un file audio che desideri montare con un “Testa parlante“, ottieni un’animazione con”Abilità affettive visive” o quello che è lo stesso, con gesti molto umanizzati.

dac84d9fd6.jpg

Il risultato finale è un file animato della persona utilizzata come input che dice e gesticola in modo molto umano all’audio in input, con sincronizzazione labiale. Per effettuare i test, i ricercatori hanno utilizzato Umani sintetici generato con StileGAN-2 – Te ne ho parlato anche in 2019 nell’articolo: “Style GAN: An AI to create profiles of people that DO NOT Exist” e dove si parla del sito “This Person Does Not Exist” – che permette di creare persone che non esistono da due fotografie di esseri umani (reali o sintetico).

Nel loro lavoro, i ricercatori hanno allungato il modello, riuscendo a eseguire questo processo ad alta qualità in tempo reale, generando fotogrammi con la gesticolazione e la sincronizzazione delle labbra mentre elaborano il file audio, che potrebbe avere un impatto sulla mondo della sicurezza informatica, come ad esempio DeepFakes quasi perfetto, o da accompagnare Notizie false più credibile. Ciò significa che non ci sono ancora piani per rilasciarne uno API del modello implementato, né di un prodotto. Qui puoi vedere come funziona Tempo reale.

Questo è un lavoro svolto dalla società BeHumans e, naturalmente, questi progressi sono stati compiuti da ricerche come VASA-1 Sono orientati verso la parte positiva del GenAIovvero umanizzare ulteriormente le interazioni delle persone con la tecnologia, aumentandone l’adozione e riducendo il divario digitale con gli anziani, che avranno più facilità nell’utilizzare i nuovi servizi digitali.

Figura 9: un video del prototipo AutoVerifAI realizzato da TID

D’altra parte, per il gioco di rilevamento della generazione di contenuti da parte di GenAI, che è ciò che facciamo in AutoVerifAI, questi nuovi algoritmi ci costringono a rivedere gli algoritmi di rilevamento per trovare nuovi modi per rilevarli e vedere quali funzionano meglio. Ne rilevano i segni.

01fba88366.jpg

Figura 10: Algoritmi di rilevamento video DeepFakes in AutoVerifAI

nei video realizzati con VASA-1 si rilevano pochi segnali data la sua

realismo estremo in “Capacità di affetto visivo”,

il che li porta a mettere molti dettagli nei micro-gesti umani.

Ad esempio, con gli algoritmi Testata, Battito di ciglia E LRCN/VIT che ora abbiamo nella versione gratuita, in questo video dell’articolo ci sono pochissimi segni che si tratti di un DeepFakementre se prendiamo un’inquadratura con il solo volto della persona, aumentano le indicazioni, per basarsi su a StileGan.

783fa4f355.jpg

Figura 11: Con il rilevamento generato da GenAI per le immagini,

AutoVerifAI aumenta le indicazioni che sia generato dall’IA fino al 28%.

Ma come vedi, le opere di perfezione in GenAI Per rendere gli esseri umani digitali più perfetti, richiedono sempre più lavoro per eseguire un’analisi forense deterministica e devono essere eseguiti sempre più test per avere un’opinione formata.

Saluti malvagi!

ec6243d513.jpg
 
For Latest Updates Follow us on Google News
 

-

PREV Questa applicazione che nasconde il tuo Xiaomi ti consente di migliorare le prestazioni, aumentare la velocità di accesso a Internet e liberare spazio – Xiaomi News
NEXT Il nome del portatile Samsung Snapdragon X Elite sembra confermato in un nuovo leak