Quantcast
News

VASA-1 è troppo pericoloso: Microsoft non lo rilascerà al pubblico

Condividi l'articolo

Microsoft ha recentemente presentato un nuovo strumento di intelligenza artificiale generativa in grado di creare deepfake video iperrealistici, ma ha deciso di non rilasciarlo al pubblico. Il modello, chiamato VASA-1, è in grado di generare video con movimenti labiali perfettamente sincronizzati con l’audio, oltre a espressioni facciali naturali e movimenti della testa.

Secondo Microsoft, VASA-1 può creare video deepfake partendo da una singola immagine statica, un file audio e un testo di script. I video dimostrativi mostrano l’IA capace di far parlare e cantare volti reali e artificiali, inclusi personaggi famosi come la Mona Lisa di Da Vinci.

Nonostante il potenziale di questa tecnologia, Microsoft ha deciso di non pubblicare uno strumento online, un’API o ulteriori dettagli di implementazione di VASA-1. L’azienda riconosce infatti che, come altre tecniche di generazione di contenuti, questo strumento potrebbe essere utilizzato in modo improprio per impersonare esseri umani.

Leggi anche:

Pur ammettendo questa possibilità di abuso, Microsoft sottolinea anche i potenziali benefici positivi di questa ricerca, come il miglioramento dell’accessibilità per persone con difficoltà di comunicazione o il supporto terapeutico. Tuttavia, il rapido progresso dell’IA generativa pone seri interrogativi sulla affidabilità dei sistemi di riconoscimento biometrico esistenti, che potrebbero essere ingannati da deepfake video creati con strumenti come VASA-1.

Secondo gli esperti, la regolamentazione di questi modelli di IA generativa potrebbe rivelarsi estremamente difficile, data la natura opensource e distribuita della tecnologia. Pertanto, Microsoft e altri attori del settore stanno attualmente adottando un approccio cauto, cercando di bilanciare i potenziali rischi e benefici prima di rilasciare pubblicamente strumenti così potenti.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
(Visited 94 times, 1 visits today)
0 0 votes
Article Rating

Rispondi

0 Commenti
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x