Conduttori TV e podcaster tremano: la tecnologia deepfake di Microsoft apre scenari inquietanti
Se hai mai sentito parlare dei deepfake, allora potresti essere interessato a scoprire che Microsoft ha appena rilasciato una nuova tecnologia che potrebbe cambiare radicalmente il panorama dei media. Secondo la fonte, Microsoft AI avrebbe sviluppato una tecnologia deepfake così avanzata da poter rendere obsoleti molti conduttori televisivi e podcaster.
La divisione di intelligenza artificiale di Microsoft Research Asia ha creato un programma chiamato VASA, che è in grado di generare “volti virtuali parlanti di personaggi virtuali con abilità visive efficaci (VAS), basandosi su un’immagine statica e un file audio della voce”. Questo significa che, utilizzando un’immagine statica di una persona e un’audio clip della sua voce, il programma può creare un video in cui il personaggio virtuale sembra parlare in modo realistico.
Secondo il team di ricerca di Microsoft, il modello di punta chiamato VASA-1 è in grado non solo di sincronizzare i movimenti delle labbra con l’audio, ma anche di catturare una vasta gamma di sfumature facciali e movimenti naturali della testa che contribuiscono alla percezione di autenticità e vivacità . Questa tecnologia produce video deepfake di alta qualità con dinamiche facciali e della testa realistiche.
La tecnologia è così convincente che molte persone potrebbero essere ingannate e pensare che ciò che vedono sia reale. Solo gli osservatori più attenti saranno in grado di cogliere che qualcosa non va con quello che stanno guardando. Microsoft Research Asia sostiene che questa tecnologia apre la strada a interazioni in tempo reale con avatar realistici che emulano i comportamenti conversazionali umani.
Leggi anche:
Nonostante il potenziale di questa tecnologia, Microsoft sottolinea che è destinata ad applicazioni positive e non a creare contenuti ingannevoli o dannosi. La società è interessata a utilizzare questa tecnologia per migliorare l’accessibilità per le persone con difficoltà di comunicazione e offrire supporto terapeutico o compagnia a coloro che ne hanno bisogno.
Tuttavia, come ogni tecnologia, anche questa potrebbe essere utilizzata in modo improprio per impersonare persone reali. Microsoft afferma di essere contraria a qualsiasi comportamento che crei contenuti ingannevoli o dannosi e sta lavorando al miglioramento della rilevazione delle frodi. Attualmente, i video generati con questa tecnologia presentano ancora artefatti identificabili e non raggiungono l’autenticità dei video reali.
In definitiva, la tecnologia deepfake di Microsoft potrebbe rivoluzionare il modo in cui vengono prodotti e condivisi i contenuti mediatici. Molti conduttori televisivi e podcaster potrebbero essere sostituiti da avatar virtuali che sembrano e suonano come persone reali. Nonostante le preoccupazioni legate all’uso improprio di questa tecnologia, Microsoft si impegna a perseguire applicazioni positive e a migliorare la capacità di rilevazione delle frodi.
Se vuoi saperne di più su questa tecnologia spaventosa, puoi trovare ulteriori informazioni sul sito del progetto. Tuttavia, ricorda di mantenere un atteggiamento critico e consapevole riguardo ai contenuti che incontri online, specialmente quando si tratta di video e immagini che potrebbero essere generati con l’uso di tecnologie deepfake.
Ti potrebbe interessare:
Segui guruhitech su:
- Google News: bit.ly/gurugooglenews
- Instagram: instagram.com/guruhitech_official
- Telegram: t.me/guruhitech
- Facebook: facebook.com/guruhitechweb
- Twitter: twitter.com/guruhitech1
- Threads: threads.net/@guruhitech_official
- Bluesky: bsky.app/profile/guruhitech.bsky.social
- GETTR: gettr.com/user/guruhitech
- Rumble: rumble.com/user/guruhitech
- VKontakte: vk.com/guruhitech
- MeWe: mewe.com/i/guruhitech
- Skype: live:.cid.d4cf3836b772da8a
- WhatsApp: bit.ly/whatsappguruhitech
Esprimi il tuo parere!
Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.
Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].