Quantcast
News

OpenAI rallenta Voice Engine: i cloni vocali sono troppo pericolosi

Condividi l'articolo

OpenAI, l’azienda nota per il suo chatbot ChatGPT, sembra aver preso a cuore la fiaba del pescatore e del genio della lampada: liberare poteri sovrannaturali può ritorcersi contro. In questo caso, il potere in questione è la clonazione vocale e la sintesi audio e video, strumenti all’avanguardia che, secondo OpenAI, presentano gravi rischi.

In un recente post sul blog, l’azienda ha annunciato di voler rallentare il rilascio di Voice Engine, il suo nuovo strumento di clonazione vocale. I test interni hanno dimostrato che Voice Engine è talmente sofisticato da poter creare falsi d’autore (deepfake) vocali e audio sintetici indistinguibili dagli originali. Questo, secondo OpenAI, aprirebbe la porta ad un abuso diffuso della tecnologia una volta disponibile al grande pubblico.

Sviluppato nel 2022, Voice Engine si basa sulla tecnologia già utilizzata nell’API di sintesi vocale di OpenAI e nella modalità di conversazione di ChatGPT. Il blog spiega che Voice Engine “utilizza un testo di input e un singolo campione audio di 15 secondi per generare un parlato dall’effetto naturale, molto simile alla voce originale del soggetto. È notevole come un modello così leggero, con un singolo campione di 15 secondi, possa creare voci realistiche e ricche di emotività.” L’azienda non ha rivelato la fonte dei dati utilizzati per addestrare Voice Engine, ma ha dichiarato a TechCrunch che il modello è stato “addestrato su un mix di dati concessi in licenza e pubblicamente disponibili.”

Leggi anche:

Forse iniziando a comprendere le implicazioni a cascata di uno strumento gratuito e facilmente accessibile che può ricreare la voce realistica di chiunque, partendo da un semplice campione di 15 secondi, OpenAI sta adottando “un approccio prudente e consapevole per un rilascio più ampio, a causa del potenziale uso improprio delle voci sintetiche.”

“Speriamo di avviare un dialogo sull’implementazione responsabile delle voci sintetiche e su come la società possa adattarsi a queste nuove capacità”, afferma il post sul blog. “Sulla base di queste conversazioni e dei risultati di questi test su piccola scala, prenderemo una decisione più informata su come e se distribuire questa tecnologia su larga scala.”

Secondo un report di ArsTechnica, le attuali condizioni d’uso per le aziende che testano Voice Engine proibiscono l’imitazione di una persona o di un’organizzazione “senza consenso o diritto legale”. Inoltre, è obbligatorio rivelare chiaramente l’utilizzo dell’intelligenza artificiale per clonare voci e ottenere il consenso informato da chiunque venga clonato. OpenAI utilizza anche dei watermark per facilitare l’identificazione dell’audio prodotto con Voice Engine.

Leggi anche:

Tuttavia, l’azienda ribadisce la sua convinzione che fermare il progresso dell’intelligenza artificiale generativa non sia un’opzione, e che spetti alla società adattarsi ai tempi. “Ci auguriamo che questa anteprima di Voice Engine sottolinei sia il suo potenziale sia la necessità di rafforzare la resilienza della società di fronte alle sfide poste da modelli generativi sempre più realistici”, si legge nel post.

Come prima mossa, OpenAI suggerisce di eliminare gradualmente l’autenticazione vocale come mezzo di verifica dell’identità per banche e altri casi d’uso sensibili. Propone inoltre, tra le altre cose, di aumentare l’educazione pubblica sull’intelligenza artificiale, di “esplorare politiche per proteggere l’uso delle voci degli individui nell’intelligenza artificiale” e di accelerare lo sviluppo di strumenti di rilevamento del live, watermarking e altri metodi per distinguere le voci reali dall’audio clonato sintetico.

Vale la pena ricordare che non è la prima volta che OpenAI mette in guardia sui rischi delle proprie tecnologie. In passato, l’azienda aveva già avvertito del potenziale impatto sconvolgente del suo software di riconoscimento facciale e della sua API di video generazione Sora.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi del deepfake vocale? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
(Visited 35 times, 1 visits today)
0 0 votes
Article Rating

Rispondi

0 Commenti
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x