Quantcast
News

La nuova rete neurale di Google “estrae” la musica dal cervello umano

Condividi l'articolo

Google ha già utilizzato l’intelligenza artificiale per creare musica, ma il nuovo sviluppo dell’azienda è interessante per il suo approccio non convenzionale alla risoluzione di questo compito. Il modello di intelligenza artificiale chiamato Brain2Music è in grado di generare una traccia audio basata sull’attività cerebrale dell’utente, “spiando” letteralmente la musica che sta suonando nella loro testa.

Leggi anche:

Per creare le composizioni, l’IA si basa sui dati di imaging a risonanza magnetica funzionale (fMRI). Durante l’esperimento, le reti neurali sono state alimentate con i dati fMRI raccolti da cinque persone che hanno ascoltato composizioni musicali di 15 secondi di diversi generi, tra cui blues, classica, country, disco, hip-hop, jazz, metal, pop, reggae e rock. Ciò ha permesso all’IA di stabilire una connessione tra i pattern di attività cerebrale e vari elementi della musica.

I dati elaborati sono poi stati convertiti dall’IA in una traccia audio. Come è emerso, i risultati ottenuti somigliavano in gran parte alle composizioni originali, sebbene fossero notevolmente diversi dai brani originali. È possibile trovare esempi del lavoro del “neuro-compositore” sul sito web ufficiale del progetto. Non è noto se la tecnologia avrà qualche applicazione commerciale.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Ti piace questa nuova rete neurale di Google? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo [email protected].

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
0 0 votes
Article Rating

Rispondi

0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x