Quantcast
News

I robot AI di Meta imitano gli esseri umani

Condividi l'articolo

Le macchine si allenano con video di persone che svolgono attività quotidiane

Meta, proprietaria di Instagram, Facebook e WhatsApp, ha annunciato macchine artificialmente intelligenti (AI) in grado di eseguire abilità sensomotorie, cioè compiti quotidiani. Questa integrazione si basa su due progressi tecnologici: la coordinazione adattativa (ASC) e il formato di compressione ad alta definizione VC-1.

ASC raggiunge una prestazione “quasi perfetta” del 98% in ambienti fisici per il compito di copiatura mobile robotica. Ciò significa che il robot è in grado di navigare verso un oggetto, prenderlo, spostarsi in un’altra posizione e posizionare con successo l’oggetto.

Il principio di base dello streaming video adattivo è la qualità che si regola automaticamente in tempo reale per adattarsi alle condizioni di rete, come la velocità di connessione a Internet e la congestione della rete.

Lo streaming adattivo si ottiene suddividendo il video in segmenti più piccoli e consegnandoli tramite HTTP (Hypertext Transfer Protocol) invece che in un flusso continuo. Ogni segmento è disponibile in diverse risoluzioni e bitrate.

Lo streaming video adattivo consente all’utente finale di mettere in pausa, riavvolgere o avanzare velocemente, poiché è suddiviso in segmenti che possono essere scaricati indipendentemente. Questo migliora l’esperienza dell’utente, poiché il video si carica rapidamente e può essere visualizzato in tempo reale.

Inoltre, VC-1 è un modello di percezione che, per la prima volta, supporta un’ampia gamma di abilità sensomotorie, ambienti e incarnazioni.

Leggi anche:

“VC-1 è stato addestrato con video di persone che svolgono attività quotidiane, tratti dall’innovativo set di dati Ego4D creato da Meta AI e da partner accademici. E VC-1 eguaglia o supera i risultati più noti su 17 diversi compiti sensomotori in ambienti virtuali”, spiega un comunicato.

Il formato supporta inoltre più profili e livelli di compressione per supportare diverse risoluzioni e bitrate, rendendolo adatto a una varietà di applicazioni di streaming video di alta qualità.

Meta annuncia i robot AI

Una delle caratteristiche dell’IA è che ha bisogno di dati da cui imparare, e in entrambi i casi “sono stati sviluppati nuovi modi di apprendimento per i robot, utilizzando video di interazioni umane con il mondo reale e interazioni simulate all’interno di mondi simulati”, ha dichiarato Meta.

L’azienda vuole sviluppare artificialmente una corteccia visiva, una replica della regione del cervello che (insieme alla corteccia motoria) permette a un organismo di convertire la visione in movimento.

“Il modulo è un sistema di intelligenza artificiale che consente a un agente artificiale di convertire gli input della telecamera in azioni”, ha dichiarato l’azienda in un comunicato.

Cosa è successo al metaverso

L’azienda ha dichiarato di considerarlo ancora un punto focale e un progetto futuro su cui continuerà a investire.

Nick Clegg, responsabile degli affari globali dell’azienda, ha parlato con Bloomberg e ha promesso che il metaverso arriverà perché sono certi che “sarà al centro della prossima grande piattaforma informatica”, anche se sanno che “ci vorrà tempo”.

Per raggiungere questo obiettivo sono consapevoli di dover continuare a investire in progetti e ulteriori sviluppi, ma sono anche chiari sul fatto che per ottenere un ritorno utilizzeranno la pubblicità e il commercio all’interno del mondo virtuale, proprio come hanno fatto con Facebook e Instagram.

Che dire, il transumanesimo è sempre più vicino.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questi robot AI di Meta? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
(Visited 32 times, 1 visits today)
0 0 votes
Article Rating

Rispondi

0 Commenti
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x