News

Meta inizia a testare il suo primo chip di addestramento AI interno

Condividi l'articolo

Meta, la società proprietaria di Facebook, ha avviato una nuova fase di sviluppo testando il suo primo chip interno progettato per l’addestramento di sistemi di intelligenza artificiale. Si tratta di un passo cruciale nella strategia dell’azienda per creare silicio personalizzato e ridurre la dipendenza da fornitori esterni come Nvidia, secondo quanto riferito a Reuters da due fonti vicine alla questione.

Le fonti hanno rivelato che Meta, il colosso dei social media, ha iniziato una distribuzione su piccola scala del chip e prevede di incrementarne la produzione per un uso su larga scala, qualora i test si rivelino positivi. Questo progetto si inserisce in una visione a lungo termine per abbattere i costi infrastrutturali, mentre l’azienda investe somme ingenti in tecnologie di intelligenza artificiale per sostenere la propria crescita. Per il 2025, Meta ha stimato spese totali tra i 114 e i 119 miliardi di dollari, di cui fino a 65 miliardi destinati a investimenti in conto capitale, principalmente per potenziare le infrastrutture di IA.

Secondo una delle fonti, il nuovo chip di Meta è un acceleratore dedicato, progettato esclusivamente per attività specifiche di intelligenza artificiale. Questo lo renderebbe più efficiente dal punto di vista energetico rispetto alle GPU (unità di elaborazione grafica) tradizionali, comunemente utilizzate per i carichi di lavoro dell’IA. Per la produzione del chip, Meta collabora con TSMC, il gigante taiwanese dei semiconduttori, come confermato dalla stessa fonte.

Leggi anche:

Il test è partito dopo il completamento del primo “tape-out” del chip, un traguardo significativo nel processo di sviluppo del silicio, che consiste nell’inviare un progetto iniziale a una fabbrica di chip per la produzione. La seconda fonte ha spiegato che un tape-out richiede tipicamente dai tre ai sei mesi e un investimento di decine di milioni di dollari, senza garanzie di successo. In caso di fallimento, Meta dovrebbe identificare i problemi e ripetere il processo da capo. Né Meta né TSMC hanno rilasciato commenti ufficiali.

Il chip fa parte della famiglia Meta Training and Inference Accelerator, un programma che ha attraversato anni di alti e bassi, arrivando persino a scartare un progetto in una fase avanzata di sviluppo. Tuttavia, lo scorso anno, Meta ha introdotto con successo un chip MTIA per l’inferenza – il processo che permette a un sistema di IA di funzionare in tempo reale – utilizzandolo per i sistemi di raccomandazione che gestiscono i contenuti nei feed di Facebook e Instagram.

I vertici di Meta puntano a impiegare i propri chip per l’addestramento entro il 2026, un processo computazionalmente intensivo che consiste nell’alimentare i sistemi di IA con enormi quantità di dati per “insegnare” loro come operare. L’obiettivo iniziale è applicarli ai sistemi di raccomandazione, per poi estenderne l’uso a prodotti di IA generativa, come il chatbot Meta AI. “Stiamo definendo come organizzare l’addestramento per i sistemi di raccomandazione e, in futuro, per l’IA generativa”, ha dichiarato Chris Cox, Chief Product Officer di Meta, durante la recente conferenza Morgan Stanley su tecnologia, media e telecomunicazioni. Cox ha descritto il percorso di sviluppo dei chip come un’evoluzione graduale – “camminare, strisciare, correre” – sottolineando il successo del chip di inferenza di prima generazione.

Leggi anche:

In passato, Meta aveva abbandonato un chip di inferenza personalizzato dopo un test su piccola scala fallito, optando per l’acquisto di GPU Nvidia per miliardi di dollari nel 2022. Da allora, l’azienda è diventata uno dei principali clienti di Nvidia, accumulando un vasto parco di GPU per addestrare modelli come i sistemi di raccomandazione, gli annunci e la serie di modelli Llama, oltre a gestire l’inferenza per i 3 miliardi di utenti giornalieri delle sue app.

Tuttavia, il valore di queste GPU è stato messo in discussione nel 2025, con i ricercatori che sollevano dubbi sui limiti dell’approccio tradizionale di “scalare” i modelli linguistici aggiungendo dati e potenza di calcolo. A rafforzare questi interrogativi è stato il lancio, a gennaio, dei modelli a basso costo della startup cinese DeepSeek, che privilegiano l’efficienza computazionale attraverso un maggiore focus sull’inferenza. Questo ha scatenato un calo globale delle azioni di aziende legate all’IA, con Nvidia che ha perso temporaneamente fino a un quinto del suo valore, salvo poi recuperare gran parte del terreno perso, nonostante nuove flessioni legate a preoccupazioni commerciali più ampie.

Fonte

Ti potrebbe interessare:
Segui guruhitech su:

Esprimi il tuo parere!

Che ne pensi di questa notizia? Lascia un commento nell’apposita sezione che trovi più in basso e se ti va, iscriviti alla newsletter.

Per qualsiasi domanda, informazione o assistenza nel mondo della tecnologia, puoi inviare una email all’indirizzo guruhitech@yahoo.com.


Scopri di più da GuruHiTech

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

0 0 votes
Article Rating
Subscribe
Notificami
guest


0 Commenti
Newest
Oldest Most Voted
Inline Feedbacks
View all comments