Meta développe son premier processeur de formation d'IA interne. Selon Reuters, la société a commencé à tester un petit lot de nouvelles puces d'entraînement à l'IA et en commandera davantage si la phase de test produit des résultats positifs. Il est à noter que cette gamme de processeurs est actuellement fabriquée par TSMC.
La décision de Meta de développer ses propres puces d'IA fait également partie d'une stratégie à long terme visant à réduire sa dépendance vis-à-vis des fournisseurs tiers, en particulier Nvidia, le premier fabricant mondial d'unités de traitement graphique (GPU) utilisées dans les tâches liées à l'IA. Selon les estimations préliminaires, ce projet devrait coûter à Meta un investissement total pouvant atteindre 119 milliards de dollars d’ici la fin de 2025, dont la majeure partie sera utilisée pour construire une infrastructure d’IA.
La puce conçue par Meta est essentiellement un accélérateur d’IA dédié. Il est optimisé pour les tâches liées à l'IA plutôt que pour l'informatique générale. Une telle architecture dédiée pourrait rendre la puce plus économe en énergie que les GPU actuellement utilisés dans la formation de l’IA.

Meta avait initialement prévu d'utiliser la puce dans les algorithmes de recommandation qui déterminent quel contenu apparaît sur Facebook et Instagram. L'objectif ultime de l'entreprise est d'intensifier l'utilisation de la puce pour prendre en charge ses produits d'IA générative, tels qu'un chatbot IA appelé Meta AI.
Le parcours de Meta dans le développement de puces personnalisées a eu jusqu'à présent des résultats mitigés. La société avait précédemment abandonné une puce d'inférence interne après l'échec d'un déploiement pilote, choisissant plutôt d'acheter des milliards de dollars de GPU Nvidia. Cependant, le nouveau projet semble donner de meilleurs résultats. Meta a désormais franchi l'étape importante du « tape-out » dans son développement.
Meta n’est pas la seule société de logiciels à avoir décidé de développer ses propres puces d’IA pour réduire sa dépendance vis-à-vis de tiers. OpenAI finalise également la conception de sa première puce d’entraînement IA personnalisée. La nouvelle puce sera probablement dotée d'une architecture de réseau systolique ainsi que d'une mémoire à large bande passante, un peu comme le dernier accélérateur d'IA de Nvidia. Cette architecture est connue pour ses hautes performances et son efficacité dans la gestion de calculs denses et complexes.