Intel et Meta sortent leurs propres puces d’IA

© Getty Images
Els Bellens

Intel a annoncé une nouvelle puce d’IA pour concurrencer Nvidia. Et Meta prépare elle aussi de nouvelles versions de sa puce d’IA.

La nouvelle puce Gaudi 3 d’Intel devrait être capable de former de grands modèles de langage cinquante pour cent plus rapidement environ que les générations précédentes du processeur H100, selon l’agence de presse Reuters. D’après Intel, elle serait également capable de calculer plus vite les réponses pour l’IA générative, un processus appelé ‘inférence’.

Les puces arrivent à un moment où il existe une forte demande de puces pour la formation et l’exécution de modèles d’IA. Nvidia y est actuellement l’un des principaux fournisseurs. Cela a amené l’entreprise à une valeur boursière supérieure à deux mille milliards de dollars. Intel semble clairement vouloir aussi s’emparer d’une part de ce marché.

Artémis

De son côté, Meta a également annoncé une nouvelle puce AI. La nouvelle génération de son Meta Training and Inference Accelerator n’est pas destinée à un marché plus large, mais elle a été développée spécifiquement pour fonctionner avec les propres modèles d’IA de Meta. Les puces ont pour but d’accélérer nettement la formation de ces modèles.

La première version de MTIA avait été annoncée l’année dernière. Meta travaille actuellement sur la version 2. Ce faisant, ‘nous voulons nous concentrer sur un bon équilibre entre le calcul, la bande passante mémoire et la capacité de mémoire’, selon Meta dans un article de blog. Ici aussi, une grande attention doit être accordée à ‘l’inférence’, le processus utilisé par l’intelligence artificielle pour formuler des réponses et tirer des conclusions à partir de données.

A chacune sa puce

Meta n’est certainement pas la seule à concevoir ses propres puces. Google a précédemment déjà annoncé ses puces d’IA, alors que Microsoft et Amazon fabriquent également des puces spécialement conçues pour leurs propres modèles d’IA.

L’IA générative connaît une évolution significative depuis un certain temps déjà, mais la technologie s’est accélérée depuis l’introduction de ChatGPT3, l’année dernière. Depuis lors en effet, de plus en plus d’organisations et d’entreprises travaillent à la formation de leurs propres modèles d’IA. Cette formation, ainsi que l’exécution des modèles eux-mêmes nécessitent cependant une quantité importante de puissance de calcul et de données, ce qui oblige les entreprises à investir dans des puces spécialisées.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire