
Foxconn veut devenir plus efficient avec son propre modèle de langage

Foxconn, l’un des principaux fabricants de matériel informatique au monde, en a terminé avec son LLM. La firme souhaite ainsi améliorer sa production.
A ce qu’on sache, Foxconn n’a pas l’intention de sortir un ‘large language model’ (LLM) à usage général tel qu’OpenAI (ChatGPT), Meta (Llama) ou DeepSeek. Elle souhaite toutefois utiliser la technologie pour mieux gérer ses processus de production et sa chaîne d’approvisionnement.
Selon l’agence de presse Reuters, le modèle s’appelle ‘FoxBrain’ et a été formé à partir de 120 GPU H100 de Nvidia sur une période de quatre semaines. Il était déjà basé sur l’architecture Llama 3.1 de Meta et recevait le soutien de Nvidia et de son superordinateur taïwanais Taipei-1. Foxconn produit entre autres des serveurs d’IA pour Nvidia.
Ce qui rend également ce modèle tout à fait spécial, c’est qu’il s’agit du premier modèle de langage capable de raisonner, tout en ayant été optimisé pour le chinois traditionnel et le taïwanais.
Selon Reuters, FoxBrain devrait être utilisé dans l’analyse de données, la prise de décision, les mathématiques, les documents, la résolution de problèmes et la production de code, entre autres. L’entreprise prévoit également de rendre publics davantage de détails à l’avenir. Cela se produira, entre autres, au milieu de ce mois lors de la conférence GTC de Nvidia.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici