Microsoft lance un modèle d’IA plus concis
Microsoft a sorti Phi-3 Mini, un modèle d’IA léger. Il s’agit du premier des trois modèles d’IA plus concis que le géant de la technologie souhaite lancer.
Phi-3 Mini est ce qu’on appelle un ‘small language model’ (SLM) qui, contrairement aux ‘large language models’ (LLM) mieux connus, est formé avec moins de paramètres et sur un ensemble de données réduit. Dans le cas du Phi-3 Mini, il s’agit de 3,8 milliards de paramètres. Voilà ce que le géant technologique indique dans un article de blog. L’avantage des SLM serait qu’ils sont encore toujours très performants, mais beaucoup plus compacts et plus efficaces que les plus grands LLM. Microsoft elle-même compare Phi-3 Mini à GPT 3.5, un précédent grand modèle de langage d’OpenAI.
Le petit modèle d’IA est disponible sur Azure, entre autres. En plus de la mini-version, Microsoft entend également sortir une version ‘Small’ à 7 milliards de paramètres, et une Phi-3 Medium à 14 milliards de paramètres. Ces paramètres permettent d’indiquer le nombre d’instructions complexes qu’un modèle d’IA peut comprendre.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici