Stockage: l’IA comme moteur de l’innovation

© Getty Images/iStockphoto

Les entreprises le constatent depuis longtemps déjà : la montagne de données sur laquelle elles sont assises constitue un terreau idéal pour induire de la valeur grâce à l’IA. Pourtant, ces données résident généralement sur de multiples plateformes de stockage et/ou de sauvegarde. Les exploiter au mieux représente un défi majeur pour les fournisseurs de solutions de stockage.

Telle est notamment l’ambition de Hammerspace que Data News a rencontré à Denver dans le cadre de l’IT Press Tour. « Il est clair que les entreprises gèrent des données extrêmement précieuses », insiste Molly Presley, CMO. « Or celles-ci se trouvent dans des silos. » Les exploiter de manière optimale n’a dès lors rien d’évident. Les utilisateurs qui désirent interroger ces données, par exemple au départ de sauvegardes dans le cloud ou sur bande, doivent parfois faire preuve de patience durant plusieurs heures. En d’autres termes, les infrastructures ne sont pas prêtes, loin de là, à intégrer l’IA. « Cela se traduit par du ‘copy sprawl’, » analyse Presley, dans la mesure où les utilisateurs gardent en réserve leur propre ‘copie’ des données, d’où des coûts en augmentation, sans parler des problématiques de gouvernance et de sécurité.

Avec les systèmes de stockage classiques, il se révèle pratiquement impossible d’accéder à ces données en silos. D’où le choix de Hammerspace d’opter pour une approche différente. « Nous considérons l’ensemble de l’environnement de stockage comme un seul et même système de fichiers », explique encore Molly Presley. Sous cette couche, il est possible d’utiliser pratiquement n’importe quel type de stockage : cloud, bande, objet, etc. « C’est toute la magie de notre solution », se plaît-elle à souligner, « dans la mesure où toute donnée est immédiatement accessible. » Toujours selon Hammerspace, son NAS Hyperscale se révélerait être la solution la plus rapide au monde pour un entraînement IA. D’ailleurs, Meta notamment articule ses applications d’IA autour de Hammerspace et a récemment déployé deux grappes de stockage de 24.000 GPU chacune du fournisseur.

Connecter les silos

Chez BMC également, l’IA apparaît comme l’atout majeur. Nous avons rencontré son CTO, Ram Chakravarti, dans ses bureaux de Santa Clara. « Ces dernières années, nous avons entendu pratiquement partout le même discours. Les entreprises font face à une hausse constante de leurs volumes de données et se demandent comment elles peuvent en tirer profit, de préférence sans pression supplémentaire sur les ressources disponibles. Eh bien, nous avons désormais la réponse : utilisez l’IA. »

« Tout comme pour n’importe quelle autre forme d’innovation, le déploiement pratique de l’IA implique des efforts très importants. »

Reste qu’en pratiques, les choses ne sont pas aussi simples. « Tout comme pour n’importe quelle autre forme d’innovation, le déploiement pratique de l’IA implique des efforts très importants. » Pour sa part, BMC a opté pour la stratégie ‘full-stack observability’ sur sa plateforme Helix, depuis le mainframe jusqu’à l’edge en passant par le cloud. « Nous sommes intimement persuadés qu’il convient d’interconnecter l’ensemble des Ops : DevOps, DataOps, IAOps, etc., etc. », poursuit Ram Chakravarti. « Le but ultime étant de connecter l’ensemble des silos. »

Améliorer les solutions (ou en imaginer de nouvelles)

Certes, toutes ces approches sont pertinentes dans la mesure où de très nombreuses entreprises considèrent en effet leurs données comme un actif. Pourtant, près de la moitié des grands projets de données ne franchissent pas le cap de la mise en production. BMC affirme qu’il est possible de faire mieux grâce à sa plateforme Helix qui regroupe un ensemble de 200 micro-services, disponibles tant dans le cloud que sur site. La plateforme permet de collecter très rapidement des données et, en faisant appel à l’IA, d’améliorer ensuite les solutions existantes ou de pouvoir en développer de nouvelles.

« Songez à la détection de comportements anormaux dans un système de gestion ou à l’amélioration constante d’un service spécifique. » Il se révèle en effet souvent difficile d’identifier une déviance ou de la corriger avant qu’elle ne pose un réel problème. « Prenez le cas d’un gestionnaire de système dont la tâche consiste essentiellement à diagnostiquer des anomalies. HelixGPT lui propose un aperçu détaillé des problèmes. » Le système bâtit une ligne du temps qui présente tout ce qui se passe normalement et le moment où un problème commence à surgir. Il y ajoute une prédiction du moment où la situation devient vraiment problématique et formule grâce à la GenIA une proposition d’intervention pour rétablir la situation. »

Le Flash pour les données ‘chaudes’… et l’IA

Comme on peut le voir, l’IA nécessite de gros volumes de données. « Mais cela ne signifie pas pour autant qu’il faille tout stocker sur Flash », estime Jamie Lerner, CEO de Quantum, que nous avons rencontrés au siège central de Centennial, près de Denver. Le défi consiste en fait à opter pour le support adéquat, d’autant qu’en pratique, une entreprise n’utilise régulièrement que 10% de ses données. « Certes, il est pertinent de choisir le Flash pour les données ‘chaudes’. En revanche, environ 30% des données sont ‘tièdes’ et peuvent se contenter de disques, ce qui est pratiquement 3 fois moins cher. Et pour les 60% de données ‘froides’, la bande convient parfaitement, laquelle est encore de 4 à 5 fois moins chère que le disque. »

Reste que pour rendre l’IA vraiment performante, il faut disposer de systèmes puissants et capables de gérer ces gros volumes. Dans de telles circonstances, Quantum constate qu’un nombre croissant d’entreprises optent pour le stockage all-Flash sur site. Début avril, l’entreprise annonçait d’ailleurs son ActiveScale 2000, une solution all-Flash spécifiquement conçue pour optimiser le recours à l’IA. « Dans le même temps, on constate que de plus en plus d’entreprises conservent une copie complète de leurs données dans le cloud, simplement par sécurité. Le point de départ est que ces données ne devraient idéalement jamais être rapatriées du cloud. Ainsi, même si elles devaient changer d’hyperscaler, les entreprises ne retireraient pas leurs données, précisément pour des questions de coûts bien trop élevés. Dans ce cas, elles concluent un nouveau contrat avec un autre fournisseur et font ensuite un nouveau téléchargement des données qu’elles désirent conserver sur site. »

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire