AirMettle accélère l’analytique du stockage

© Getty Images
Marc Husquinet Rédacteur de Data News

Face à l’explosion des données dans une organisation, l’analyse de très gros volumes (le big data) devient un défi majeur. AirMettle propose de réaliser des requêtes directement dans le ‘data lake’ sans passer par un entrepôt de données.

« Aujourd’hui, les entrepôts de données sont inefficaces et ajoutent de la complexité, la mémoire pour l’analytique est coûteuse, de même que la puissance de calcul pour l’analytique, sans parler du coût des réseaux », constate d’emblée DonPaul Stephens, CEO et fondateur d’AirMettle, rencontré à l’occasion du récent IT Press Tour en Californie. De même, l’analytique de big data et l’IA sont lents et coûteux, un coût qui ne fait qu’augmenter à mesure que les volumes de données progressent.

En outre, le ‘computational storage’ – entendez une infrastructure qui associe le stockage et le calcul – s’est révélé être un échec, toujours aux yeux du patron d’AirMettle.

Lac de données

Face à ces constats, AirMettle met actuellement au point une plateforme de stockage analytique s’appuyant sur du matériel standard (serveurs x86) qui intègre du traitement parallèle hautement évolutif. Cette plateforme ne supporte que le stockage objet (qui est aujourd’hui la majorité du stockage en entreprise) afin de transformer le big data en analyses (‘insights’). « Nous intégrons l’analytique directement dans le ‘data lake’ proprement dit, sans passer donc par un entrepôt de données pour exécuter les requêtes SQL, ce qui élimine les transferts de données inutiles », précise encore DonPaul Stephens.

Par ailleurs, plutôt que d’analyser des objets entiers, la technologie d’AirMettle résume et extrait des sous-ensembles pertinents, ce qui réduit considérablement les volumes que le développeur doit traiter pour une requête donnée et lui permet d’exploiter un plus grand nombre de données historiques. « Nous créons des métadonnées qui permettent de faire de l’analytique ‘in-storage’ », explique encore DonPaul Stephens. « Cela nous permet d’accélérer jusqu’à 100 fois les requêtes SQL sur du matériel standard du marché. »

Déploiement

L’un des sites pilotes de la solution d’AirMettle est le Los Alamos National Laboratory (le laboratoire du Ministère américain de l’Energie) qui réalise sur cette plateforme des simulations scientifiques à grande échelle. Il faut dire que de telles simulations peuvent générer des centaines de pétaoctets de données à virgule flottante hautement dimensionnelles. En l’occurrence, la plateforme AirMettle fonctionne en complément d’un superordinateur dédié alors à des tâches plus spécifiques (car plus coûteux).

Autres cibles visées par AirMettle, les sociétés spécialisées dans le SIEM (security information and event management), sachant que les attaques deviennent toujours plus sophistiquées, ou encore les entreprises de biologie ou d’analyse de vidéos, de même que le secteur public (recherche de personnes disparues par analyse de photos).

« Beaucoup de clients doivent désormais changer leur manière de stocker et d’analyser leurs données », conclut DonPaul Stephens. En offrant des performances accrues, des économies de coûts et un accès plus aisé à des données variées dans des formats natifs, AirMettle ouvre de nouvelles possibilités de naviguer et d’analyser des big data. Ajoutons que le produit devrait être lancé à la mi-2024.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire