"Les données, ah oui !" Suivi ou non d'un long silence ou d'un profond soupir. Voilà comment un CEO réagit en général lorsqu'on lui demande comment son entreprise traite les données relatives à ses produits, ses clients, etc. Certes, ce CEO est parfaitement conscient de la valeur des données. En effet, une étude de KPMG indique que 7 CEO sur 10 espèrent une augmentation du chiffre d'affaires grâce à l'analyse de données. De son côté, Accenture estime que 9 CEO sur 10 considèrent l'analyse de données comme essentielle pour défendre la position concurrentielle de leur organisation. Reste à savoir par où commencer. Selon Harvard Business Review, l'impact de l'analyse de données se révèle décevant dans 9 cas sur 10.

Cette déception n'a pourtant rien de surprenant. En effet, les outils d'analyse actuels n'ont pas été prévus pour l'explosion de données provenant de systèmes, machines et médias sociaux divers et variés. Non seulement ces solutions ne sont pas en mesure de supporter de tels volumes, mais ils sont trop orientés vers le rapportage. Entendez sur le passé, par sur les prévisions d'avenir. La solution résiderait-elle dans l'ajout de matériel ou l'engagement d'ingénieurs de données ? "Je n'y crois pas, répond Grant Halloran, CMO d'OmniSci. Le marché aurait besoin de la moitié de 'data scientists' en plus. Mais où les trouver à court terme ? De plus, les 'data scientists' qui travaillent perdent les trois quarts de leur temps. Ils consacrent en effet beaucoup de temps au 'data prepping' et pas à du travail productif.

Ultra-rapide

Mais voici Todd Mostak. En tant qu'étudiant à la Harvard Kennedy School, il réalise en 2012 une enquête sur l'utilisation de Twitter lors du Printemps arabe. "J'ai collecté plus d'un milliard de tweets, explique-t-il durant notre visite des bureaux d'OmniSci au centre de San Francisco. Mais je ne disposais d'aucune solution valable pour analyser et visualiser ces messages." Lorsqu'un an plus tard, il s'intéresse au MIT à la puissance GPU, la réponse lui apparaît évidente. En effet, la 'graphics processing unit' est le processeur chargé des tâches vidéo dans un ordinateur. Mais le hasard veut que ce GPU - sa carte graphique - ne se limite pas à cela. En d'autres termes, l'analyse de big data ne nécessite plus un centre de données ultra-puissant, mais une armoire renfermant quelques GPU.

Tel est le concept à la base de MapD, fondée par Todd Mostak et rebaptisée depuis octobre OmniSci après un nouveau tour de table financier. Le coeur de la solution est constitué d'un moteur SQL open source, développé pour optimiser le GPU. Par ailleurs, on trouve un moteur de rendu pour la visualisation de requêtes rapides sur les données. "OmniSci peut fonctionner sur site, sur du matériel dédié, mais la plate-forme peut aussi parfaitement être utilisée dans Amazon ou Google." Le site de OmniSci présente d'ailleurs des démos en direct dans lesquelles un utilisateur peut, en quelques millisecondes, exécuter des requêtes sur des dizaines de milliards d'enregistrements non indexés, simplement à l'aide d'un navigateur. "Nous utilisons pour ce faire 4 serveurs dotés de GPU, rien de plus, précise Todd Mostak. La force brute du GPU permet d'exécuter et de visualiser de telles requêtes complexes en une fraction de seconde."

Opportunités

OmniSci se profile comme une alternative aux bases de données classiques d'IBM et d'Oracle, mais se considère également comme un concurrent des outils classiques de décisionnel. "Telle est davantage notre cible", précise Mostak. Certes, pas besoin d'informatique GPU pour produire des rapports de ventes mensuels, OmniSci estimant plutôt que son marché se situe dans l'analyse de détections de fraude, de compteurs intelligents, de surveillance de réseaux, etc. Afin de tirer un profit maximum de leurs 'big data', des entreprises comme Volkswagen et Verizon ont fait appel à OmniSci.