Trop de données peut tuer les données

Kristof Van der Stadt
Kristof Van der Stadt Rédacteur en chef chez Data News

Sans doute s’agit-il de la question la plus fréquemment posée lorsqu’il est question d’intelligence artificielle: les robots – qu’ils soient physiques ou logiciels – vont-ils détruire l’emploi? Quant à la deuxième question la plus souvent posée: quand Skynet deviendra-t-il réalité? L’on ne parle pas ici de l’ancien opérateur belge – entre-temps rebaptisé Proximus -, mais bien de la fiction IA qui se dote progressivement de conscience pour finalement se retourner contre l’homme dans le film Terminator. Il est d’ailleurs de notoriété publique que Jean-Guillaume Zurstrassen, frère de José Zurstrassen, et Grégoire de Streel ont intentionnellement choisi le nom Skynet lors de la fondation en ’95 de ce fournisseur d’accès à l’Internet en référence à Terminator.

Le leitmotiv ‘plus de données est toujours mieux’ a prévalu dans l’IA.

Il semble que l’auto-conscience de l’IA ne pose pas encore trop de problème, s’il faut en croire les interlocuteurs de notre dossier. Le scénario de Terminator ne semble donc pas encore susciter la crainte. Même si la technologie fascine. D’autant que l’évolution est extrêmement rapide. La valeur ajoutée est bien concrète pour les entreprises. Désormais, l’IA a quitté la phase de l’effet de mode et ne se limite plus désormais à quelques vagues expériences, projets pilotes et autres vitrines. C’est ainsi que durant cette pandémie, de nombreux agents conversationnels ont été déployés de par le monde pour répondre de manière automatisée aux questions sur la Covid-19 et les mesures de sécurité. De même, des modèles d’apprentissage machine ont été formés pour analyser l’impact sur l’économie du confinement temporaire de certains secteurs et savoir ce qui pourrait arriver si certaines mesures prises précédemment étaient levées. Durant l’année écoulée, l’IA s’est clairement démocratisée et n’est désormais plus un jouet exclusivement réservé aux scientifique et experts en données.

“Si l’IA était un concept général sur la ‘hype cycle’ [une courbe de Gartner qui indique le niveau d’effet de mode d’une technologie, NDLR], elle aurait sans doute dépassé maintenant la fameuse ‘peak of inflated expectations'”, estime Svetlana Sicular, analyste chez Gartner. Reste que l’IA est en soi trop vaste et se scinde en plusieurs segments – pas tous aussi matures. Ainsi, la ‘computer vision’ – entendez les yeux de l’IA – est déjà relativement évoluée. Songez aux applications de reconnaissance d’objets comme le tri automatique de produits sur une ligne de production grâce à une caméra alimentée par des modèles de reconnaissance intelligents. D’ailleurs, en ces temps de coronavirus, cet aspect de l’IA a été notamment mis en oeuvre pour imposer la distanciation sociale. Cela dit, la vision informatisée est désormais confrontée à une nouvelle phase problématique: ‘the trough of disillusionment’. Ce n’est qu’après avoir franchi cette étape que la maturité sera finalement atteinte, soit le plateau de productivité.

Entre-temps, les segments les plus cités de l’IA ont dépassé la phase des attentes exagérées. Songez aux agents conversationnels, à l’apprentissage machine, au traitement par langage naturel, aux services cloud gérés par IA et à l’apprentissage profond. Mais ce qui est intéressant à noter, c’est qu’à l’autre extrémité de la courbe, de très nombreux segments nouveaux et relativement peu connus progressent sur la courbe et font l’objet de nouvelles attentes. C’est notamment le cas de l’intelligence décisionnelle, de l’IA responsable ou du matériel neuromorphique, entendez la capacité à intégrer une puce dans un cerveau. Mais un segment sans doute plus important encore émerge, celui des ‘small data’. Jusqu’ici en effet, le leitmotiv ‘plus de données est toujours mieux’ était en vogue. Or le modèle semble atteindre ses limites (car pas vraiment efficace en termes de coûts). Les modèles de données deviennent trop volumineux et trop lourds pour offrir une valeur ajoutée immédiate – à moins d’être un féru de techno disposant de sources quasiment illimitées. Du coup, un mouvement semble d’amorcer pour abandonner les ‘big data’ au profit de ‘small data’. Bref, de nouveaux modèles mathématiques pour former l’AI sur la base de petits jeux de données. Ou de nouvelles techniques qui ne nécessitent plus d’intégrer la totalité des données pour entraîner un jeu de données. Si tel devait être le cas, l’IA connaîtrait un nouveau coup d’accélérateur. Et je peux déjà prévoir le type de questions qui seront posées en priorité.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire