L’informatique quantique: « L’informatique traditionnelle est confrontée à ses propres 
limites »

© Getty Images/Science Photo Libra
Els Bellens

Comment évolue aujourd’hui l’informatique quantique et votre organisation doit-elle s’y intéresser ?

Les messages relatifs aux nouvelles percées des ordinateurs quantiques se succèdent à un rythme sans cesse accéléré. En février, Fujitsu annonçait avec l’Université Technique de Delft aux Pays-Bas un partenariat visant à mener des recherches sur l’informatique quantique. Si la technologie est en développement depuis quelques années déjà, les travaux se limitaient jusqu’ici au domaine de la recherche académique et aux très grandes sociétés technologiques, dont IBM et Google qui proposent désormais la technologie quantique dans le cloud.


Une raison majeure explique qu’un nombre croissant d’entreprises se lancent dans la bataille : la puissance de calcul. « Pour des technologies comme l’IA, il faut disposer de capacités de calcul gigantesques, précise Vivek Mahajan, global CTO de Fujitsu. A nos yeux, l’informatique quantique est la seule voie possible. »


Quoi qu’il en soit, il souligne que pour des entreprises comme Fujitsu, les ordinateurs quantiques ne sont plus depuis bien longtemps un vague rêve d’avenir et que de véritables cas d’usage pratiques se développent. « Je pense que le quantique aura un impact extrêmement important sur le potentiel commercial de Fujitsu et sur l’offre de notre entreprise au marché mondial, fait remarquer Mahajan. Certains problèmes doivent encore être résolus, mais les débouchés sont énormes. »


Ces débouchés sont induits par la manière dont les ordinateurs quantiques fonctionnent. En effet, au lieu des bits binaires traditionnels sous forme de 0 et de 1, un ordinateur quantique utilise des qubits qui peuvent avoir comme état 0, 1 ou les deux à la fois (par superposition). Cela donne de multiples possibilités supplémentaires, même si différents obstacles doivent être surmontés.

Utility

« L’informatique quantique atteint désormais un niveau que nous n’aurions pas imaginé voici 50 ans encore, ajoute le Dr. Heike Riel, IBM fellow et directeur de la recherche sur l’informatique quantique pour l’Europe et l’Afrique chez IBM. Nous en sommes désormais au stade ‘utility’ où le quantique peut être utilisé pour la recherche et la science plutôt que de se limiter aux calculs ‘force brute’ classiques, ce qui repousse les limites des perspectives offertes. »


Pour en arriver là, toute une série de processus ont convergé. Développer une toute nouvelle technologie nécessite beaucoup de travail, en commençant par le matériel. « Dès le départ, une dizaine de manières différentes ont été imaginées pour réaliser un qubit. Entre-temps, nombre d’entre elles ont été abandonnées parce qu’elles étaient compliquées à mettre en œuvre, fait remarquer Koen Bertels, fondateur de l’accélérateur QBee et professeur depuis 20 ans déjà à la TU Delft, avec une spécialisation en informatique quantique.

« Celui qui connaît
Python devrait pouvoir programmer un ordinateur quantique. »

L’un des processus les plus connus est basé sur des puces à circuits supraconducteurs. Il s’agit d’équipements qui doivent être refroidis jusqu’à quelques millikelvins au-dessus du ‘zéro absolu’ (- 273,15°C) pour fonctionner correctement. Ces systèmes ont été parmi les premiers à être présentés au grand public. Entre-temps, des start-up et des entreprises s’activent à développer les technologies qubit, et notamment des dots quantiques ainsi que des appareils photoniques et topologiques.

« Nous collaborons avec IBM sur les qubits supraconducteurs dans la mesure où il s’agit actuellement de la technologie la plus évoluée et qui présente des avantages en termes d’évolutivité et de vitesse, considère Riel. Et désormais, nous passons à la vitesse supérieure. Nous travaillons sur des stacks complets, donc à la fois des qubits, des processeurs quantiques et l’électronique associée, des systèmes de refroidissement ainsi que du logiciel et des algorithmes sans oublier les applications. » Et d’ajouter encore que ces systèmes et leur refroidissement imposeront un espace spécialement dédié, ce qui est désormais chose acquise. « Ces systèmes ont d’ailleurs fortement évolué au fil des dernières années. Nous utilisons désormais un refroidissement en cycle fermé, ce qui permet d’installer un ordinateur quantique dans un centre de données classique. Nous les avons construits pour permettre une utilisation fiable et stable sur une longue période. Il faut certes un centre de données doté d’une infrastructure spécifique, mais l’électronique est désormais à ce point miniaturisée que l’ordinateur peut facilement s’intégrer dans l’ensemble. »

Evolutivité

Le problème majeur, insiste-t-on encore, consiste à faire évoluer l’ordinateur en taille. Deux facteurs sont ici déterminants : le nombre de qubits que compte un ordinateur et la quantité de ‘portes’. Ces portes quantiques sont assez comparables aux ‘portes logiques’ des ordinateurs traditionnels (Not, And, Or), mais disposent d’une fonctionnalité unique, basée sur les phénomènes quantiques. L’un des problèmes majeurs consiste à augmenter le nombre de qubits et de portes sur une puce. C’est ainsi qu’en décembre 2023, IBM a par exemple été la première à franchir la barrière des 1.000 qubits puisqu’une puce Condor a intégré 1.121 qubits supraconduteurs.


Mais pour autant qu’il y ait une course, tout le monde n’utilise pas le même véhicule. C’est ainsi qu’en juillet de l’an dernier, Intel a dévoilé sa première puce quantique maison, le Tunnel Falls, une puce dotée de 12 qubits et qui fonctionne avec des points quantiques. Cela peut paraître petit, mais il s’agit d’un système complètement différent, basé sur la technologie du silicium dans laquelle le fondeur est spécialisé depuis des années. Cette ‘puce chaude’ fonctionne à 1,6 kelvin, soit tout de même – 271°C, ce qui, aux dires d’Intel, fait une grande différence compte tenu des températures extrêmes en question. Intel espère en tout cas que sa technologie sera meilleure et plus évolutive que celle de ses concurrents.


L’objectif que se fixent pour l’instant tous les acteurs est la barre des 100.000 qubits. Un tel ordinateur serait alors capable de résoudre les plus grands problèmes de la planète, souvent en association avec des superordinateurs plus classiques.

Correction d’erreurs

L’évolutivité n’est pas le seul défi à relever. « Dans les ordinateurs classiques, la marge d’erreurs est très faible. Celles-ci sont d’ailleurs corrigées afin que personne ne remarque rien. Dans le monde quantique en revanche, on peut avoir une erreur une fois sur cent ou sur mille opérations », insiste Koen Bertels. Le problème se situe selon lui notamment dans la relative instabilité des particules élémentaires. Comme elles peuvent être à la fois 0, 1 ou un état superposé, ces particules sont très sensibles à leur environnement, celui-ci étant susceptible d’influencer involontairement l’état quantique d’une particule.

« De nombreux
secteurs vont s’ouvrir
à l’informatique
quantique. »

La technique de la ‘correction d’erreur quantique’ est donc l’une des pistes de recherche dans la construction d’un ordinateur quantique plus pratique. Les chercheurs parlent ici d’ordinateurs quantiques ‘noisy’ (NISQ ou ‘noisy Intermediate scale quantum computers’) face aux ordinateurs quantiques ‘fault tolerant’ (FTQC) où des mesures sont prévues pour corriger les erreurs.

Comment se fait cette correction d’erreurs ? Sans entrer dans le détail, il s’agit d’interconnecter entre eux plusieurs qubits. Si l’on connecte par exemple 3 qubits, ceux-ci doivent tous avoir le même état. Or si l’un d’eux est influencé par l’environnement, le système qui compare les états de celui-ci et des deux autres peut corriger si nécessaire.

Les systèmes NISQ et FTQC sont largement développés en parallèle. C’est ainsi que si l’on analyse la feuille de route d’IBM, on remarque que la puce Concord dispose de plus de 1.000 qubits, alors qu’une autre en a 133. « La puce Heron est une nouvelle technologie où la marge d’erreur est plus réduite, souligne Heike Riel d’IBM. Le nombre de qubits est donc inférieur, mais les puces présentent aussi bien moins d’erreurs. Elle a aussi un ‘gate time’ beaucoup plus rapide, ce qui permet d’aborder des problèmes plus complexes. » Heron est un élément d’un système quantique basé sur une approche modulaire, assez comparable à celle de l’environnement multicœur d’un ordinateur classique. « L’architecture est un peu plus complexe, mais en principe, nous connectons 3 Heron dans une plus grande puce qui supporte une liaison quantique afin de fonctionner comme une seule et même grande puce quantique. »

Le reste de la pile

Améliorer et miniaturiser le matériel est une chose, mais pour pouvoir utiliser une telle technologie, il faudrait ne pas se limiter à un expert en physique. En d’autres termes, il faut des applis. « La pile logicielle doit permettre d’utiliser l’informatique quantique par des scientifiques en informatique qui ne maîtrisent pas forcément la physique », affirme Riel. Bref, celui qui connaît Python devrait pouvoir programmer un ordinateur quantique. C’est ainsi qu’un logiciel à code source ouvert comme Quskit permet de réaliser des tests. »

Sur cette base, il conviendrait d’élargir la base commerciale potentielle des ordinateurs quantiques pour s’ouvrir à la résolution de problèmes trop complexes pour les ordinateurs traditionnels. Heike Riel cite l’exemple de la recherche moléculaire qui nécessite une puissance de calcul exponentielle en fonction de la taille des molécules.
« Désormais, différents secteurs industriels utilisent l’informatique quantique, ce qui ouvre clairement des opportunités. Nous essayons désormais d’identifier les problèmes spécifiques à certains secteurs et la manière d’intégrer les algorithmes et les flux appropriés dans un ordinateur quantique. »

La plupart des exemples concrets se retrouvent désormais dans la recherche scientifique, et notamment dans le développement de médicaments, la recherche moléculaire, la prévision de tsunamis, la dynamique des fluides, etc. S’il s’agit pour l’instant de niches, Koen Bertels estime qu’il conviendrait de voir bien plus large. « Il faut une vision, sachant qu’au niveau des puces et des transistors actuels, on atteint presque le nanomètre. Plus bas, on en arrive dans l’univers de la mécanique quantique. Dans cet univers, tout se comporte différemment et les mathématiques sont différentes, ce qui induira une révolution. Mais c’est une révolution dont doivent prendre conscience les entreprises et les universités. Bien d’autres domaines vont à terme devoir franchir le pas de l’informatique quantique. Tous les domaines scientifiques qui utilisent des ordinateurs devront aussi adopter cette technologie et ont donc tout intérêt à s’y préparer. »

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire