Par Valentin Macheret expert en informatique quantique (*)
Pourquoi l’informatique quantique existe ?
L’ordinateur quantique est né de l’intersection de deux domaines : une meilleure connaissance du traitement de l’information au niveau quantique et le besoin croissant de puissance de calcul pour résoudre des problèmes numériques complexes tels que la simulation des matériaux et l’optimisation.
L’informatique quantique est déjà vaste et va continuer à se développer dans les années à venir. Ici nous nous préoccuperons uniquement de l’aspect traitement informatique.
L’une des propriétés clés de la mécanique quantique, la superposition, autorise à un système quantique, comme un photon ou un atome, d’être dans 2 états à la fois. Ce système porteur de l’information quantique est nommé quantum bit, ou qubit, et est la base de tous les calculs.
Cette particularité dans le qubit permet aux ordinateurs quantiques d’avoir un parallélisme décuplé (faire plusieurs choses en même temps), permettant d’explorer davantage de solutions en simultanés comparé à des ordinateurs binaires, à base de bit.
Imaginez devoir sortir d’un labyrinthe. Sur un programme classique, vous devrez séquentiellement choisir entre la droite ou la gauche à chaque intersection et retenir le chemin parcouru jusqu’à trouver la sortie. Dans la version quantique de ce programme, il est possible d’explorer la droite et la gauche en même temps. Le temps pour trouver la solution est exponentiellement réduit. C’est ça l’objectif de l’informatique quantique ! Trouver une solution à des problèmes qu’il serait trop coûteux de calculer de façon classique. Est-ce que de tels ordinateurs quantiques existent vraiment ? Et permettent t’ils de casser le chiffrement des communications tel que le RSA-2048 ?
Etat et limites en 2024 :
Oui, les ordinateurs quantiques existent bel et bien. Mais casser le chiffrement RSA-2048 n’est pas pour tout de suite. Explications.
Tous les acteurs construisant des ordinateurs (Quandela, IBM, IonQ, Pasqal, DWave…) se focalisent sur une technologie qui leur est propre. En effet, le “hardware quantique” peut se baser sur bien des supports : photons, matériaux supraconducteurs, ions piégés, atomes neutres, recuit… Avec chacune de ces approches viennent ses avantages et ses challenges.
Gardons en tête que rien n’est simple dans ce domaine, et que de nombreuses approches restent à explorer. Aujourd’hui, il serait prétentieux de dire quelle technologie tirera le mieux son épingle du jeu.
Evaluer un ordinateur quantique :
Afin de qualifier la maturité d’un ordinateur quantique, nous serions tentés de regarder uniquement le nombre de qubits mis à disposition. Mais ce n’est en réalité qu’une partie du sujet. David Di Vincenzo, un ingénieur chez IBM, propose un ensemble de 5 critères qui permettent, a priori, d’évaluer la maturité d’un ordinateur quantique ( voir plus de détails dans le lien mentionné en bas de l’article).
On constate que les grands challenges actuels concernent la fidélité (qualité) intrinsèque des qubits et des opérations qui leur sont appliquées.
Pour quantifier la puissance d’un ordinateur quantique, plusieurs métriques ont commencé à voir le jour. On peut citer le volume quantique (IBM, 2020), qui prend en compte le nombre de qubits et leur fidélité, ou encore le nombre d’opérations par seconde (IBM, 2021). La réalité, néanmoins, est que peu d’acteurs prennent du temps en 2024 de mesurer et publier ces métriques car la priorité reste de faire évoluer le matériel.
Des erreurs, partout :
L’un des plus grands challenges de tous les constructeurs d’ordinateur quantique est de réduire le taux d’erreur des qubits durant les calculs. Les erreurs peuvent être provoquées par une décohérence non souhaitée où l’état d’un qubit peut être altéré en interagissant avec l’environnement (Température, vibration, ondes acoustiques, champs électriques…), ou bien par simple perte du support quantique (un photon “perdu” dans une fibre par exemple).
Ce qui permet de mettre en exergue un des paradoxes de l’informatique quantique :
à la fois isoler au mieux les qubits de son environnement… tout en cherchant à le contrôler pour faire des opérations dessus.
Deux solutions (non exclusives) se démarquent :
1) améliorer le matériel pour mieux isoler l’information quantique des perturbations
2) les codes de correction d’erreurs quantique (QEC). Alice & Bob, un acteur français du quantique, a une approche mixte: créer des qubits supraconducteurs avec une résistance accrue au bit-flip, un type d’erreur commun.
L’idée basique de la QEC est la suivante : utiliser davantage de qubits pour la redondance d’information, et appliquer des opérations de correction en cas d’erreurs.
C’est pourquoi il importe de questionner quand un nouvel ordinateur quantique est annoncé : quelle est la fidélité de ses qubits ? Combien vais-je devoir en utiliser pour la correction d’erreur ?
La QEC est aujourd’hui écrite manuellement dans les algorithmes des entreprises qui souhaitent porter leurs algorithmes au quantique. C’est une tâche fastidieuse et qui requiert des ingénieurs dédiés. La QEC peut être tellement encombrante qu’elle réduit considérablement le nombre de qubits “utiles” (porteur d’information), rendant encore impossible l’exécution de certains algorithmes.
Des paradigmes qui intègrent directement une QEC émergents comme les ceux à base de mesure (MBQC) ou encore à base de fusion (FBQC) intégrés aux calculs. Mais ces approches sont encore très théoriques et, à date, aucun ordinateur quantique n’a pu les implémenter avec succès.
C’est pour quand un ordinateur quantique, alors ?
Pour reprendre l’exemple du RSA-2048, il faudrait, selon cet article paru en 2021, pas moins de 20 millions de qubits physiques (porteur d’info + correction) pour factoriser un nombre premier suffisant afin de casser le protocole. En 2024 on compte au mieux quelques centaines de qubits sur certains ordinateurs.
Un article de 2022 fait une estimation à 372 qubits quasi-parfaits (99.9% de fidélité) via une approche hybride bien plus lente… Les estimations pour cet algorithme sont « monnaie courante » et il faut se montrer prudent, faute de consensus.
La route va prendre encore quelques années, au moins 5-7, avant d’atteindre l’informatique quantique tolérante aux erreurs (FTQC). Cette période transitoire avant de pouvoir profiter de qubits logiques (ie: robustes aux erreurs) porte le doux nom de Noisy Intermediate Scale Quantum (NISQ) era.
Ordinateur quantique.
La place de l’émulation dans l’écosystème quantique :
L’idée clé de l’émulation quantique est simple : utiliser la puissance des ordinateurs quantiques pour mimer le comportement des interactions faites dans un vrai ordinateur quantique (superposition, intrication, décohérence…). Il existe des émulateurs qui simulent spécifiquement un type de hardware (tels que exQalibur par Quandela pour le photonique ou Pulser de Pasqal pour les atomes neutres).
La quasi-totalité des émulateurs proposent un mode de fonctionnement sans erreur (ie: le mode logique) ainsi qu’un mode avec simulation des erreurs quantiques précédemment évoquées (ie: le mode physique).
L’émulation quantique se positionne donc comme une alternative afin d’explorer le vaste sujet de l’informatique quantique pour y prototyper des algorithmes sans avoir à se soucier des contraintes matérielles, de la disponibilité d’un ordinateur quantique ou encore des erreurs de calculs (Voir plus d’informations à ce sujet sur le lien en bas de l’article).
L’émulation a cependant une grande contrainte : la consommation de mémoire qui double pour chaque qubit. En effet, stocker le vecteur d’état d’un système quantique à N qubits revient à stocker 2^N x 8 octets en mémoire. Soit 8MB pour 20 qubits, 8GB pour 30 qubits… En 2024 des offres cloud d’émulateurs proposent jusqu’à une 40aine de qubits (physique ou logique), et cela demande un supercalculateur de GPUs.
Un premier pas dans la programmation quantique :
Le développement d’algorithmes quantiques en 2024 est encore chose ardue. Cela revient à encore manipuler directement des portes logiques quantiques, qui n’ont rien à voir avec l’algèbre de Boole. D’autant plus que certaines portes peuvent être très spécifiques à un type de hardware.
(*) Par Valentin Macheret expert en informatique quantique et ingénieur Recherche et Développement (R et D) à Scaleway Labs. Scaleway Labs est le département de R et D de Scaleway. Scaleway est un acteur majeur, l’hôte de plus de 120 000 serveurs sur six centres de données, brassant un total de 3,2 Tb/s de trafic. Il s’agit du deuxième acteur dans ce domaine en France derrière OVH Cloud et du troisième en Europe.
Pour plus d’informations voir lien :
https://www.scaleway.com/fr/blog/linformatique-quantique-en-2024-etat-des-lieux/