B. INFORMATIQUE QUANTIQUE ET RÉSEAUX

L'informatique quantique représente à la fois la menace la plus sérieuse jamais connue pour la sécurité des communications numériques et, paradoxalement, une opportunité pour développer de nouvelles formes de communications intrinsèquement sécurisées. Comprendre cet enjeu est devenu indispensable pour les professionnels des réseaux, car la migration des infrastructures vers des solutions résistantes aux ordinateurs quantiques est un chantier qui doit s'engager maintenant, bien avant que les machines quantiques capables de menacer les algorithmes actuels n'existent.

1. menace quantique pour la cryptographie actuelle

Les ordinateurs quantiques exploitent des phénomènes de la mécanique quantique, la superposition (un qubit peut représenter simultanément 0 et 1) et l'intrication (deux qubits peuvent être corrélés indépendamment de la distance), pour effectuer certaines classes de calculs exponentiellement plus rapidement que les meilleurs ordinateurs classiques. Ce n'est pas simplement une question de vitesse : certains problèmes mathématiques qui nécessiteraient des milliards d'années sur les ordinateurs actuels pourraient être résolus en quelques heures par un ordinateur quantique suffisamment puissant.

L'algorithme de Shor, proposé par le mathématicien Peter Shor en 1994, est au cœur de la menace. Il permet théoriquement à un ordinateur quantique de factoriser en temps polynomial des grands entiers, c'est-à-dire de trouver les facteurs premiers d'un nombre de plusieurs centaines de chiffres en un temps raisonnable.

Or, c'est précisément ce problème de factorisation qui fonde la sécurité de l'algorithme RSA, utilisé pour chiffrer la quasi-totalité des communications sur Internet :

·    connexions HTTPS

·    VPN IPsec

·    SSH

·    signatures de certificats numériques

·    protocoles TLS.

 Un ordinateur quantique capable d'exécuter l'algorithme de Shor à grande échelle rendrait ces protections instantanément obsolètes.

L'algorithme de Grover, autre algorithme quantique fondamental, réduit par deux la sécurité effective des algorithmes de chiffrement symétrique. Concrètement, AES-128 offrirait contre un attaquant quantique une sécurité équivalente à seulement 64 bits, considérée comme insuffisante. La parade est simple : doubler la taille des clés symétriques. AES-256 reste ainsi sûr même contre les ordinateurs quantiques, à condition que son implémentation soit correcte.

L'état de l'art en 2025 montre que les ordinateurs quantiques existants sont encore loin de pouvoir menacer les cryptosystèmes actuels. Les machines disponibles sont des systèmes NISQ (Noisy Intermediate-Scale Quantum) : elles comportent entre quelques dizaines et quelques centaines de qubits physiques, mais ces qubits sont très sensibles aux perturbations extérieures (bruit quantique) et n'incorporent pas encore de correction d'erreurs quantiques efficace. Le processeur Willow de Google (105 qubits, 2024) a démontré une supériorité quantique sur des tâches spécifiques de calcul, mais ces tâches n'ont pas d'application cryptographique directe. Les experts estiment qu'un ordinateur quantique capable de casser RSA-2048 nécessiterait environ 4 000 qubits logiques fault-tolerant, ce qui correspond à des millions de qubits physiques avec correction d'erreurs, un horizon estimé entre 2030 et 2040.

 

 

⚠ La stratégie « Harvest Now, Decrypt Later »

Même si les ordinateurs quantiques capables de casser RSA n'existent pas encore, des acteurs malveillants (États-nations, groupes criminels sophistiqués) collectent dès aujourd'hui les communications chiffrées en transit, dans l'intention de les déchiffrer ultérieurement quand les ordinateurs quantiques seront disponibles. Cette stratégie « Harvest Now, Decrypt Later » (capturer maintenant, déchiffrer plus tard) justifie une migration urgente vers la cryptographie post-quantique pour toute donnée ayant une durée de sensibilité supérieure à 5-10 ans : secrets industriels, données médicales, communications diplomatiques, propriété intellectuelle.

2. Cryptographie post-quantique (PQC)

La cryptographie post-quantique (PQC) désigne l'ensemble des algorithmes cryptographiques conçus pour résister aux attaques d'un ordinateur quantique, tout en fonctionnant sur des ordinateurs classiques ordinaires. Contrairement à la cryptographie quantique (qui exige une infrastructure physique spéciale), la PQC est un ensemble d'algorithmes logiciels qui peuvent être déployés sur les infrastructures existantes, serveurs, routeurs, navigateurs, smartphones, simplement par mise à jour logicielle.

Ces algorithmes reposent sur des problèmes mathématiques différents de ceux menacés par l'algorithme de Shor. Plutôt que la factorisation d'entiers ou le logarithme discret, ils s'appuient sur des problèmes liés aux réseaux euclidiens (lattice-based cryptography), aux codes correcteurs d'erreurs, aux fonctions de hachage ou aux systèmes multivariables. Ces problèmes sont considérés difficiles même pour les ordinateurs quantiques, au moins avec notre compréhension actuelle de la mécanique quantique.

Le NIST américain a conduit entre 2016 et 2024 un long processus de standardisation internationale des algorithmes PQC, avec participation mondiale des cryptographes académiques et industriels. En août 2024, le NIST a publié les premiers standards officiels de cryptographie post-quantique. Le standard FIPS 203 (ML-KEM, issu de l'algorithme CRYSTALS-Kyber) fournit un mécanisme d'encapsulation de clés (KEM) basé sur les réseaux euclidiens, qui remplacera RSA et ECDH pour l'échange de clés dans TLS. Le standard FIPS 204 (ML-DSA, issu de CRYSTALS-Dilithium) fournit un schéma de signature numérique pour remplacer RSA et ECDSA dans les certificats. Le standard FIPS 205 (SLH-DSA, issu de SPHINCS+) fournit une alternative de signature basée sur les fonctions de hachage, dont la sécurité repose sur des hypothèses mathématiques plus conservatives.

La migration vers la PQC est un chantier de longue haleine qui ne peut pas s'improviser. Les organisations doivent d'abord conduire un inventaire cryptographique complet : identifier tous les systèmes utilisant des algorithmes vulnérables (RSA, ECDSA, ECDH, DH), les données qu'ils protègent et leur durée de sensibilité. Puis vient le déploiement d'algorithmes hybrides, qui combinent l'algorithme classique existant et le nouvel algorithme PQC en parallèle : si l'un est compromis, l'autre protège encore. Cette approche hybride permet une migration progressive sans casser la compatibilité avec les systèmes qui ne supportent pas encore la PQC. Enfin, la dépréciation progressive des algorithmes classiques s'échelonnera entre 2026 et 2030 pour les infrastructures critiques.

ℹ État du déploiement PQC en 2025

Les navigateurs Chrome et Firefox testent les algorithmes hybrides TLS (X25519Kyber768, combinant Curve25519 et Kyber). Cloudflare, Google et Amazon CloudFront supportent expérimentalement le PQC dans TLS 1.3. L'ANSSI française a publié ses recommandations de migration PQC en 2024, prescrivant l'adoption des standards NIST. La NSA américaine impose la migration PQC pour les systèmes de défense à partir de 2025.

3. Distribution quantique de clés (QKD)

La QKD (Quantum Key Distribution, distribution quantique de clés) est une approche fondamentalement différente de la PQC. Tandis que la PQC est un ensemble d'algorithmes logiciels dont la sécurité repose sur des hypothèses mathématiques (aussi solides soient-elles), la QKD exploite les lois physiques de la mécanique quantique pour garantir la sécurité des échanges de clés de manière prouvée par la physique : toute tentative d'interception d'une clé QKD modifie inévitablement les photons transmis, rendant l'interception détectable. Autrement dit, la QKD ne repose pas sur la difficulté de résoudre un problème mathématique, mais sur l'impossibilité physique de mesurer un état quantique sans le perturber.

Le protocole BB84, conçu par Charles Bennett et Gilles Brassard en 1984, est le protocole QKD fondateur. Il encode des bits de clé sur la polarisation de photons uniques envoyés sur une fibre optique. Émetteur et récepteur comparent publiquement leurs bases de mesure (sans révéler les valeurs) pour extraire une clé commune. Si un espion (Eve) a intercepté les photons pour les mesurer, ses perturbations introduisent des erreurs détectables dans la clé, révélant la compromission. Le protocole E91 (Arthur Ekert, 1991) utilise des paires de photons intriqués pour une sécurité encore plus robuste théoriquement.

Les déploiements QKD dans le monde illustrent l'intérêt des États pour cette technologie. La Chine a déployé le réseau QKD le plus étendu au monde, reliant Pékin à Shanghai sur 2 000 km et opérant le satellite quantique Micius depuis 2016, qui a démontré la QKD à plus de 7 000 km via l'espace. L'Union Européenne finance le projet EuroQCI (European Quantum Communication Infrastructure) pour déployer un réseau paneuropéen de communication quantique sécurisée d'ici 2027. En France, Orange, Thales et le CEA conduisent des projets pilotes de réseaux QKD métropolitains.

La QKD présente cependant des limitations importantes qui en font aujourd'hui une solution complémentaire à la PQC plutôt qu'un remplacement universel. La distance maximale sur fibre optique sans répéteur quantique est typiquement limitée à une centaine de kilomètres, au-delà de laquelle les pertes de photons deviennent rédhibitoires. Les répéteurs quantiques, qui devraient pallier cette limitation, sont encore à l'état de recherche. Le coût des équipements QKD (plusieurs dizaines à centaines de milliers d'euros par nœud) et la nécessité d'une infrastructure dédiée limitent le déploiement aux communications gouvernementales et financières les plus sensibles.

4. Vers un Internet quantique

Au-delà de la QKD point à point, la recherche travaille sur un concept beaucoup plus ambitieux : l'Internet quantique, un réseau permettant de distribuer l'intrication quantique entre nœuds distants à travers le monde. Un tel réseau permettrait non seulement des communications parfaitement sécurisées de bout en bout, mais aussi le calcul quantique distribué, permettant à plusieurs ordinateurs quantiques de coopérer sur des calculs impossibles pour une machine individuelle, et la métrologie quantique, avec des horloges atomiques synchronisées à distance avec une précision inégalée.

Les composants d'un Internet quantique présentent des défis scientifiques considérables. Les mémoires quantiques doivent stocker des états quantiques pendant des durées suffisamment longues pour permettre la synchronisation des nœuds. Les répéteurs quantiques doivent amplifier les signaux quantiques sans les mesurer (ce qui détruirait l'information quantique), en utilisant des techniques d'entrelacement par swapping et de purification d'intrication. Les convertisseurs de fréquence quantiques doivent adapter les longueurs d'onde des photons aux fenêtres de transmission optimales des fibres optiques. Les premières démonstrations de répéteurs quantiques fonctionnels ont eu lieu en 2023-2024 dans les laboratoires de TU Delft aux Pays-Bas et d'Harvard aux États-Unis, marquant des étapes importantes vers cet objectif à long terme.

ℹ Quantum Flagship européen

L'Union Européenne finance le programme Quantum Flagship avec un milliard d'euros sur la période 2018-2028, incluant des projets de réseaux quantiques, d'ordinateurs quantiques, de capteurs quantiques et de simulation quantique. La Commission Européenne considère les réseaux quantiques comme une infrastructure stratégique pour la souveraineté numérique de l'Europe, au même titre que les câbles sous-marins ou les satellites Galileo.

Modifié le: vendredi 20 mars 2026, 10:35