Les incertitudes de la cryptographie quantique

On ne sait pas si la « suprématie quantique » sur les ordinateurs classiques a été atteinte durant l'été comme Google l'a annoncé. IBM assure que non, Google maintient (lien)  Disons, faute de certitude, que l'annonce était quantique, dans une superposition d'état à moitié vrai et à moitié faux…  Il n'empêche que la question qui se pose aux spécialistes de la cryptographie devient brûlante. En témoigne la teneur d'une conférence donnée par Victoria de Quehen (ISARA) le 15 octobre 2019 à Montréal. Notre correspondante y a assisté.

La cryptographie, c'est la base de la sécurité informatique. Elle permet de transmettre un message dans l’espace public qui ne pourra en théorie n’être intelligible que par les destinataires prévus. Elle se situe donc avant les protocoles (comme https) et les applications, les administrateurs et les utilisateurs (qui gèrent leurs mots de passe en bout de ligne). C’est tellement primordial qu’en 2005, la NSA a lancé un processus de standardisation d’une méthode robuste et efficace, la " cryptographie à courbe elliptique " qui a abouti au chiffrement RSA, largement répandu de nos jours.

Quel que soit le système d’encodage utilisé,  la cryptographie actuelle est basée sur des problèmes de mathématiques difficiles à résoudre, même avec des machines. Par exemple, après avoir multiplié deux grands nombres premiers, il est difficile de revenir à ces deux nombres premiers à partir du résultat. Et pour renforcer la sécurité d'une cryptographie il faut soit augmenter le nombre de paramètres (par exemple en augmentant la grandeur des nombres premiers), soit changer d'algorithmes.

L’astuce, en cryptographie post-quantique, consisterait à se baser sur des domaines des mathématiques très différents pour chaque étape (encryptage, décryptage, ...). Mais bien entendu cela suppose d'employer des ordinateurs quantiques dont on sait qu'ils seraient très supérieurs (en puissance de calcul) à leurs homologues classiques pour certaines tâches bien spécifiques qui incluent, depuis l’invention de l'algorithme de Shor lien en 1995, la résolution des problèmes de mathématiques difficiles sur lesquels la cryptographie actuelle est basée.

D'où trois problèmes relevés par Victoria de Quehen : primo, n'importe qui (pas tout-à-fait quand même...) pourrait stocker des données encryptées aujourd’hui et attendre quelques décennies pour les décrypter (‘harvert and decrypt’).

Secundo, il faudrait du temps pour tout reconstruire sur la base d'une nouvelle cryptographie (le processus de standardisation de 2005 n'est toujours pas achevé).

Tertio, certains matériels informatiques déployés aujourd'hui doivent pouvoir durer plus que quelques décennies, par exemple les avions ou les véhicules autonomes.

La NIST (National Institute of Standards and Technology) a entamé un processus de standardisation de cryptographie post-quantique en 2017. Il est encore en cours et il vise une recommandation de standard à horizon 2022-2024. Ce processus consiste surtout à trouver le compromis souhaitable entre sécurité (avide de ressources) et efficacité (avare de ressources), et donc de choisir le standard en fonction. En attendant, avions et véhicules autonomes pourraient bénéficier de solutions hybrides alliant cryptographies classique et post-quantique, moins efficace que le chiffrement RSA, mais plus robuste à ce risque quantique.

Lauriane Gorce, Montréal