Le futur de l’informatique sera-t-il quantique ? (1/2)

Ce n’est plus un secret pour personne, nous sommes probablement à l’aube d’une révolution digitale que certains appellent d’ores et déjà « la 4e révolution industrielle ».
Avec les balbutiements de l’intelligence artificielle, des objets connectés, des biotechnologies et de la réalité virtuelle, nous y sommes sûrement déjà entré de plein pied, cependant impossible pour le moment de l’affirmer, seul le futur en sera juge.
Une chose est sûre, c’est que cette explosion de technologies auxquelles nous assistons repose sur un socle commun : l’informatique et l’incroyable puissance de calculs désormais accessibles à l’ensemble de l’humanité.

La révolution digitale se construit sur une ossature informatique. Sans elle, il n’y aurait pas de lancement de satellites, pas de transactions financières sécurisées et instantanées et donc pas de commerce mondial, pas d’avancées dans la médecine, et encore moins de téléphones portables.
Les exemples sont légions mais afin de pouvoir aller toujours de l’avant, il est certain que l’humanité aura besoin d’ordinateurs et donc de processeurs toujours plus puissant et toujours plus petits.

Cette augmentation de la puissance des processeurs et leur miniaturisation n’a-t-elle réellement aucune limite ? Et si tel est le cas, comment la contourner ?

Dans cet article en deux parties j’expliquerai les éventuelles limites de l’informatique classique, de ses possibles évolutions (voir mutations) et plus particulièrement des ordinateurs quantiques.
Si ces derniers vous semblent sortir tout droit d’un livre de science-fiction, il n’en est rien, et je vais m’attacher à vous expliquer au mieux le fonctionnement, les besoins techniques, leurs utilités et les divers projets actuels de calculateurs quantiques : ces derniers n’auront plus de secret pour vous !

Prêt pour une odyssée informatique où l’on parlera pêle-mêle de Qubits, de chats, de loi de Moore, de physique quantique (ne partez pas ! c’est facile !), de cryptographies et même d’étranges turcs mécaniques ?

Alors suivez le guide !

La loi de Moore fonce-t-elle dans le Mur ?

Origines…

Avant de parler d’ordinateurs quantiques, il faut auparavant revenir aux ordinateurs actuels. Pour ce faire, comme je vous l’avais promis lors de mon 2e article de blog, nous allons nous attacher un peu plus à cette fameuse loi de Moore.
Établie en 1965, Gordon Moore, l’un des trois fondateurs d’Intel, émet l’hypothèse que le nombre de transistors (principal élément des processeurs) double tous les deux ans.

Gordon Moore

Gordon Moore

Souvent réduite à la simple puissance de calcul des ordinateurs, cette conjecture s’est révélée étonnamment exacte de 1970 à nos jours.
Il est important de souligner que c’est par pure volonté des constructeurs que cette loi a été respectée jusqu’à maintenant.

 

En effet en 1992, AMD, Intel et IBM notamment créent le Semiconductor Industry Association» (SIA) qui établit des feuilles de routes à tenir concernant l’augmentation de la puissance des processeurs jusqu’à devenir mondial en 1998 (prenant le nom de «International Technology Roadmap for Semiconductors» : ITRS).
Impulsant un rythme effréné à tous les acteurs du marché, cet organisme a en quelque sorte transformé la loi de Moore en une prophétie auto-réalisatrice.

La loi de Moore fut maintes fois annoncée comme morte et enterrée car cette dernière allait se heurter à des limites physiques, notamment de miniaturisations. Cependant, les constructeurs ont toujours réussi à tendre vers cette conjecture de doublement de puissance.

Une des principales limites fut atteinte aux débuts des années 2000 en passant sous la barre des 90nm de gravure (nm = nanomètre, soit un milliardième de mètre. Le virus de la grippe fait 90nm, la longueur d‘une molécule d’eau en fait 0.4, un atome plus ou moins 0.1nm)
En effet en dessous de 90 nm, les électrons passent de plus en plus vite dans des circuits de plus en plus petits créant un échauffement considérable. Les fabricants ont donc décidé de bloquer la fréquence (la vitesse) des processeurs en 2004, et afin de continuer à augmenter en puissance ont multiplié le nombre de processeurs en les miniaturisant d’autant plus (X2 X4 X8) donnant les fameux « cœurs » ou « core ».

Loi-MOORE-Frequence-processeur

loi de Moore et fréquences d’horloge (vitesse) que l’on voit bloquées à partir de 2004

Aujourd’hui en 2017, il faut savoir que la poursuite de la miniaturisation des processeurs  a atteint une gravure comprise entre 20 et 40nm (les processeurs de votre ordinateur). La fabrication de ces derniers va bientôt atteindre les limites extrêmes de la miniaturisation, c’est le fameux « Wall » de la loi Moore.

The Wall

Ce fameux Mur contourné une première fois en 2004, en bloquant la fréquence des processeurs, se rapproche de nouveau à grande vitesse et cela pour 2 raisons :
La première est le coût de fabrication qui devient trop prohibitif, c’est une chose de pousser des gravures de processeurs à 7nm en laboratoire, mais les produire en masse demande un investissement financier colossal (5 à 6 milliard US$ en moyenne par usine pour des 14nm actuellement) : c’est la loi de Rock.
La seconde est qu’en passant sous la barre des 5nm, on entre dans un nouveau monde…
Un peu comme Alice traversant le miroir, on arrive dans un univers de l’infiniment petit où les électrons deviennent des chapeliers toqués n’en faisant qu’à leur tête en sautant d’un transistor à l’autre, un univers où les lois de la physique classique ne tiennent plus. Cet univers : c’est la mécanique quantique.
Impossible donc de continuer sur cette voie de la miniaturisation.

Beaucoup de spécialistes programment donc une mort de la loi de Moore dont le couperet tomberait entre 2017 et 2022 pour toutes les raisons citées plus haut. Pour la première fois en mars 2016, même la sacro-sainte roadmap de la SIA diffusée ne se fixait plus comme objectif principal de coller à la loi de Moore… tremblement de terre !!!!

 « More Than Moore »
Ceci ne veut pas dire que la progression des processeurs se stopperait nette mais que le gain de puissance risque de commencer à ralentir. Ceci amène à une autre problématique de taille, car économiquement si le besoin en renouvellement du parc mondial informatique tend à diminuer, les ressources financières des constructeurs ne seront plus suffisantes face au poids des investissements colossaux requis.

Je citerai Daniel REED, un scientifique spécialisé dans l’informatique de l’université de l’Iowa, qui nous explique que :

“My bet is that we run out of money before we run out of physics.”

Nous entrons donc dans une nouvelle ère : la loi de « More Than Moore » enterre cette fuite en avant permanente basée sur la puissance brute, laissant la place à une architecture de PC plus optimisée, certains parlent de processeur en 3D et non plus plat comme c’est le cas de nos jours, d’autres d’y intégrer la mémoire, de nouveaux matériaux (« millivolt switch »), l’architecture d’un processeur viendrait combler un besoin spécifique pour un portable, un voiture, voire un software particulier.

« Everyone agrees that the twilight of Moore’s law will not mean the end of progress. Think about what happened to airplanes, A Boeing 787 doesn’t go any faster than a 707 did in the 1950s — but they are very different airplanes, with innovations ranging from fully electronic controls to a carbon-fibre fuselage. That’s what will happen with computers :Innovation will absolutely continue — but it will be more nuanced and complicated.” Daniel Reed

Mais il reste un axe encore plus prometteur : une mutation des fondements de l’informatique tels qu’on les conçoit aujourd’hui… et cette idée c’est de retourner la barrière imposée par la physique quantique pour en faire notre allié…

 

Les Ordinateurs Quantiques

Le concept des ordinateurs quantiques repose sur la mécanique quantique qui est une sous branche de la physique quantique.
La mécanique quantique est la théorie mathématique et physique décrivant la structure et l’évolution dans le temps et l’espace des phénomènes physiques à l’échelle de l’atome et en dessous.
Ce qui pose donc problème en dessous de 5nm pourrait donc devenir notre plus grand avantage pour créer de nouveaux ordinateurs.

ORDINATEUR QUANTIQUE

Démarrant au milieu des années 1920, cette théorie est associée à de grands nom : Einstein, Planck, Bohr ou encore Heisenberg (ça dira quelque chose aux fans de Breaking Bad), cette nouvelle façon de voir les lois de la physique est encore un siècle plus tard un nouveau continent à explorer.

La superposition quantique
Mais alors pourquoi cette obscure science va-t-elle nous aider ?
Car l’un des principaux concepts de la mécanique quantique qui va être utilisé pour ces nouveaux ordinateurs est le concept de superposition quantique.

C’est le moment tant redouté où on va parler de mécanique quantique mais rassurez vous, tout va bien se passer vous êtes prêts ? On y va

Je vous avais promis un chat en début d’article, et bien c’est ici qu’il intervient.
Pour illustrer ce phénomène de superposition quantique rien de mieux que la fameuse expérience du chat de Schrödinger.
J’imagine que nombre d’entre vous connaissent cette expérience (pour ces derniers vous pouvez sauter le paragraphe) mais pour les néophytes je vais l’expliquer succinctement.

Le Chat de Schrödinger
Afin de conceptualiser ce phénomène qui se passe à l’échelle des atomes, Erwin Schrödinger (un des fondateurs de la physique quantique) l’a transposé dans notre monde et a imaginé l’expérience suivante :
il enferme son chat dans une boite close (de toute façon n’importe quel chat aime ça).
Cette boite contient un dispositif mortel : une fiole de poison est cassée dès que la désintégration d’un atome d’un corps radioactif est détectée, tuant au cas échéant le chat. (Ça, les chats aiment moins)
A notre niveau pas la peine de savoir à quoi correspond la désintégration d’un atome. Tout ce qu’il faut comprendre, c’est que cet événement est totalement aléatoire.

De l’extérieur, on ne peut pas savoir ce qui se passe dans la boite.

 Schrödinger-chat

l’expérience du chat de Schrödinger

C’est là où le paradoxe arrive : tant que la boite est fermée, on peut considérer que le chat est mort ET vivant.
Si le chat était un objet quantique (à l’échelle de l’atome) il aurait donc deux « états » superposés.

Vous allez me dire : mais dans ce cas il suffit d’ouvrir la boite, je vous répondrai que c’est précisément au moment où l’on ouvre la boite, que l’on ‘fixe’ le sort du chat, et donc in fine le résultat de l’expérience : le chat est soit mort (snif) soit vivant (ouf il a survécu) c’est ce qu’on appelle la décohérence quantique.

Résumons :
A l’échelle atomique, un atome, une particule peut avoir plusieurs ‘états’ quantiques : c’est le phénomène de Superposition Quantique.
Dès que l’on tente d’observer une superposition : on détruit cette dernière en la figeant dans un état unique : c’est la Décohérence quantique.

C’est bon ? Je ne vous ai pas perdu ? Félicitations ! Vous êtes l’heureux(se) propriétaire de 2 notions de mécanique quantique nécessaires pour comprendre le fonctionnement d’un ordinateur quantique. Reposons notre chat sur son canapé, et reprenons la suite.

Chat Schrödinger

 

Une mutation de l’informatique : le Qubits.

Je vais être clair, l’informatique d’un ordinateur quantique n’a absolument rien à voir avec l’informatique tels que nous la connaissons.

Aujourd’hui n’importe quels codes, images, vidéos, applications sont codés en Bits (binary digits).
C’est une valeur binaire, qui prend pour valeur un 0 ou un 1.
8 bits donnent 1 octets, 1000 octets = 1ko, 1000ko = 1Mo et c’est ainsi qu’en l’espace d’un demi-siècle, le monde entier repose sur des 0 et des 1.

Vous vous rappelez l’état de superposition quantique ? Utilisons cette notion immédiatement avec le … Qubits.

Le Qubits de son petit nom Quantum Bits est la plus petite quantité de stockage des ordinateurs quantiques.
Il peut à l’instar de son cousin prendre la valeur de 0 ou de 1 mais, et c’est là une révolution, il peut prendre la valeur de 0 et 1 en même temps grâce à la superposition quantique !

On comprendra donc que lorsqu’un ordinateur classique contient par exemple 2 bits de mémoire il peut avoir 22 combinaisons soit 4 valeurs possibles distinctes (soit 00 ou 01 ou 11 ou 10).
L’ordinateur quantique à 2Qubits peut, lui, représenter ces quatre valeurs en même temps ! C’est un petit peu comme avoir 4 ordinateurs 2bits côte à côte.

Même si vous ajoutez des bits à votre PC, il ne pourra gérer qu’une valeur à la fois alors que chaque Qubit supplémentaire double la puissance de traitement.

Trois Qubits vous donne 23, qui représente huit états en même temps; quatre Qubits est égal à 24, ce qui donne 16.
Et 64 Qubits? Ils vous donnent 264, ce qui représente la bagatelle de 18 446 744 073 709 600 000 possibilités en même temps ! Cela représente environ un million de téraoctets.

Alors que 64 bits standards peuvent également représenter cet énorme nombre (264 états), il ne peut les représenter qu’un par un. Un PC moderne qui traite en moyenne 2 milliards d’informations par seconde mettrait 400 ans à parcourir toutes ces combinaisons.

On comprend donc beaucoup mieux l’intérêt de cette technologie qui permettrait de résoudre des problèmes jusque là insolubles, même avec le plus grand des supers calculateurs.

Je vous propose de nous arrêter là pour le moment mais sachez que je vous garde pas mal de surprises dans mon prochain article.
Nous nous attacherons à décortiquer plus en avant le ‘hardware’ de ces calculateurs quantiques, nous verrons l’historique des ordinateurs quantiques, nous nous pencherons sur le principal frein qu’est la décohérence quantique (souvenez-vous du chat !), ce que l’on pourra faire avec cette nouvelle forme de calcul (IA,Cryptographie…) ainsi que les divers projets en cours.

Merci de m’avoir lu jusqu’au bout et à la prochaine !

MAJ : 29/03/17 La suite ? c’est par là !