
Qu’est-ce qui rend l’apprentissage automatique quantique « quantique » ?
J’ai commencé l’informatique il y a 7 ans, juste après mon master. A cette époque, le milieu était plein d’enthousiasme mais aussi de scepticisme. Aujourd’hui, l’informatique quantique s’impose comme une technologie émergente, aux côtés du HPC et de l’IA.
L’attention s’est déplacée de la recherche et des discussions uniquement liées au matériel vers les applications, les logiciels et les algorithmes. Quantum est réellement un outil qui peut être utilisé dans différentes disciplines plutôt que dans un domaine isolé. L’apprentissage automatique quantique est l’une des utilisations prometteuses, mais encore mal comprises, des ordinateurs quantiques.
L’apprentissage automatique quantique (QML) est devenu un terme fourre-tout ces dernières années. L’une des premières et des plus significatives apparitions de QML a eu lieu en 2013, lorsque Google et la NASA ont créé le Quantum Artificial Intelligence Lab, chargé d’explorer comment les ordinateurs quantiques pourraient être utilisés dans des applications d’apprentissage automatique. Depuis lors, le terme QML est apparu dans des documents de recherche, des présentations de startups et des conférences, souvent avec des significations très différentes.
Dans certains cas, il s’agit de l’utilisation d’ordinateurs quantiques pour accélérer l’apprentissage automatique. Dans d’autres, il décrit des algorithmes classiques inspirés de la physique quantique. Et parfois, cela signifie simplement exécuter un workflow ML familier sur du matériel inconnu.
Donc même moi, quelqu’un qui travaille et fait des recherches sur les ordinateurs quantiques, était très confus au début… Je parie que la première question de beaucoup de gens lorsqu’ils entendent « apprentissage automatique quantique » est de savoir ce qui fait exactement l’apprentissage automatique quantique. quantum?
Répondre à cette question est la raison pour laquelle j’ai décidé d’écrire cet article ! La réponse courte n’est pas la vitesse, ni les réseaux de neurones, ni de vagues références à un « avantage quantique ». À la base, l’apprentissage automatique quantique est défini par la manière dont les informations sont représentées, transformées et lues. En QML, cela se fait en utilisant les règles de la mécanique quantique plutôt que le calcul classique.
Cet article vise à clarifier cette distinction, à séparer la substance du battage médiatique et à fournir une base conceptuelle claire pour le reste de cette série. J’ai l’intention d’écrire sur l’exploration de l’histoire de QML, ainsi que sur certains de ses résultats de recherche et applications à court terme.
L’apprentissage automatique avant le « quantique »
Avant d’aborder le sujet quantique, prenons un peu de recul. Dépouillé de ses pièges modernes, l’apprentissage automatique consiste à apprendre une cartographie des entrées aux sorties à l’aide de données. Que le modèle soit un régresseur linéaire, une méthode à noyau ou un réseau de neurones profonds, la structure est plus ou moins la même :
- Les données sont représentées numériquement (vecteurs, matrices, tenseurs).
- Un modèle paramétré transforme ces données.
- Les paramètres sont ajustés en optimisant une fonction de coût.
- Le modèle est évalué statistiquement sur de nouveaux échantillons.
Les réseaux de neurones, les GPU et les ensembles de données massifs sont des choix de mise en œuvre et ne définissent pas des fonctionnalités. Cette abstraction est importante car elle permet de poser une question précise :
Qu’est-ce qui change lorsque le les données et le modèle vivent dans un espace quantique?
La mécanique quantique entre en scène
L’apprentissage automatique quantique devient quantique lorsque l’information quantique constitue le substrat informatique. Cela se manifeste de trois manières.
1. Les données sont représentées sous forme d’états quantiques.
Dans les modèles classiques d’apprentissage automatique, les données sont représentées sous forme de bits ou de nombres à virgule flottante. En revanche, l’apprentissage automatique quantique utilise des états quantiques, qui sont des vecteurs complexes qui suivent les règles de la mécanique quantique. Ces états sont souvent décrits par des matrices de densité et leurs transformations sont représentées par des matrices unitaires.
En conséquence, nous codons les informations sous forme d’amplitudes à valeurs complexes plutôt que de probabilités, et les états peuvent exister en superposition.
Cela fait pas signifie que toutes les données classiques deviennent soudainement compressées de manière exponentielle ou facilement accessibles. Le chargement de données dans des états quantiques est souvent coûteux, et l’extraction d’informations à partir de celles-ci est fondamentalement limitée par la mesure.
Le point important est donc que le modèle fonctionne sur des états quantiques et non sur des nombres classiques.
2. Les modèles sont des évolutions quantiques
Les modèles ML classiques appliquent des fonctions aux données. Les modèles Quantum ML appliquent des opérations quantiques (généralement des transformations unitaires) sur des canaux quantiques. En pratique, de nombreux modèles QML sont construits à partir de circuits quantiques paramétrés. Ces circuits sont des séquences de portes quantiques, qui sont des opérations de base permettant de modifier les états quantiques. Les paramètres de ces portes quantiques sont ajustés pendant l’entraînement, de la même manière que l’ajustement des poids dans un réseau neuronal dans l’apprentissage automatique classique.
Fondamentalement, ce qui se passe dans ces modèles, c’est que nous commençons par l’état du système, représenté dans une matrice (nous l’appellerons un hamiltonien, juste pour être précis), puis les portes que nous appliquons au système nous diront comment ce système évolue (change) pendant une certaine période de temps. Cette évolution dicte le comportement du modèle.
En conséquence, les modèles quantiques explorent un espace d’hypothèses structurellement différent de celui des modèles classiques, même lorsque la boucle d’entraînement semble similaire en surface.
3. La mesure fait partie du processus d’apprentissage
En ML classique, la lecture de la sortie d’un modèle est triviale et n’affecte en aucun cas l’état ou le comportement du modèle (sauf si nous le faisons intentionnellement). Dans le ML quantique, cependant, la mesure est probabiliste et destructrice de l’État. Cela a un effet significatif sur le système. Les sorties sont déterminées par des exécutions répétées de circuits, appelées « coups ». Ici, « tirs » signifie exécuter le même circuit quantique plusieurs fois pour estimer un résultat, puisque les mesures quantiques sont probabilistes.
Les gradients (qui guident la mise à jour des paramètres pendant l’entraînement) sont estimés statistiquement à partir de ces mesures plutôt que calculés exactement comme dans l’apprentissage automatique classique. En conséquence, le coût de la formation est souvent dominé par le bruit d’échantillonnage de ces mesures répétées, plutôt que par le calcul seul.
En d’autres termes, l’incertitude est intégrée au modèle lui-même. Toute discussion sérieuse sur QML doit tenir compte du fait que l’apprentissage se produit à travers mesure, pas après.
Qu’est-ce que Pas Créer du QML Quantique
L’informatique quantique et QML, en particulier, génèrent du battage médiatique et des malentendus. De nombreuses choses appelées aujourd’hui « apprentissage automatique quantique » n’ont quantique que le nom, par exemple :
- Les algorithmes de ML classiques s’exécutent sur du matériel quantique sans utiliser de manière significative les états quantiques.
- Des méthodes « d’inspiration quantique » tout à fait classiques.
- Pipelines hybrides où le composant quantique peut être supprimé sans modifier le comportement ou les performances du modèle.
Si jamais vous rencontrez quelqu’un qui parle de QML et que vous n’êtes pas sûr du caractère quantique du modèle dont il parle, une bonne règle à suivre est de demander :
« Puis-je remplacer la partie quantique par une partie classique sans altérer la structure mathématique du modèle ?
Si oui ou peut-être, l’approche n’est probablement pas fondamentalement quantique. Ce travail est peut-être encore utile, mais il ne relève pas du cœur de l’apprentissage automatique quantique.
Où est QML aujourd’hui ?
Lorsque vous parlez d’informatique quantique, n’oubliez pas que le matériel actuel est bruyant, petit et limité en ressources. À cause de ça:
- Il n’existe aujourd’hui aucun avantage quantique général et prouvé pour les tâches d’apprentissage automatique.
- De nombreux modèles QML ressemblent davantage aux méthodes du noyau qu’aux réseaux profonds.
- Le chargement des données et le bruit dominent souvent les performances.
Il ne s’agit pas d’un échec sur le terrain ; c’est là où en est actuellement l’informatique quantique. La plupart des recherches QML sont désormais exploratoires : cartographier les classes de modèles, comprendre la théorie de l’apprentissage quantique et identifier les domaines où la structure quantique pourrait être importante.
Pourquoi l’apprentissage automatique quantique vaut toujours la peine d’être étudié
Si des accélérations à court terme sont peu probables, pourquoi poursuivre QML ?
QML nous oblige à repenser les questions fondamentales concernant l’apprentissage automatique et l’informatique quantique. Nous devons répondre à ce que signifie apprendre des données quantiques, comment le bruit affecte l’optimisation et quelles classes de modèles existent dans les systèmes quantiques mais pas dans les systèmes classiques.
L’apprentissage automatique quantique consiste moins à surpasser le ML classique aujourd’hui qu’à élargir l’espace de ce que « apprendre » peut signifier dans un monde quantique.
C’est important car les progrès scientifiques et technologiques commencent par de nouvelles approches. Même si le matériel n’est pas encore prêt, l’exploration de QML nous prépare à un meilleur matériel à l’avenir.
Réflexions finales et ce qui vient ensuite
Les progrès de l’informatique quantique s’accélèrent. Les fabricants de matériel informatique se précipitent pour construire un ordinateur quantique tolérant aux pannes. Un ordinateur quantique qui utilise toute la puissance de la mécanique quantique. Les éditeurs de logiciels et d’applications explorent les problèmes que l’informatique quantique peut résoudre de manière significative.
Cela dit, les ordinateurs quantiques d’aujourd’hui sont incapables d’exécuter une application quasiment grandeur nature, sans parler d’un modèle d’apprentissage automatique complexe. Néanmoins, la promesse de l’efficacité de l’informatique quantique dans l’apprentissage automatique est très intéressante et mérite d’être explorée dès maintenant, parallèlement aux progrès du matériel.
Dans cet article, je me suis concentré sur les définitions et les limites de l’apprentissage automatique quantique pour ouvrir la voie à de futurs articles qui exploreront :
- Comment les données classiques sont intégrées dans les états quantiques.
- Modèles quantiques variationnels et leurs limites.
- Noyaux quantiques et espaces de fonctionnalités.
- Défis d’optimisation dans les systèmes quantiques bruyants.
- Où un avantage quantique pourrait vraisemblablement émerger.
Avant de nous demander si l’apprentissage automatique quantique est utile, nous devons être clairs sur ce qu’il est réellement. Plus nous nous éloignons du battage médiatique, plus nous pouvons nous rapprocher du progrès.



