2025.03 Blog Décryptage des recherches récentes de Pasqal
Accueil - Avantage quantique - Décryptage de Pasqal recherche récente sur la résolution de problèmes d'optimisation

Décryptage de Pasqal recherche récente sur la résolution de problèmes d'optimisation

Auteurs : Constantin Dalyac, Loïc Henriet et Christophe Jurczak

La question de savoir quand les ordinateurs quantiques deviendront suffisamment puissants pour que les entreprises commencent à explorer leur utilisation en production est l'un des sujets les plus débattus dans ce domaine. La communauté des ordinateurs quantiques a élaboré des concepts tels que la suprématie quantique, l'avantage quantique et l'utilité quantique, ainsi que des mesures telles que le volume quantique, le Q-score et bien d'autres pour mesurer les progrès accomplis. En outre, la théorie de la complexité a été appelée à fournir des garanties de performance. Toutefois, ce qui compte en fin de compte, c'est l'étalonnage systématique par rapport aux meilleures solutions utilisées en production pour des problèmes réels d'intérêt, qu'ils soient scientifiques, industriels ou commerciaux.

Chez Pasqal , nous pensons que cela est crucial pour guider la recherche, suivre les progrès et faire avancer notre compréhension des algorithmes quantiques. Nous avons constitué des équipes pluridisciplinaires (sciences quantiques, informatique, physique de la matière condensée, recherche opérationnelle, IA ...) pour aborder trois classes principales d'applications : l'optimisation, la simulation et l'apprentissage automatique. Pour chaque classe, nous développons une recherche théorique originale avec nos partenaires académiques et industriels, couplée à l'émulation et à la recherche empirique en utilisant nos propres unités de traitement quantique (QPU). Cette approche nous permet de combler le fossé entre l'informatique quantique et les problèmes du domaine d'une manière globale, permettant une utilisation optimale des ressources quantiques d'une part et une compréhension approfondie de la performance des algorithmes et de la pertinence du domaine d'autre part. Ce faisant, nous nous assurons que nos recherches ne repoussent pas seulement les limites de l'informatique quantique, mais qu'elles se traduisent également par des avancées significatives dans les applications du monde réel.

Créer des repères significatifs

Un aspect essentiel consiste à élaborer des problèmes de référence classiquement difficiles avant de les comparer sur des QPU. En effet, l'un des problèmes majeurs est que les comparaisons passées (en particulier dans le domaine de l'optimisation) sont souvent basées sur des instances de problèmes trop simples, ce qui conduit à des affirmations trompeuses en matière d'augmentation de la vitesse. De même que l'évaluation des compétences d'un chef cuisinier est plus significative lorsqu'il prépare un plat complexe comme le "bœuf bourguignon" que lorsqu'il fait simplement bouillir un œuf, nous avons besoin d'exemples de problèmes plus difficiles pour évaluer réellement les capacités de l'informatique quantique. De cette manière, nous nous assurons de ne pas être limités aux fruits les plus faciles à cueillir et aux preuves de concepts qui ne peuvent pas être généralisés.

Cet article est le premier d'une série de trois, portant sur l'optimisation combinatoire exécutée sur notre plateforme d'atomes neutres en mode analogique. Il vise à répondre à trois questions légitimes:

  • Les ordinateurs quantiques d'aujourd'hui sont-ils plus rapides ou plus lents que les solveurs classiques dans toutes les instances testées pour un niveau de précision équivalent ?
  • Sur la base de ces résultats, pouvons-nous extrapoler la taille du problème à partir de laquelle les ordinateurs quantiques pourraient surpasser les solveurs classiques en termes de temps de marche pour atteindre une précision équivalente ?
  • Outre le nombre d'atomes, quels sont les principaux paramètres de performance du matériel qui doivent être améliorés pour atteindre ce niveau de performance ?

Notre méthodologie et nos conclusions

Pour répondre à ces questions, nous nous appuyons sur la théorie de la complexité pour concevoir des instances plus difficiles d'un problème bien connu de la théorie des graphes et de l'optimisation combinatoire, le problème de l'ensemble indépendant maximal (MIS) sur les graphes à disque unitaire. Ce problème consiste à trouver le plus grand ensemble de points qui sont tous séparés par une distance minimale - un défi qui apparaît dans de nombreuses applications du monde réel telles que la conception de réseaux sans fil et l'analyse de la structure moléculaire. Nous avons testé ces problèmes sur notre processeur quantique Orion Alpha en utilisant 100 qubits et en recueillant 100 000 points de données expérimentales. Cela garantit une évaluation significative des capacités de notre matériel quantique.

Les graphes plus denses et plus grands sont plus difficiles à résoudre de manière classique. Les capacités actuelles du QPU (ligne pointillée) sont limitées aux graphes relativement petits et de faible densité. Les progrès futurs du QPU (ligne pointillée) devraient permettre de repousser les limites et de résoudre des problèmes plus grands et plus denses qui sont beaucoup plus difficiles à résoudre.

La comparaison de ces résultats avec les solveurs classiques de pointe utilisés régulièrement par nos clients industriels (EDF, Thales, CMA CGM, RTE, BMW) fournit des indications précieuses sur les facteurs clés qui limitent les performances quantiques actuelles et les défis techniques qui doivent être relevés.

  1. Le taux de répétition est essentiel: alors que la préparation de l'état quantique se produit à l'échelle du MHz, les goulets d'étranglement dans le temps de chargement, l'arrangement spatial et l'imagerie réduisent actuellement le taux d'horloge effectif à quelques Hz seulement. À Pasqal , nous avons la possibilité d'améliorer le chargement des réservoirs d'atomes, les algorithmes d'assemblage et les techniques d'imagerie rapide afin d'atteindre une fréquence de l'ordre du kHz.
  2. Il est essentiel de passer à des milliers d'atomes: les instances de problèmes plus importantes exposeront à des temps d'exécution classiques prohibitifs. Nous avons piégé expérimentalement plus de 1100 atomes et jusqu'à 6100 réseaux d'atomes ont été démontrés dans des laboratoires universitaires, avec une voie claire pour l'extensibilité.

Ces défis sont des problèmes d'ingénierie avec des solutions claires et les équipes de Pasqal les abordent déjà pour améliorer la prochaine génération de produits.

La voie à suivre

Bien que l'avantage quantique des MIS sur les systèmes à atomes neutres n'ait pas encore été atteint pour les graphes de grande taille et suffisamment denses d'intérêt industriel, la feuille de route est de plus en plus claire. Grâce aux améliorations continues de l'extensibilité du matériel, de la programmabilité des interactions et de l'efficacité expérimentale, les processeurs quantiques à atomes neutres seront bientôt en mesure de concurrencer plus efficacement les approches classiques pour une classe bien définie de problèmes combinatoires complexes. Nous pensons que cette recherche permettra à la communauté de l'informatique quantique de se concentrer sur l'évaluation comparative d'instances de problèmes plus difficiles, ce qui permettra de progresser davantage vers l'obtention d'un avantage quantique pratique. Dans les travaux à venir, nous présenterons d'autres points de référence dans différentes applications, où l'avantage quantique semble encore plus prometteur.

Programmation transparente du problème MIS sur la QPU de Pasqal à l'aide de Pulser Studio, une plateforme intuitive sans code.

Cette recherche est le résultat d'un effort combiné de nos équipes chargées du matériel, des logiciels et de l'analyse comparative.

Nous remercions nos partenaires et collaborateurs qui partagent notre vision de faire de l'informatique quantique une réalité.