En tirant les dépenses vers le haut, le crédit est l'un des moteurs les plus importants de l'économie - une grande partie de ce que les gens considèrent comme de l'argent est, en fait, du crédit...
Notations de crédit et anges déchus
En tirant les dépenses vers le haut, le crédit est l'un des principaux moteurs de l'économie - une grande partie de ce que les gens considèrent comme de l'argent est, en fait, du crédit. Par exemple, environ 50 000 milliards de dollars de l'économie américaine sont des crédits, ce qui éclipse les 3 000 milliards de dollars d'argent réel. Le bon fonctionnement de l'économie dépend donc de la capacité des prêteurs à évaluer avec précision la capacité de remboursement des emprunteurs. N'oublions pas que la crise financière de 2008 a été en partie provoquée par une augmentation du nombre d'emprunteurs incapables de rembourser leurs prêts.
Il existe des normes sectorielles pour évaluer le risque de prêt à une entité spécifique, qu'il s'agisse d'un gouvernement ou d'une entreprise. Les emprunteurs sont classés par des agences de notation telles que Standard & Poor's, Moody's ou Fitch sur la base d'un large éventail de données - états financiers, analyses sectorielles, etc. Leur solvabilité est exprimée à l'aide d'un système de lettres allant de "AAA", la note la plus sûre, à "D", la note la plus probable.
Les notations de crédit ne sont pas statiques. À tout moment, la situation financière d'un emprunteur "AAA" peut se détériorer et entraîner un déclassement. Dans certains cas, un emprunteur peut passer de la catégorie "investissement" (BBB- ou plus sûr) à la catégorie "haut rendement" (BB+ ou plus risqué). Les emprunteurs confrontés à cette situation difficile sont connus dans le secteur financier sous le nom d'"anges déchus".
Prévoir la probabilité d'une chute d'ange peut s'avérer vital pour les détenteurs de créances. L'incapacité à prévoir de tels événements coûte aux prêteurs plusieurs milliards par an en opportunités de revenus manqués. Disposer d'un système d'alerte précoce fiable pourrait guider la mise en œuvre de mesures proactives pour gérer les changements induits par les anges déchus dans le profil risque/rendement de leurs portefeuilles.
Mais c'est plus facile à dire qu'à faire. La prédiction des anges déchus est un problème informatique complexe qui nécessite des approches radicalement nouvelles. C'est pourquoi nous avons joint nos forces à celles de la banque de financement et d'investissement du groupe Crédit Agricole (CACIB) et à celles de Multiverse Computing pour explorer comment les techniques quantiques peuvent contribuer à faire avancer ce problème critique.
Modèle de forêt aléatoire de CACIB
Aujourd'hui, CACIB répond à cette question en utilisant un modèle d'apprentissage automatique de pointe. Ce modèle a été entraîné sur un ensemble complet de données collectées par CACIB pendant plus de 20 ans, de 2001 à 2020. L'ensemble de données contient des informations sur 2300 entreprises issues de 10 domaines industriels différents et de 70 pays. Il comprend un total de 91 000 instances, l'un des plus grands ensembles de données jamais examinés, caractérisé par 153 caractéristiques, et chaque enregistrement est étiqueté selon qu'il s'agit d'un ange déchu ou non.
CACIB s'appuie sur une technique populaire d'apprentissage automatique connue sous le nom de "forêt aléatoire". Les forêts aléatoires reposent sur des classificateurs appelés "arbres de décision". Ces fonctions prennent en compte les caractéristiques d'une entreprise et décident s'il s'agit d'un ange déchu. Par exemple, vous pouvez introduire le passif de l'entreprise, son pays d'origine, son secteur d'activité, etc. et l'arbre vous dira s'il s'agit d'un ange déchu. Une forêt aléatoire combine les résultats de plusieurs arbres de décision pour établir une prédiction consensuelle. Les forêts aléatoires sont un exemple de méthode d'ensemble, dans laquelle les connaissances tirées de divers classificateurs sont combinées pour améliorer le pouvoir prédictif.
Le modèle de forêt aléatoire de CACIB affiche une sensibilité de 83% et une précision de 28% en production. Il est clair qu'il y a de la place pour l'amélioration ! On pourrait simplement augmenter le nombre de variables ou la taille de l'ensemble de données, mais le modèle s'adapte mal et nécessite une quantité démesurée de ressources informatiques. Les capacités quantiques pourraient-elles aider ?
Prédiction améliorée avec des processeurs quantiques à atomes neutres
Nous présentons un nouveau type de méthode d'ensemble pour classer les anges déchus. Comme nous l'avons mentionné plus haut, ces méthodes impliquent de parvenir à un consensus entre les prédictions des différents classificateurs. La question clé est la suivante : devons-nous prendre chaque prédiction au sérieux de la même manière ou attribuer des poids différents à chaque classificateur ? Il s'avère que cette dernière approche est la bonne. L'apprentissage des différents classificateurs est une tâche que les ordinateurs classiques peuvent gérer efficacement. Cependant, la recherche des poids optimaux est extrêmement compliquée pour eux.
C'est là que les processeurs quantiques de PASQAL sont utiles.
Nos processeurs présentent une évolutivité sans précédent et sont capables de générer des états intriqués complexes. Ces caractéristiques confèrent à nos machines la capacité de traiter efficacement des problèmes d'optimisation complexes. Dans le cas présent, il s'agit de trouver les poids qui maximisent les capacités prédictives du modèle dans un délai raisonnable. Dans un article récent, nous avons présenté un algorithme propriétaire connu sous le nom de Random Graph Sampling, conçu pour réaliser cet exploit.

Nous avons testé notre méthode dans le cadre d'un flux de travail de bout en bout - de l'entraînement à la prédiction - en utilisant du matériel quantique réel provenant de PASQAL. Nous avons égalé les performances de la méthode d'apprentissage automatique hautement optimisée de CACIB en utilisant 96 % de classificateurs en moins. Une forêt beaucoup plus petite, en quelque sorte. Il est intéressant de noter que nous avons obtenu ce résultat avec seulement 50 qubits.
C'est la première fois qu'un flux de travail alimenté par l'énergie quantique, à la pointe de l'approche classique, y parvient. Au fur et à mesure que nous augmentons le nombre de qubits et que nous accélérons la vitesse d'opération de nos processeurs quantiques, nous nous attendons à des améliorations radicales. En effet, en nous appuyant sur le logiciel Multiverse, nous avons simulé la manière dont cette approche pourrait s'adapter à nos prochains processeurs quantiques. Nous prévoyons d'être en mesure de battre régulièrement la référence classique d'ici 2024, ce qui rendra l'approche prête pour la production.

Perspectives
Le secteur financier a toujours été l'un des premiers à adopter de nouvelles techniques informatiques, depuis la comptabilité en partie double à la Renaissance jusqu'au commerce quantitatif. Cette collaboration montre que l'informatique quantique ne sera pas une exception.
Publication originale
Vous pouvez lire ici notre publication originale sur Arxiv