Aller au contenu principal

©2025 Olivia Lopez - HEC Paris. Visuel généré avec Midjourney.

IA : au-delà de la précision, l’équité devient essentielle

Le professeur Christophe Pérignon démontre comment des tests rigoureux permettent de concilier précision prédictive, transparence, conformité et confiance dans l’IA en entreprise.

L’essentiel
  • Élaboration d’outils statistiques pour jauger l’équité, l’interprétabilité, la frugalité et la stabilité des modèles d’IA.
  • Méthodologies pour identifier les biais, en découvrir les causes, et améliorer l’équité sans sacrifier la puissance prédictive.
  • Conformité aux cadres juridiques comme l’Equal Credit Opportunity Act (ECOA) aux États‑Unis et l’AI Act en Europe.

Depuis l’essor fulgurant de l’IA, cette technologie révolutionne les secteurs en permettant à la fois des systèmes de décision sophistiqués à grande échelle et des prévisions d’une précision remarquable. Mais protège‑t‑elle les entreprises contre de possibles discriminations ou usages illégaux ? L’exactitude de l’IA intègre‑t‑elle les enjeux de transparence et de justice ? Favorise‑t‑elle la confiance ? 

Ce sont là quelques-unes des questions que nous explorons depuis quatre ans, avec mes co-auteurs Christophe Hurlin, Sébastien Saurin et Hué Sullivan, en surveillant banques et entreprises dans leur usage quotidien de l’IA. Nos conclusions nourrissent à la fois l’enseignement à HEC et les pratiques des entreprises partenaires.

Voir l’impact… et ses limites

Personne ne doute des progrès extraordinaires que l’IA apporte dans tous les secteurs économiques et commerciaux.

  • Sur les marchés du crédit, ses algorithmes traitent des quantités massives de données pour distinguer les emprunteurs solvables des emprunteurs à haut risque, réduisant les défauts de paiement et augmentant la rentabilité des prêteurs.
  • En audit, elle signale les transactions suspectes et les fraudes nécessitant une revue humaine.
  • Dans l’assurance, des systèmes automatisés de gestion des sinistres accélèrent les remboursements sans recourir à l’expertise coûteuse.
  • Sur les plateformes d’e‑commerce, l’IA ajuste les prix en temps réel et personnalise les suggestions clients pour maximiser les profits des vendeurs.
  • En recrutement, elle permet de trier des milliers de CV, d’identifier les candidats prometteurs et d’aligner leurs compétences avec les postes à pourvoir.
  • En marketing, des modèles prédictifs détectent rapidement les clients susceptibles d’abandonner, donnant le temps de mettre en place des actions préventives pour les retenir.

Tous ces exemples illustrent comment des indicateurs multiples peuvent servir à vérifier si l’IA tient ses promesses. Ces métriques portent souvent sur la performance prédictive — mesurable statistiquement (erreur moyenne) ou en termes financiers (profit‑perte).

Aller au‑delà de la précision : un impératif

Cependant, nos recherches montrent que dans de nombreuses applications, la précision ne suffit pas. Par exemple, lors de l’évaluation automatique de la solvabilité, les modèles de scoring de crédit peuvent désavantager systématiquement des groupes partageant un attribut protégé (genre, âge, origine) quant à l’accès au crédit.

Une des illustrations les plus célèbres : David Heinemeier a révélé que la carte de crédit Apple lui offrait des conditions bien meilleures que celles de sa femme — et ce malgré des revenus et un patrimoine identiques :

« L'@AppleCard est tellement misogyne, » écrivait‑il sur Twitter. « L’algorithme boîte noire d’Apple pense que je mérite 20× la limite de crédit qu’elle a. Aucun recours n’a fonctionné. »

Il est clair que tester l’équité d’une IA est à la fois un impératif sociétal et commercial. Outre l’éthique, cela permet d’éviter un impact réputationnel négatif pour les entreprises dont les usages d’IA s’avèrent discriminatoires — avec toutes les implications légales que cela suppose.

Dans d'autres applications, la dimension supplémentaire que les entreprises doivent prendre en compte est l'interprétabilité du modèle. Les modèles complexes d'apprentissage automatique agissent souvent comme des « boîtes noires », rendant difficile l'explication de leurs décisions. Les dirigeants d'entreprise ont besoin de modèles interprétables, capables de fournir des informations claires et exploitables sur le comment et le pourquoi des décisions. Cette transparence renforce également la confiance entre les parties prenantes et contribue au respect des réglementations.

Une troisième dimension est la frugalité de l'IA : les modèles d'IA performants, capables d'atteindre des performances élevées avec un minimum de ressources de calcul, sont particulièrement attractifs pour les entreprises. Ces modèles réduisent les coûts, améliorent l'évolutivité et minimisent l'impact environnemental, ce qui en fait un choix judicieux pour les entreprises cherchant à concilier innovation et contraintes de ressources. L'exemple de la percée de DeepSeek en janvier en est une illustration frappante.

Enfin, une étude récente menée à HEC, intitulée « Vers un réentraînement stable des modèles d'apprentissage automatique via des séquences à variation lente » (par Vassilis Digalakis de l'université de Boston et ses coauteurs de Harvard et du MIT), souligne l'importance de la stabilité. Les modèles d'IA doivent produire des résultats cohérents, même lorsque de nouvelles données sont disponibles ou que les hyperparamètres sont ajustés. L'instabilité peut entraîner des performances imprévisibles, compromettant ainsi la confiance et l'acceptabilité des systèmes.

Dans les applications médicales, la stabilité est particulièrement cruciale lorsque les médecins s'appuient sur l'IA pour détecter des maladies ou recommander des traitements. Les mécanismes internes du modèle doivent être à la fois compréhensibles et stables pour garantir leur fiabilité. À défaut, les professionnels de santé seront réticents à intégrer les informations générées par l'IA à leurs décisions cliniques.

Viser un modèle d’IA équitable

Mon équipe et moi-même avons fait de la recherche d'outils nécessaires pour surveiller ces dimensions supplémentaires pour les entreprises, une priorité de recherche actuelle. Pour ce faire, nous développons des tests statistiques permettant d'évaluer le score d'un modèle particulier sur une ou plusieurs de ces dimensions. Nous concevons également des outils d'IA qui affichent nativement les propriétés requises par l'entreprise pour mettre en œuvre des plateformes répondant à des questions telles que l'équité et la transparence.

Dans un article récent, "The Fairness of Credit Scoring Models," publié en 2024 dans Management Science, nous répondons aux trois questions suivantes : comment savoir si un modèle de notation de crédit est injuste envers des groupes d'individus que la société souhaite protéger ? Si le modèle s'avère injuste, comment en identifier les causes ?

Enfin, comment pouvons-nous améliorer l'équité de ce modèle tout en maintenant un niveau élevé de performance prédictive ? Un autre aspect non négligeable de notre travail consiste à proposer une méthodologie qui s'intègre harmonieusement au cadre juridique actuel garantissant l'équité des prêts des deux côtés de l'Atlantique. Cela inclut l'Equal Credit Opportunity Act (ECOA) aux États-Unis et l'AI Act en Europe.

Nous avons développé des tests statistiques pour évaluer le score d'un modèle d'IA en particulier en matière d'équité, d'interprétabilité, de frugalité ou de stabilité.
Christophe Pérignon

Dans un autre article, “Measuring the Driving Forces of Predictive Performance: Application to Credit Scoring” (janvier 2025), nous montrons comment déceler les moteurs de performance derrière n’importe quel modèle de machine learning à "boîte noire". Ceci est crucial pour les superviseurs bancaires : comprendre pourquoi un modèle fonctionne — ou non — et pour quels profils d’emprunteurs. Nous avons appliqué avec succès notre méthodologie à un jeu de données inédit de prêts automobiles fourni par une banque internationale, démontrant l’utilité concrète de la méthode.

Du laboratoire à la salle de classe… jusqu’aux grandes entreprises

La recherche consiste à repousser les frontières de la connaissance. Cette production scientifique permet à HEC d’enrichir ses formations de contenus originaux et à la pointe. Depuis plus de quatre ans, j’enseigne un cours intitulé Fairness and Interpretability dans le Mastère Data Science & AI for Business.

Ce programme conjoint entre HEC Paris et l’École Polytechnique intègre nombre d’outils et de conclusions issus de nos recherches. Ce cours techniquement exigeant initie les étudiants aux dernières techniques en matière d’équité et d’interprétabilité. Il combine méthodes de recherche avancées et focalisation entreprise — ce qui est rare parmi les programmes typiques des écoles de commerce. Et cela correspond pleinement à l’ADN « Think, Teach, Act » d’HEC.

Plusieurs des outils statistiques que nous avons développés pour tester l’équité des modèles d’IA sont déjà utilisés par de grandes banques françaises. Ils permettent à ces institutions de se conformer au AI Act européen entré en vigueur le 1ᵉʳ août 2024.

Ce partenariat académie‑industrie dépasse la simple preuve de concept : certaines de nos méthodes sont désormais employées dans des environnements de production à grande échelle par les banques. Mais c’est bien plus qu’une application : les experts bancaires challengent les chercheurs, donnent des retours, des idées et l’accès à des données réelles.

Ces échanges sont ensuite transmis à nos étudiants, créant un triangle vertueux. Nous jouissons ainsi d’une collaboration gagnant‑gagnant qui ne cesse de se renforcer.

Une traduction assistée par LLM.

Sources

The Fairness of Credit Scoring Models, Christophe Pérignon (HEC Paris), Christophe Hurlin et Sébastien Saurin (Université d’Orléans), publié dans Management Science en novembre 2024 Measuring the Driving Forces of Predictive Performance: Application to Credit Scoring, de Hué Sullivan, Hurlin Christophe, Pérignon Christophe, Saurin Sébastien, publié sur ArXiv en janvier 2025.

Ces publications s’inscrivent dans un programme de recherche consacré à l’identification et à la prise en compte de l’équité, de l’interprétabilité, de la frugalité et de la stabilité des modèles d’intelligence artificielle.

profil Perignon
L’auteur
Prof. Christophe Pérignon
Professeur, Doyen associé à la recherche - Finance

Christophe Pérignon est doyen associé à la recherche et professeur de finance à HEC Paris. Il est également membre du comité exécutif du Centre Hi! PARIS et co-titulaire de la Chaire ACPR (Banque de France) en Régulation et Risque Systémique. Ses domaines de recherche et d’enseignement portent sur...

Envie d’aller plus loin en IA ?

Trouvez le programme conçu pour vous.

Dare, la newsletter

Chaque mois, les sujets qui comptent et les personnes qui osent.