- Les individus manifestent une forte confiance envers l’IA, malgré ses imperfections – un biais baptisé « appréciation de l’algorithme ».
- Trop de transparence nuit à la confiance : des données de performance trop complexes réduisent l’adhésion à l’IA.
- Si l’IA peut accompagner les décisions critiques, la surconfiance fait peser des risques éthiques.
- La modération est essentielle : fournir une information claire et ciblée favorise l’adoption sans surcharge cognitive.
Feriez-vous confiance à un algorithme, même en sachant qu’il se trompe ? À la surprise générale, la plupart des gens répondent oui. Dans une série d’expériences comportementales, nous avons découvert que les individus suivent plus volontiers les conseils d’une IA que ceux d’un humain — même lorsque ces conseils sont identiques, et même lorsque les imperfections de l’IA sont connues.
Ce phénomène, appelé « algorithm appreciation », soulève de profondes questions pour la société. De la consommation courante aux diagnostics médicaux, en passant par les décisions de justice, cette confiance accordée aux algorithmes pose la question des dérives possibles : dépendance excessive, surcharge informationnelle, ou encore responsabilités en cas d’erreur.
Les algorithmes orientent nos décisions, du quotidien aux enjeux vitaux
80 % des choix de visionnage sur Netflix et plus d’un tiers des achats sur Amazon sont influencés par des algorithmes. Ces outils guident désormais une grande partie de nos décisions quotidiennes.
Mais leur influence ne s’arrête pas là. Dans les sphères professionnelles, médicales ou judiciaires, les algorithmes sont de plus en plus intégrés dans les processus décisionnels. Des études récentes montrent que les décideurs les suivent pour prendre des décisions d’investissement, poser des diagnostics médicaux ou même accorder des libérations conditionnelles.
Pourquoi fait-on plus confiance aux machines qu’aux humains ?
Face à l’incertitude, nous avons tendance à chercher des conseils. Et lorsqu’ils viennent d’une IA, notre confiance est souvent plus forte. C’est ce que nous avons démontré à travers une série d’expériences : les participants suivaient davantage les recommandations de l’algorithme que celles formulées par un conseiller humain – à contenu égal.
Nous appelons ce biais « appréciation de l’algorithme », traduisant une confiance quasi-automatique envers les systèmes d’IA, même en l’absence d’avantages évidents par rapport à l’humain.
Quand trop de transparence tue la confiance
Nous avons voulu aller plus loin : les participants font-ils confiance à l’IA même en connaissant ses failles ? Résultat surprenant : oui. Informés des erreurs de prédiction de l’algorithme, les participants lui accordaient toujours plus de crédit qu’à un humain.
Mais ce constat a une limite. Lorsque les informations sur l’algorithme deviennent trop détaillées ou complexes, la confiance s’érode. Nous attribuons cela à une surcharge cognitive : trop d’informations techniques sur la performance de l’IA entrave la compréhension et décourage l’utilisateur.
En revanche, une transparence bien dosée – ciblée, accessible – favorise l’adhésion.
Il existait une exception à cette règle. Nous avons constaté que lorsque la transparence sur les performances prédictives de l'IA devenait très complexe, l'appréciation des algorithmes diminuait. Nous pensons que cela est dû au fait que fournir trop d'informations sur l'algorithme et ses performances peut conduire à une surcharge d'informations (charge cognitive). Cela freine l'acceptation des conseils. En effet, les gens peuvent ignorer les prédictions lorsqu'on leur présente trop d'informations sur les détails sous-jacents et qu'ils sont incapables ou peu disposés à les assimiler. Cependant, si nous ne submergeons pas les gens d'informations sur l'IA, ils seront plus susceptibles de s'y fier.
Le danger d’une surconfiance dans l’automatisation
Si les algorithmes prennent souvent de meilleures décisions que les humains, faut-il leur faire entièrement confiance ?
Pas forcément. L’étude souligne les risques éthiques liés à une surconfiance. Dans le cas d’une erreur bénigne – par exemple un film décevant recommandé par Netflix – les conséquences sont minimes. Mais dans d’autres cas, les enjeux sont bien plus graves.
Rappelons le scandale de la Poste britannique, où plus de 700 employés ont été condamnés à tort pour vol ou fraude entre 2000 et 2014, en raison d’un bug informatique.
IA et décisions médicales ou judiciaires : promesses et limites
Dans le domaine de la santé, l’IA peut offrir une aide précieuse. Par exemple, elle peut estimer la probabilité qu’un patient ait un cancer, en croisant des données médicales. Un professionnel de santé peut ainsi affiner son diagnostic et éviter qu’un risque élevé ne passe inaperçu – avec, potentiellement, un traitement plus adapté et une issue plus favorable.
Dans le secteur judiciaire, des algorithmes peuvent aider à estimer les risques de récidive d’un individu. Ces prédictions pourraient alors orienter la durée des peines ou les décisions de libération.
Methodologie
Nous avons mené cinq expériences comportementales contrôlées, en recrutant plus de 400 participants à chaque fois via la plateforme Amazon Mechanical Turk. Les participants devaient estimer le score de mathématiques d’un élève à partir de neuf données, avant et après avoir reçu une recommandation algorithmique.
Applications
Dans les entreprises, les collaborateurs sont enclins à faire confiance aux algorithmes pour prendre des décisions d’investissement. À condition que les données soient fiables et les modèles bien conçus, cette approche peut générer des économies substantielles pour les organisations.
Traduction assistée par LLM.
Sources
Cet article s’appuie sur un entretien avec les professeurs de systèmes d’information de HEC Paris Cathy Liu Yang et Xitong Li, au sujet de leur article scientifique "Algorithmic versus Human Advice: Does Presenting Prediction Performance Matter for Algorithm Appreciation", co-écrit avec Sangseok You, professeur assistant à Sungkyunkwan University (Corée du Sud). L’article a été publié dans le Journal of Management Information Systems en 2022. Cette recherche a été soutenue par le programme Hi! PARIS Fellowship et le financement de l’Agence Nationale de la Recherche (ANR) : Investissements d'Avenir LabEx Ecodec (ANR-11-Labx-0047).