- Le déploiement non régulé de l’IA engendre inefficacité, biais et perturbations du travail.
- Le droit de la responsabilité ne protège pas encore les victimes de dommages causés par l’IA.
- La publicité fondée sur les données d’IA soulève de graves enjeux de consentement.
- Les start-up pourraient devenir pionnières de l’éthique de l’IA malgré des moyens limités.
- Les biais de genre dans la formation au code menacent une IA équitable.
L’éthique de l’intelligence artificielle n’est pas qu’un défi technique : c’est un impératif pour nos sociétés. À mesure que l’IA progresse à un rythme vertigineux, les enjeux d’équité, de responsabilité et de gouvernance s’intensifient. Or, les lois demeurent floues et les stratégies d’entreprise restent souvent réactives plutôt que fondées sur des principes.
Lors des tables rondes du Centre Hi! PARIS sur l’IA, l’éthique et la régulation, les Professeurs HEC Paris et leurs collègues interdisciplinaires redéfinissent ce que signifie « faire de l’éthique » en matière d’IA. Leurs travaux portent sur la responsabilité juridique, le travail, la publicité, le pouvoir des plateformes et les inégalités systémiques au cœur du développement de l’IA : autant de pistes pour penser l’éthique non comme une contrainte de conformité, mais comme un socle de confiance et d’inclusion.
Quels risques pose l’adoption non régulée de l'IA ?
David Restrepo Amariles : Pour bâtir des politiques d’IA dignes de confiance, les entreprises doivent relever trois défis :
- Comprendre l’évolution rapide de l’IA ;
- Maîtriser les déploiements prématurés ;
- S’adapter aux nouvelles dynamiques du travail.
Pour ce faire, les entreprises doivent mieux anticiper la rapidité des progrès technologiques en matière d’IA afin d’aligner leurs stratégies, un facteur essentiel de compétitivité. Elles devraient également veiller à ce que les solutions d’IA soient rigoureusement testées et perfectionnées avant leur déploiement, plutôt que de lancer des outils encore immatures susceptibles de générer des inefficacités opérationnelles.
Enfin, le passage du développement interne à l’intégration de prestataires externes spécialisés dans l’IA exige de nouvelles compétences et de nouveaux cadres de gouvernance.
David Restrepo Amariles est Professeur associé en intelligence artificielle et droit à HEC Paris, Fellow au Centre Hi! PARIS, et membre de l’Académie royale des sciences, lettres et beaux-arts de Belgique.
Qui est responsable en cas de dommage causé par l’IA ?
Pablo Baquero : La révision de la Directive européenne sur la responsabilité du fait des produits (PLD) couvre partiellement les dommages causés par l’IA (blessures corporelles, dégâts matériels ou perte de données). Elle permet de formuler des réclamations pour certains types de défauts logiciels.
Cependant, des abus comme la discrimination, les violations des droits de la personnalité ou les atteintes aux droits fondamentaux ne relèvent pas du champ d’application de la PLD. Le droit de l’UE ne prévoit aucun recours pour les personnes victimes de ces abus liés à l’IA, la régulation étant laissée à chaque État membre, ce qui complexifie davantage la régulation européenne.
Pablo Baquero est Professeur assistant en droit à HEC Paris et Fellow au Centre Hi! PARIS.
La publicité peut-elle trouver un équilibre entre l’IA et la vie privée ?
Klaus Miller: L’usage de l’IA dans la publicité amplifie les risques liés à la vie privée, notamment :
-
La collecte massive de données personnelles ;
-
Le profilage intrusif ;
-
Les risques de discriminations involontaires.
Grâce aux processus automatisés, les utilisateurs ne comprennent pas toujours pleinement la manière dont leurs données sont suivies ou utilisées, ce qui soulève des préoccupations concernant le consentement et la transparence.
Les réglementations de l’UE telles que le RGPD et la future loi sur l’IA (AI Act) proposent des mesures de protection des données plus strictes, des exigences accrues en matière de transparence, ainsi que des cadres de responsabilisation. Ces réglementations visent à garantir des pratiques équitables et légales, offrant aux individus un meilleur contrôle sur leurs données tout en favorisant la confiance dans la publicité pilotée par l’IA.
Klaus Miller est Professeur assistant en marketing à HEC Paris.
Pour aller plus loin : Hi! PARIS Meet Up on AI, Ethics & Regulations
Les start-up sont-elles plus éthiques que les grands groupes ?
Michael Impink : Toutes les entreprises sont confrontées à des problèmes éthiques, mais les grandes entreprises disposent de meilleures ressources pour y faire face. Pourtant, nos recherches montrent que de nombreuses startups high-tech ont des politiques d’IA éthique et prennent des mesures favorisant des comportements éthiques, malgré l’absence d’obligations réglementaires ou légales.
Les startups sont d’autant plus susceptibles d’adopter des politiques d’IA éthique lorsqu’elles entretiennent une relation de partage de données avec des entreprises technologiques comme Amazon, Google ou Microsoft.
Cependant, des défis subsistent. Les politiques de développement d’une IA éthique peuvent encore manquer de comités de surveillance ou d’audits incitant leurs employés à respecter la politique.
Michael Impink est Professeur assistant en stratégie et politique d’entreprise à HEC Paris.
Pourquoi les plateformes numériques agissent-elles comme régulateurs ?
Madhulika Kaul : Les plateformes numériques agissent comme des régulateurs privés dans la société en établissant des règles qui influent sur les marchés plus larges et les résultats sociétaux. Par exemple, elles contrôlent les mouvements sociaux en médiatisant la mobilisation des ressources pour ces mouvements, ce qui peut restreindre l’action collective.
De plus, les plateformes numériques telles qu’Airbnb échouent souvent à assurer le respect des règles sur les plateformes externes, bien qu’elles fassent appliquer des règles au sein de leurs propres écosystèmes. En tant que régulateurs privés, les plateformes doivent adopter des pratiques transparentes conformes aux valeurs sociétales.
Madhulika Kaul a soutenu sa thèse de doctorat à HEC et est désormais professeure assistante en stratégie à la Bayes Business School de Londres, en Angleterre. Sa recherche a été financée par Hi! PARIS et a reçu le Prix de la Fondation HEC pour la meilleure thèse de 2024.
Comment les modèles de jeu peuvent-ils réduire les biais ?
Atulya Jain : En utilisant un modèle de théorie des jeux pour analyser les interactions entre agents stratégiques et algorithmes d’IA, les chercheurs ont découvert que les algorithmes sont souvent influencés par les données fournies par des individus ayant des intérêts personnels, ce qui génère des résultats peu fiables.
Cette recherche montre que pour une IA éthique, des solutions techniques ne suffisent pas, il faut aussi une compréhension approfondie du comportement humain et des incitations.
Atulya Jain a soutenu son doctorat à HEC et est actuellement chercheur postdoctoral à l’Institut de microéconomie de l’Université de Bonn, en Allemagne. Ses recherches ont été financées par Hi! PARIS.
Comment œuvrer pour la diversité et un changement systémique dans la gouvernance de l’IA ?
Marcelle Laliberté : Les enquêtes montrent que les femmes sont 20% moins susceptibles que les hommes d’adopter des outils comme ChatGPT. D’autres études suggèrent que ces écarts pourraient résulter de besoins de formation non satisfaits pour les femmes sur le lieu de travail et de contraintes professionnelles.
Ces différences débutent dès le plus jeune âge. Avant que l’IA ne soit déployée dans le domaine public ou en entreprise, elle doit être conçue par quelqu’un capable d’écrire un programme informatique. Pourtant, en 2023, deux fois plus d’hommes que de femmes âgés de 16 à 24 ans savaient programmer dans l’Union européenne.
Les biais sociaux qui créent des barrières à l’apprentissage du code pour les filles sont ainsi intégrés dans les systèmes d’IA eux-mêmes. À mesure que l’utilisation de ces systèmes se généralise à grande vitesse dans tous les secteurs, nous risquons de déployer un outil puissant qui aggrave les inégalités.
À notre avis, il est aussi crucial d’intégrer des perspectives sectorielles et culturelles spécifiques dans la conception des politiques et des systèmes que d’adopter de nouvelles régulations pour garantir que les solutions d’IA soient vraiment équitables pour tous.
Marcelle Laliberté est Chief Diversity, Equity and Inclusion Officer à HEC Paris. Elle a contribué au rapport 2024 sur la gouvernance de l’IA des Nations Unies en tant qu’experte nommée, avec le document de position collective « Governing AI’s Future: Indigenous Insights, DEI Imperatives, and Holistic Strategies – a cross disciplinary view », co-écrit avec Claudia Schulz, diplômée de HEC Paris, et Olivia Sackett, Fellow à la Swinburne University of Technology, publié en 2024.
Une traduction assistée par LLM.