- Le règlement européen "AI Act" définit les obligations selon quatre niveaux de risque.
- Les systèmes d'IA à haut risque doivent respecter des règles strictes de transparence et de sécurité.
- Certaines pratiques d'IA, comme la police prédictive, sont interdites.
- Les entreprises doivent évaluer leur exposition aux risques liés à l'IA avant tout lancement dans l'UE.
- Les sanctions sont sévères pour les contrevenants aux exigences de la loi sur l'IA.
Quel est l’objectif de la loi européenne sur l’intelligence artificielle ?
La loi sur l'IA (le "AI Act") a été conçue sur le modèle d'une législation relative à la sécurité des produits. Elle définit les exigences auxquelles doivent se conformer certains systèmes d'IA à risque, ou les produits et services qui les contiennent, avant leur mise sur le marché. De plus, elle établit des exigences de surveillance après leur commercialisation.
Plus généralement, la loi européenne sur l'IA vise à harmoniser les règles régissant l'intelligence artificielle entre les États membres de l'UE. Cela facilite la circulation des produits et des services entre ces États.
Tout en favorisant le commerce et l'innovation, la loi protège également les droits fondamentaux des citoyens de l'UE, susceptibles d'être menacés par un usage abusif des technologies d'IA. Enfin, elle vise à concilier innovation et respect des droits fondamentaux.
La loi sur l'IA s'adresse principalement aux fournisseurs et développeurs de technologies d'IA, mais aussi à ceux qui les mettent sur le marché, comme les importateurs.
Étant donné la définition très large de l'IA, ne sommes-nous pas en train de surréglementer ?
C’est une excellente question, mais il est important de comprendre que la règlementation sur l’IA (AI Act) répond à cette préoccupation en établissant une approche fondée sur les risques. Les systèmes d’IA sont réglementés par cette loi en fonction du niveau de risque qu’ils représentent pour la société et les individus. Dans le cadre de cette approche, l'AI Act définit quatre niveaux de risque.
Premièrement, certaines pratiques sont interdites par le règlement. Par exemple, l'utilisation de l'IA pour prédire le risque de récidive, c’est-à-dire le risque qu’une personne commette à nouveau des infractions à l’avenir. Il existait un programme basé sur l’IA utilisant la reconnaissance faciale en temps réel pour surveiller des espaces publics accessibles, sauf dans des conditions tout à fait exceptionnelles, parmi d’autres situations. Cela a été interdit par l’AI Act.
Le second niveau de risque concerne les systèmes d'IA à haut risque, c'est-à-dire ceux qui peuvent être commercialisés, mais qui doivent au préalable satisfaire à certaines exigences. Une part importante du règlement européen sur l'IA est consacrée à l'explication de ces exigences et des modalités de mise sur le marché des systèmes d'IA à haut risque.
Le troisième niveau concerne les systèmes d'IA présentant un risque minimal. Ces systèmes doivent respecter des exigences de transparence élémentaires, c'est-à-dire informer les utilisateurs qu'ils interagissent avec eux qu'ils ont affaire à des systèmes basés sur l'IA.
Au quatrième niveau, on trouve les systèmes d'IA présentant des niveaux de risque inexistants. Ces systèmes ne sont pas couverts par la réglementation européenne sur l'IA et ne sont donc soumis à aucune réglementation européenne restrictive en la matière. Des codes de bonnes pratiques peuvent être établis par l'industrie, mais il s'agirait de règles volontaires et non contraignantes.
Pouvez-vous aborder le point crucial de la loi sur l'IA, à savoir les systèmes d'IA à haut risque ?
Bien sûr ! Ces systèmes doivent respecter les exigences en matière de protection des données, notamment en garantissant que les données utilisées pour l'entraînement des algorithmes ont été collectées légalement et qu'elles ne contiennent aucune information personnelle sensible. Les systèmes ne doivent pas être biaisés ni discriminer les individus sur la base de caractéristiques protégées telles que le genre, l'origine ethnique, les opinions politiques, la religion ou l'orientation sexuelle, parmi d'autres. Ils doivent également être transparents et explicables, c'est-à-dire compréhensibles par les personnes concernées. Il doit être possible de comprendre comment un algorithme a produit un résultat ou une prédiction.
De plus, ces systèmes doivent être conçus de manière à être efficacement supervisés par des humains, qui doivent pouvoir prévenir ou minimiser les risques potentiels qu'ils pourraient engendrer. Enfin, ces systèmes doivent être précis, robustes et cybersécurisés, afin d'éviter les erreurs susceptibles d'entraîner des préjudices importants pour les individus, comme l'a démontré le scandale impliquant le logiciel Fuji Horizon et les services postaux britanniques.
Cette section de la loi concerne l'intelligence artificielle utilisée à des fins éducatives et professionnelles. Elle vise notamment à empêcher son utilisation pour déterminer l'admissibilité à une université, pour les algorithmes de recrutement sélectionnant les candidats à un entretien, et pour l'attribution d'aides sociales. Chacun de ces systèmes doit respecter des exigences spécifiques.
Quelles sanctions encourent les entreprises qui enfreignent les obligations prévues par l'AI Act ?
En règle générale, les entreprises reconnues coupables d'infraction à la loi sont passibles d'amendes. Le montant de ces amendes dépend de la nature de l'obligation violée. Il est essentiel que les entreprises comprennent le niveau de risque engendré par les technologies d'IA qu'elles intègrent, ainsi que les obligations potentielles auxquelles elles peuvent être soumises en vertu de la réglementation européenne sur l'IA.
Toutefois, de nombreux points restent à préciser quant aux contours des obligations spécifiques. Les grandes lignes de la réglementation visent à trouver un équilibre entre la protection des droits fondamentaux des personnes potentiellement affectées par les systèmes d'IA et la nécessité d'éviter une réglementation excessive du sujet et de ne pas freiner l'innovation.
Traduction assistée par LLM.