- SOMMAIRE
Date de publication : 06.08.2024
Nouveautés et objectifs de l'AI Act
Le 21 mai dernier, le Conseil de l’Union européenne a approuvé l’AI Act. Il s’agit de la première loi au monde qui règlemente l’utilisation de l’intelligence artificielle.
L’intelligence artificielle joue un rôle de plus en plus important dans notre monde et pourrait être porteuse de grands avantages en termes de bien-être et de croissance économique si nous parvenons à tirer le meilleur parti de son potentiel.
En revanche, en raison de ces mêmes caractéristiques et surtout de sa capacité à apprendre en autonomie et à prendre des décisions de manière autonome, l’IA pourrait constituer une menace. D’où la nécessité de créer des règles permettant aux citoyens et aux organisations d’exploiter les avantages d’une transformation technologique sans précédent, tout en contrôlant les éventuels risques associés.
L’AI Act établit une série de règles qui visent une utilisation sûre et éthique de l’intelligence artificielle, respectueuse des droits fondamentaux et des valeurs européennes.
Qu’est-ce que l'AI Act ?
Qu’est-ce que l'AI Act ?
L’AI Act règlemente le développement et l’utilisation de l’IA dans l’UE. Contrairement aux directives, les règlements ne doivent pas être mis en œuvre dans les États membres par le biais d’une loi nationale. L’application homogène des règles est ainsi garantie dans tous les pays de l’UE.
Le processus qui a conduit à l’approbation de la loi sur l’IA a débuté en avril 2021, lorsqu’une proposition de règlement a été présentée par la Commission européenne dans le but de créer un cadre réglementaire harmonisé pour l’intelligence artificielle dans l’UE.
En juin 2023, le Parlement européen a adopté sa position de négociation sur le règlement et en décembre de la même année, un accord provisoire a été conclu entre le Parlement européen, le Conseil de l’Union européenne et la Commission européenne sur le texte de la loi sur l’IA. Enfin, en mai 2024, le Conseil de l’UE a donné son feu vert à la version définitive du règlement sur l’intelligence artificielle.
Quels sont les objectifs de l’AI Act ?
Quels sont les objectifs de l’AI Act ?
Comme nous l’avons déjà mentionné, la loi sur l’IA a deux objectifs principaux :
- garantir que l’homme puisse exploiter les avantages de l’intelligence artificielle
- réduire tout risque éventuel lié à son utilisation.
En d’autres termes, l’AI Act fixe une série de règles dont le but est d’encourager une utilisation et un développement responsables de l’intelligence artificielle.
C’est pour cette raison que le règlement européen prévoit une distinction entre les applications de l’intelligence artificielle selon leur dangerosité potentielle et établit quatre niveaux de risque pour les classer en tenant compte des menaces qu’elles représentent pour la santé, la sécurité et les droits de l’homme. Chaque niveau correspond à un degré de surveillance différent.
Niveaux de risque des applications d'IA
Niveaux de risque des applications d'IA
Les systèmes d’intelligence artificielle présentant un risque inacceptable sont les systèmes qui violent les valeurs européennes et qui, par conséquent, sont interdits au sein de l’UE. Ce contexte comprend les systèmes de notation sociale en fonction du comportement des individus, les outils de police prédictive qui utilisent des données pour comprendre à l’avance la dangerosité d’un sujet, ainsi que les systèmes de ciblage des utilisateurs qui visent à exploiter certaines caractéristiques sensibles telles que l’âge, le handicap ou encore la condition sociale ou économique. Les systèmes de reconnaissance des émotions sont également interdits, notamment s’ils sont utilisés sur le lieu de travail ou dans les écoles, tout comme les systèmes de reconnaissance biométrique, sauf cas particuliers.
Viennent ensuite les applications d’IA à haut risque, susceptibles de nuire gravement à la santé, à la sécurité et aux droits fondamentaux des citoyens. Cette catégorie comprend à la fois les systèmes concernant des infrastructures et des produits spécifiques déjà couverts par la législation européenne, ainsi que les applications utilisées dans des secteurs sensibles tels que l’éducation, le travail, les forces de l’ordre, la migration ou le processus démocratique. Toutes ces applications doivent être enregistrées dans une base de données consultable par les utilisateurs. En outre, les fournisseurs devront se conformer à une série d’exigences, notamment sur la conception de systèmes prenant en charge et permettant une supervision humaine.
Les applications qui n’impliquent pas de risques considérables sont considérées comme à risque limité et doivent répondre à moins d’exigences, notamment en termes de transparence. Les utilisateurs doivent être informés qu’ils interagissent avec un système d’IA.
Enfin, il existe des applications présentant un risque minimal pour lesquelles il n’existe pas d’obligations particulières découlant de l’AI Act.
Qu'est-ce qui change pour les entreprises avec l’AI Act ?
Qu'est-ce qui change pour les entreprises avec l’AI Act ?
Pour les entreprises, ainsi que toutes les organisations publiques et privées, l’entrée en vigueur de l’AI Act entraînera une série de changements auxquels il convient de se préparer à l’avance.
L’évaluation des risques sera fondamentale, car elle permettra de comprendre quels systèmes d’intelligence artificielle sont produits ou utilisés, le degré de risque associé et les mesures devant être adoptées pour les contenir. En fonction du degré de risque associé à leurs systèmes d’IA, les organisations devront prendre des mesures appropriées afin de garantir la sécurité, la transparence et la fiabilité.
Les applications d’IA présentant un risque inacceptable ne pourront plus être produites ou utilisées. Concernant les autres applications d’intelligence artificielle, il sera nécessaire de procéder à une évaluation du respect des règles de l’AI Act, ainsi que de documenter cette conformité.
De plus, les organisations devront adopter une série de procédures de gouvernance leur permettant de gérer les risques associés à l’utilisation de l’intelligence artificielle. Par exemple, il pourra être nécessaire d’adopter un comité d’éthique de l’IA et d’élaborer une stratégie en matière d’intelligence artificielle.
Les sanctions prévues par l’AI Act
Les sanctions prévues par l’AI Act
L’AI Act prévoit un système de sanctions à l’encontre des auteurs d’infractions, basé sur un pourcentage du chiffre d’affaires annuel global relatif à l’exercice précédent ou sur un montant forfaitaire.
Ces mesures sont les suivantes :
- 35 millions d’euros ou 7% en cas de violations liées aux applications d’IA interdites,
- 15 millions d’euros ou 3% en cas de violations des obligations de l’AI Act,
- 7,5 millions d’euros ou 1,5% si des informations incorrectes sont fournies.