AI Act : l’UE instaure un accord historique pour régulier l’intelligence artificielle
décembre 2023 par Greg Hanson, Senior vice president, platform specialist for EMEA and LATAM chez Informatica
L’Union européenne a conclu dimanche un accord historique sur la régulation de l’intelligence artificielle (IA), représentant la première loi mondiale exhaustive en la matière après plus de trente-sept heures de négociations. Cette réglementation classe les systèmes d’IA à haut risque et cherche à équilibrer la protection des droits fondamentaux et la promotion de l’innovation des start-ups européennes. Les débats ont été complexes, avec des entreprises craignant des contraintes excessives sur l’innovation. Les règles imposent des exigences plus strictes pour l’IA générative, comme ChatGPT, et restreignent l’utilisation de la reconnaissance faciale en temps réel aux forces de l’ordre.
Qu’a-t-il été annoncé ?
Des règles sur les modèles d’IA à usage multiple susceptibles d’entraîner un risque systémique à l’avenir, ainsi que sur les systèmes d’IA à haut risque.
La mise en place d’un système de gouvernance renforcé, disposant de certains pouvoirs d’exécution au niveau de l’Union européenne.
Un allongement de la liste des interdictions, mais avec la possibilité d’utiliser l’identification biométrique à distance par les autorités répressives dans les espaces publics, sous réserve de garanties
Une meilleure protection des droits grâce à l’obligation pour les opérateurs de systèmes d’IA à haut risque de réaliser une évaluation de l’impact sur les droits fondamentaux avant de mettre en œuvre un système d’IA.
Des amendes en cas de violation de la loi sur l’IA :
35 millions d’euros ou 7 % du chiffre d’affaires pour les violations liées aux applications d’IA interdites
15 millions d’euros ou 3 % pour les violations des obligations de la loi sur l’IA
7,5 millions d’euros ou 1,5 % pour la transmission d’informations incorrectes.
Cependant, l’accord provisoire prévoit des limites proportionnées aux amendes administratives pour les PME et les start-ups en cas d’infraction aux dispositions de la loi sur l’IA.
Le commentaire de Greg Hanson, Senior vice president, platform specialist for EMEA and LATAM chez Informatica :
« La réglementation finale marque un tournant significatif, et l’introduction de sanctions substantielles en cas de non-conformité conférera à la nouvelle réglementation un caractère contraignant.
Il est clair que la responsabilité de l’utilisation de l’IA incombe désormais fermement aux entreprises qui la déploient dans leurs processus métier. Les organisations doivent donc se préparer à une surveillance réglementaire accrue en veillant à ce que les bases et les contrôles des outils d’IA soient robustes. Cela inclut une transparence totale sur les données utilisées pour former les modèles d’IA, ainsi que sur les décisions prises par ces modèles et les raisons qui les motivent.
Alors que nous entrons dans un monde activé par l’IA, l’impact de la réglementation de l’UE ne s’arrêtera pas aux frontières de l’Europe. Elle deviendra une norme internationale de facto nécessaire pour gérer les risques liés à l’IA. Les organisations devront être prêtes à faire face à une complexité accrue et à protéger l’intégrité des systèmes d’IA en donnant la priorité à la transparence et à la responsabilité. Un contrôle attentif de la manière dont l’IA est intégrée dans les processus métier sera essentiel pour utiliser l’IA de manière efficace et conforme à l’avenir. »