Publication de Corinne Thiérache, associée du département Propriété intellectuelle – Droit des Technologies et du Numérique – Protection des données personnelles, Caroline Leroy-Blanvillain collaboratrice et Adrien Bansard collaborateur ont rédigé une publication.

12 décembre 2023

Un accord politique provisoire enfin trouvé au sein de l’Union européenne pour encadrer l’intelligence artificielle  

Après plusieurs mois de trilogue sur la proposition de Règlement sur l’IA (IA Act), un accord est finalement intervenu vendredi dernier pour concilier innovation et garde-fous nécessaires.

Plusieurs avancées notables sont à relever, parmi lesquelles :

  • Les interdictions de certains usages des systèmes d’IA présentant des risques élevés pour les droits fondamentaux.
    • Sont retenus en exemples : le scoring social, l’extraction non ciblée d’images faciales sur Internet (scraping à grande échelle) ou par vidéosurveillance pour créer des bases de données de reconnaissance faciale, la manipulation du comportement humain pour contourner le libre arbitre, l’exploitation des vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique), certaines utilisations de la reconnaissance biométrique en temps réel (dont reconnaissance faciale), avec certaines exceptions limitées notamment en ce qui concerne la lutte contre le terrorisme.
  • Les obligations strictes pour les fournisseurs et utilisateurs de systèmes d’IA à haut risque, comme l’évaluation des risques (risk assessment), des normes élevées de qualité des données utilisées, des obligations de documentation technique, l’information spécifique des utilisateurs, ou encore la supervision humaine (human-in-the-loop).
  • Une transparence accrue, au moyen notamment de l’information des utilisateurs en cas d’interaction avec des chatbots et l’étiquetage des deepfakes.
  • La surveillance du marché par les autorités nationales et le Comité européen de l’intelligence artificielle. En France, c’est la CNIL qui sera chargée de ce contrôle.

Des sanctions voulues coercitives sont prévues : en cas de non-respect des règles, des sanctions financières pourront être prononcées, allant de 7,5 millions d’euros ou 1,5 % du chiffre d’affaires à 35 millions d’euros ou 7 % du chiffre d’affaires mondial, en fonction de l’infraction et de la taille de l’entreprise.

Il reste néanmoins plusieurs axes de consolidation pour lesquels les autorités nationales auront probablement un rôle important à jouer. Par exemple, le projet entériné impose assez peu d’obligations pour les systèmes d’IA à faible risque, au profit d’une simple faculté d’adhésion à des codes de conduite.

La version officielle du texte, en cours de traduction, apportera probablement un certain nombre d’éclairages bienvenus sur les définitions retenues et le sens à donner à certaines dispositions. En l’état du calendrier européen, une application ne verra probablement pas le jour avant 2026. Toutefois, cette avancée majeure que constitue l’adoption de l’IA Act est à saluer, notamment pour les acteurs déjà établis, qui ont pour la plupart su anticiper ces nouvelles règles en construisant des modèles d’IA particulièrement éthiques. Cela résonne d’autant plus que, la semaine passée, la startup française de l’intelligence artificielle, Mistral AI, a annoncé avoir levé plus de 385 millions d’euros pour accélérer son développement
.