Stratégie & Innovation

L'AI Act : première réglementation mondiale de l'intelligence artificielle

2.3.2024
6
min.
Découvrir la ressource associée
Chloé Creuzet
Consultante de intelligence économique

Découvrez l'impact de l'AI Act sur l'évolution et la régulation de l'IA en Europe. Cet article couvre l’adoption du texte, les mesures concrètes qui y figurent pour les fournisseurs d'IA, ainsi que les mesures de transition réglementaire. Un guide essentiel pour comprendre les enjeux actuels et futurs de l'IA dans l'UE.

Les fondations et l'évolution de l'Intelligence Artificielle

Les bases de l’intelligence artificielle ont été posées il y a plusieurs décennies avec, notamment, la machine d’Alan Turing. L’arrivée des Big Datas, l’augmentation de la puissance de calcul et le passage à l’approche inductive (machine learning et deep learning) ont posé les conditions d’une nouvelle phase de développement de l’intelligence artificielle.

Les applications de l’IA sont multiples et prennent une importance croissante pour l’économie et la société. Même si la grande majorité des technologies associées à l’IA en Europe, présente aujourd’hui un risque minimal ou inexistant pour les individus, leur évolution rapide impose la mise en place de nouvelles réglementations.

Le règlement IA dans l'UE

L'AI Act et ses controverses

En avril 2021, la Commission européenne a été la première instance mondiale à émettre un projet de loi ayant vocation à encadrer l’intelligence artificielle.

La mise en place de règles contraignantes, notamment sur les modèles de fondation, n’a pas fait l’unanimité. Au cours du troisième trimestre 2023, plusieurs pays de l'union européenne, dont la France, se sont opposés à toutes réglementations pour les fournisseurs de modèles de fondation, préférant des mesures d’autorégulation obligatoires.

Pour eux, la proposition initiale de l’AI Act empêcherait les entreprises européennes de  développer certaines innovations capables de rivaliser sur le marché avec les géants de la tech américains.

Quand l'AI Act a été voté ?

En décembre 2023, un accord politique provisoire a été trouvé. Pour garantir un cadre juridique propice à une innovation responsable, ce compromis proposait une catégorisation et une réglementation des systèmes d’IA en fonction du risque qu’ils présentent pour les utilisateurs.

Cependant, ce n'est que le vendredi 2 février que la France a finalement ratifié l'AI Act. Ce texte a donc été validé à l'unanimité par tous les pays d'Europe.

Risques et mesures de prévention selon l'AI Act    

Les enjeux de cette réglementation sont multiples, elle doit tenir compte des atouts de l'IA, mais aussi des nouveaux risques ou des externalités négatives qu’elle peut engendrer.

Il s’agit de veiller à ce que les systèmes d'IA utilisés dans l'UE :

  • soient sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement ;
  • respectent les droits fondamentaux ainsi que les valeurs de l’Union.

Notamment, la proposition prévoyait des exigences (sur les essais, les contrôles, la gestion des risques…) qui visent à réduire les risques de discrimination algorithmique.

Le documentaire Coded bias met en évidence le fait que les algorithmes, comme les humains, peuvent avoir des préjugés. À titre d’exemple, il est montré qu’Amazon utilisait une IA dans son processus de recrutement afin de faciliter le travail des RHs en présélectionnant certains profils. Après quelque temps, il a été constaté que l’IA ne sélectionnait presque pas de femmes.

Pourquoi une telle discrimination ? L’IA n’est pas sexiste, seulement, son fonctionnement par machine learning lui fait reproduire certains schémas sociaux. Il s’avère qu’au moment de l'entraînement de l’algorithme, très peu de femmes exerçaient des postes à responsabilité chez Amazon.

Ainsi, l’AI Act vise à clarifier les obligations en termes de développement, de déploiement ou encore d’utilisation de l’IA pour réduire les menaces associées. Tout en développant les conditions juridiques favorables aux investissements et à l’établissement d’un marché novateur.

À l’image de l’évolution rapide des systèmes d’IA, la vocation des règles établies par l’AI Act est de continuellement s’adapter aux changements technologiques.

Quelle réglementation européenne sur l'intelligence artificielle ?

Catégories de risque et réglementations associées

Ce texte associe des mesures réglementaires spécifiques à un système d’IA en fonction du risque qu’il présente pour les utilisateurs. Quatre catégories ont été établies :

Ainsi, les applications d’intelligence artificielle peuvent être classées en différentes catégories :

  • Les applications à risque inacceptable seront interdites. Parmi ces applications, on peut citer la manipulation cognitive-comportementale, le score social, entre autres.
  • Les applications à risque élevé, ceux représentant une menace pour la sécurité, les moyens de subsistance ou les droits fondamentaux, seront évaluées avant leur mise sur le marché et tout au long de leur cycle de vie. Ces applications peuvent inclure des domaines tels que le transport, la formation éducative, la santé, l’emploi, les services publics. Par exemple, l'identification biométrique à distance, la notation des examens, la vérification de l’authenticité des documents de voyage.
  • Les applications à risque limité devront se conformer à des obligations de transparence afin que les utilisateurs puissent prendre des décisions éclairées après l’intervention d’une IA. Des exemples de ces applications incluent les chatbots et les systèmes de recommandation.
  • Les applications à risque minimal ou nul ne seront soumises à aucun règlement spécifique. Par exemple, les jeux vidéos et les filtres anti-spam.

La mise en place de “bacs à sable réglementaires” permettra à la fois aux utilisateurs / fournisseurs de systèmes d’IA à haut risque de se conformer aux nouvelles règles, et à la fois aux États membres de l’UE de réajuster ou d’approuver les mesures de l’AI Act pour une adoption définitive des premières règles mondiales sur l’intelligence artificielle.

Afin de remplir les exigences réglementaires, un ensemble d’obligations concrètes a été élaboré pour amoindrir la menace que représentent les systèmes d’IA à haut risque.

Obligations des fournisseurs selon la loi IA

Avant de pouvoir être mis sur le marché, les fournisseurs d’IA devront justifier:

  • de systèmes adéquats d’évaluation et d’atténuation des risques;
  • de la haute qualité des ensembles de données alimentant le système afin de minimiser les risques et les résultats discriminatoires;
  • de l’enregistrement des activités afin d’assurer la traçabilité des résultats;
  • d’une documentation détaillée fournissant toutes les informations nécessaires sur le système et son objet pour permettre aux autorités d’évaluer sa conformité;
  • de la mise à disposition d’informations claires et adéquates pour l’utilisateur;
  • de mesures de surveillance humaines appropriées pour minimiser les risques;
  • d’un haut niveau de robustesse, de sécurité et de précision.

Dans une logique d’itération, les systèmes d’IA à haut risque continueront d’être évalués selon les modalités susmentionnées, tout au long de leur cycle de vie.

D’ailleurs, pour garantir l’atteinte des objectifs spécifiques que s’est fixée la Commission Européenne, un mécanisme de suivi et d’évaluation a été mis en place, il permettra le cas échéant d’appliquer les sanctions prévues par l’AI Act.

Notamment, une fois qu’un système d’IA est sur le marché :

  • Les autorités nationales veilleront à la bonne mise en œuvre des nouvelles règles sur leur territoire.
  • La Commission européenne assurera la coordination au niveau européen grâce à la création de l’Office européen de l’IA en février 2024.
  • La Commission européenne établira un système d’enregistrement des applications d’IA autonome à haut risque dans une base de données publique. Cela permettra à tout-un-chacun de vérifier si un système d’IA à haut risque précis respecte les exigences de l’AI Act.

Conséquemment, les fournisseurs d’IA seront tenus de fournir les informations utiles sur leurs systèmes afin que les autorités compétentes puissent évaluer leur conformité. Également, dans le cas d’une violation incontrôlée par l’IA des obligations en matière de droits fondamentaux, les fournisseurs seront tenus d’informer les autorités compétentes le plus tôt possible.

Sanctions et complémentarité avec le droit de l'UE

En cas de non-respect des exigences de l’AI Act, des sanctions seront prises :

  • Pour toutes violations d’applications d’IA interdites : jusqu’à 35 millions d’euros ou 7 % du CA annuel mondial de l’entreprise.
  • Pour la fourniture d’informations incorrectes aux autorités : jusqu’à 7,5 millions d’euros ou 1,5% du CA annuel mondial de l’entreprise.
  • Pour toutes autres violations d’obligation : 15 millions d’euros ou 3% du CA annuel mondial de l’entreprise.

L’AI Act vient compléter le droit de l’Union existant en matière de non-discrimination, de protection des données et de protection des consommateurs, grâce à un ensemble de règles harmonisées.

Ces règles auront un double bénéfice, elles permettront aux fournisseurs de pouvoir commercialiser facilement leurs produits et services liés à l’IA à travers les frontières de l’UE et elles perm

Conclusion et perspectives sur la loi IA en Europe

Entrée en vigueur de la régulation et adoption par le Parlement européen

Le texte est entré en vigueur 20 jours après sa publication au Journal officiel, c'est-à-dire fin février 2024. Notons qu’il sera pleinement applicable deux ans plus tard, toutefois, certaines interdictions entreront en vigueur après six mois, tandis que les dispositions relatives à l’IA à usage général seront appliquées après un an.  

Comment bien réaliser la transition réglementaire vers l'AI act ?

Afin de faciliter la transition vers le nouveau cadre réglementaire, la Commission a lancé le pacte sur l’IA. Un système qui favorise la mise en œuvre rapide des mesures prévues par la loi sur l’IA, puisqu’il permet aux entreprises volontaires de se conformer en avance aux obligations qui y figurent.

Concrètement, les entreprises doivent fournir une déclaration d’engagement qui détaille un plan d’actions menées ou à mener pour répondre aux exigences spécifiques de la future loi sur l’IA.

En contrepartie, la Commission publiera ces engagements afin d’offrir de la visibilité, d’accroître la crédibilité et de renforcer la confiance dans les technologies développées par les entreprises participant au pacte.

Merci beaucoup pour votre lecture, si vous souhaitez en savoir plus où que nous décryptions de nouveaux sujets n'hésitez pas à nous contacter.

Chloé Creuzet

Consultante de intelligence économique

Consultante de intelligence économique chez Dynergie

Besoin d'aide ?

Nos experts en innovation sont là pour vous répondre.

No items found.