top of page

IA Act adopté par l'U.E non sans difficultés.

Les états membres de l'Union européenne ont approuvé à l'unanimité le premier règlement complet au monde sur l'intelligence artificielle, entérinant ainsi l'accord politique conclu en décembre. La France a été le premier opposant aux règles de transparence instaurées dans le règlement. Décryptage.


IA Act  adopté à l'unanimité par les 27 membres de l'U.E non sans difficultés
Inscrit dans la stratégie numérique de l'UE, l’IA Act ambitionne de garantir de meilleures conditions de développement et d'utilisation de l'IA.

En décembre dernier, les responsables politiques de l'U.E étaient parvenus à un accord politique sur les principaux points d'obstacles de l'AI Act, un projet de loi phare visant à réglementer l'intelligence artificielle en fonction des niveaux de risques.

En raison de la complexité de la loi, sa mise au point technique a pris plus d'un mois.


Le 24 janvier, la présidence belge du Conseil des ministres de l'U.E a présenté la version finale du texte lors d'une réunion technique. La plupart des Etats membres ont alors émis des réserves, n'ayant pas eu le temps d'analyser le texte en profondeur.


Ces réserves ont finalement été levées avec l'adoption de la loi sur l'IA par le Comité des représentants permanents le vendredi 2 février.

Toutefois, le feu vert des ambassadeurs de l'U.E n'était pas garanti, car certains poids lourds européens, dont la France se sont opposés à certaines parties de l'accord provisoire jusqu'aux derniers jours.


La France au cœur des oppositions


L'IA Act a donc été adopté par les 27 états membres de l'U.E mais non sans difficulté

La France a été le principal opposant à l'accord politique , en demandant un régime réglementaire plus souple pour les modèles d'IA puissants, comme Mistral AI, afin de pouvoir pousser ce modèle en compétition de celui des acteurs extra européens tels GPT-4 d'Open AI et Bard.

Toutefois, le Parlement européen est resté uni dans sa demande de règles strictes pour ces modèles, estimant "qu'il était inacceptable d'exclure de la réglementation les types d'intelligence artificielle les plus puissants tout en laissant toute la charge réglementaire sur les acteurs plus petits."

Un compromis a été trouvé grâce à une approche par étapes, avec des règles de transparence horizontales pour tous les modèles et des obligations supplémentaires pour les modèles contraignants considérés comme présentant un risque systémique.


De l'opposition au consensus


La présidence belge a placé les États membres devant un scénario "à prendre ou à laisser" et, malgré les tentatives de la France de retarder le vote des ambassadeurs, a maintenu un calendrier serré, en partie pour laisser le temps de peaufiner le texte sur le plan juridique et aussi pour limiter le lobbying de dernière minute.

La balance a penché de manière décisive en défaveur de Paris. Berlin ayant décidé de soutenir le texte en début de semaine. Le ministre allemand du numérique, Volker Wissing, s'est en effet retrouvé isolé dans son opposition au règlement sur l'IA de la part des partenaires de la coalition et a dû abandonner ses réserves.


L'Italie, qui a toujours été le pays le plus déficient du trio sceptique en raison de son manque de start-up de premier plan dans le domaine de l'IA, a également décidé de ne pas s'opposer à la loi sur l'IA.


Même au sein du gouvernement français, la position critique du ministère de l'économie a été contestée par le ministère de la culture, soucieux de protéger les détenteurs de droits, et par le ministère de l'intérieur, satisfait des nombreuses exceptions prévues en matière d'application de la loi.


La France ne joue pas pleinement la carte de la transparence


Finalement, la France a été obligée de signer le texte "à des conditions strictes".

Alors qu'une obligation de transparence avait été intégrée dans le règlement, obligeant les entreprises à livrer un résumé des données d'entraînements des modèles d'IA et de permettre ainsi aux auteurs de vérifier si leurs données ont été exploitées afin de demander une compensation, la France a demandé à y intégrer la mention "secret des affaires", atténuant de fait cette obligation de transparence.

Paris souhaite ainsi que la mise en œuvre de la loi sur l'IA n'entrave pas le développement de modèles compétitifs tel que Mistral AI. Elle demande aussi une réévaluation du seuil et des critères utilisés pour désigner les modèles d'IA présentant des risques "systémiques."


De son côté, la Slovaquie a publié une déclaration pour mémoire, demandant des clarifications sur des termes critiques, un alignement international et la possibilité pour les pays de l'U.E de réglementer l'IA utilisée dans le cadre d'activités non professionnelles.


L'Autriche a également présenté une déclaration protocolaire soulevant des préoccupations relatives à la protection des données et au droit des consommateurs en ce qui concerne les exceptions en matière d'application de la loi et les règles relatives aux technologies invasives telles que l'identification biométrique à distance.


Les pays de l'U.E ont donc encore une marge de manœuvre pour influencer la manière dont la loi sur l'IA sera mise en œuvre, car la Commission devra publier une vingtaine d'actes de droit dérivé. L'Office de l'IA, qui supervisera les modèles d'IA, devrait également être doté d'un nombre important d'experts nationaux détachés.


Prochaines étapes


Les commissions du marché intérieur et des libertés civiles du Parlement européen adopteront le règlement sur l'IA le 13 février prochain, suivi d'un vote en plénière provisoirement prévu pour les 10 et 11 avril. L'adoption formelle sera ensuite complétée par l'approbation au niveau ministériel.


La loi sur l'IA entrera en vigueur 20 jours après sa publication au journal officiel.

Les interdictions relatives aux pratiques prohibées commenceront à s'appliquer après six mois, tandis que les obligations relatives aux modèles d'IA entreront en vigueur au bout d' un an.


Toutes les autres règles entreront en vigueur au bout de deux ans, à l'exception de la classification des systèmes d'IA qui doivent faire l'objet d'une évaluation de conformité par un tiers en vertu d'autres règles de l'U.E






 

bottom of page