Fi Group

Intelligence Artificielle : introduction de l'AI Act

Le Parlement européen et le Conseil de l’Union européenne sont parvenus à un accord provisoire sur la législation sur l’intelligence artificielle suite à la proposition de projet de règlement faite par la Commission européenne en avril 2021. 

L’Union européenne a apporté des contributions impressionnantes au monde ; la loi sur l’IA en est une autre qui aura un impact significatif sur notre avenir numérique;

Dragoş TUDORACHE, député européen

L’intelligence artificielle fait partie des secteurs stratégiques pour la R&D Européenne et Française, avec d’importants dispositifs de soutien. Retrouvez les principaux appels à projet dans notre section dédiée.

L’AI Act, une proposition de la Commission européenne

Pourquoi réglementer l’IA ?

La loi sur l’intelligence artificielle (IA) introduit des règles spécifiques pour les modèles d’intelligence artificielle à usage général, garantissant ainsi la transparence tout au long de la chaîne de valeur.

Dans le cas de modèles plus puissants, qui pourraient présenter un certain nombre de risques systémiques, il y aura des obligations contraignantes supplémentaires liées à la gestion des risques et au suivi des incidents graves, à l’évaluation des modèles et aux preuves contradictoires.

Quel cadre juridique pour l’application de l’IA ?

Les nouvelles règles pour l’intelligence artificielle

Les nouvelles règles, qui s’appliqueront directement et de la même manière dans tous les États membres, suivent une approche fondée sur le risque et visent à définir une intelligence artificielle à l’épreuve du temps.

  • Risque minimal : La plupart des systèmes d’intelligence artificielle entrent dans la catégorie des risques minimes. Les applications à risque minimal, les systèmes de recommandation basés sur l’IA ou les filtres anti-spam peuvent bénéficier d’un passe-droit et de l’absence d’obligations. En effet, ces systèmes ne présentent que peu ou pas de risques pour les droits ou la sécurité des citoyens européens. Toutefois, les entreprises peuvent s’engager, sur une base volontaire, à établir des codes de conduite supplémentaires pour ces systèmes.
  • Haut risque : Les systèmes d’IA identifiés comme présentant un risque élevé devront répondre à des exigences plus strictes, notamment en ce qui concerne les systèmes d’atténuation des risques, les ensembles de données de haute qualité, le risque d’activité, la documentation détaillée, les informations claires pour l’utilisateur, la surveillance humaine et un niveau élevé de robustesse, d’exactitude et de cybersécurité.

Les domaines concernés par les systèmes d’intelligence artificielle à haut risque incluent, par exemple, l’eau, le gaz et l’électricité, les appareils médicaux, les systèmes d’accès aux institutions publiques, le recrutement de personnel, l’application de la loi, le contrôle des frontières, l’administration de la justice et les processus démocratiques.

Cette approche vise à garantir que les systèmes d’IA à haut risque respectent des normes strictes quant à la sécurité, la protection des droits fondamentaux, l’Etat de droit, l’environnement, la démocratie afin d’assurer la protection des consommateurs, des droits des utilisateurs et de la vie privée.

  • Risque spécifique lié à la transparence : lors de l’utilisation de systèmes d’intelligence artificielle tels que les “chatbots” (tels que ChatGPT), les utilisateurs doivent être conscients qu’ils interagissent avec une machine. De même, les contenus générés par l’IA devront être étiquetés comme tels et les utilisateurs devront être informés de l’utilisation de systèmes de catégorisation biométrique ou de reconnaissance des émotions.

En outre, les fournisseurs devront concevoir des systèmes de manière à ce que les contenus synthétiques puissent être détectés comme étant générés ou manipulés artificiellement.

Quelles seront les IA interdites en Europe après l’entrée en vigueur de l’AI Act ?

  • Risque inacceptable : tous les systèmes d’intelligence artificielle considérés comme une menace claire pour les droits fondamentaux des personnes seront interdits, y compris les systèmes qui manipulent le comportement humain, les jouets à assistance vocale qui incitent à un comportement dangereux ou les systèmes de “notation sociale” par les gouvernements ou les entreprises, ainsi que les applications de maintien de l’ordre préventif.

Il alors est essentiel d’établir des garde-fous afin d’encadrer l’utilisation de l’intelligence artificielle.

Amendes pour mauvaise application de l’IA

Les entreprises qui ne se conforment pas à ces règlements s’exposent à des sanctions sous forme d’amendes sur leur chiffre d’affaires :

  • 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial (le montant le plus élevé étant retenu) pour les infractions relatives aux applications interdites de l’IA.
  • 15 millions d’euros ou 3 % des ventes pour non-respect d’autres obligations.
  • En cas de fourniture d’informations incorrectes, des sanctions allant de 7,4 millions à 1,5 % du chiffre d’affaires annuel mondial peuvent être imposées.

Par ailleurs, des limites plus proportionnées sont prévues pour les amendes administratives imposées aux PME et aux jeunes entreprises en cas d’infraction à la réglementation de l’Union européenne (UE) en matière d’intelligence artificielle.

Gouvernance de la loi sur l’IA

Les autorités nationales de surveillance des marchés superviseront la mise en œuvre des nouvelles règles au niveau national et l’application des sanctions, le cas échéant. 

Par ailleurs, un nouvel Office européen de l’intelligence artificielle sera créé au sein de la Commission européenne afin d’assurer la coordination au niveau européen. Il s’agira du premier organisme au monde à mettre en œuvre les règles contraignantes établies par la loi.

Prochaines étapes : où en est l’AI Act ?

Pour que cet accord politique entre en vigueur, il doit être formellement approuvé par le Parlement européen et le Conseil. Il entrera en vigueur 20 jours après sa publication au Journal officiel.

Quid de la stratégie française en matière d’IA en 2023 ?

La stratégie française en matière d’IA a vu le jour en 2017, année à laquelle le Gouvernement s’est lancé dans une réflexion autour de son développement. 

Cette stratégie nationale, définie dans le cadre de la “Stratégie nationale pour l’intelligence artificielle” lancée dans le cadre de France 2030, est divisée en deux phases entre 2018 et 2025. La stratégie vise à préserver et consolider la souveraineté économique, technologique et politique du pays dans le domaine de l’IA. Dans le cadre de France 2030, cette stratégie est dotée d’1,5 milliards d’euros pour le développement d’une politique nationale en la matière.

En 2023, la France affiche de grandes ambitions en matière d’intelligence artificielle. En effet, le pays a lancé le Comité de l’intelligence artificielle générative le 19 septembre 2023, démontrant ainsi son engagement dans le développement et l’exploration de l’IA.

De plus, la France organisera le prochain Sommet sur la sécurité de l’intelligence artificielle, ce qui témoigne de son implication active dans la régulation et la sécurisation de l’IA.

Hub France IA

Le Hub France IA est une organisation qui s’engage à dynamiser l’écosystème de l’intelligence artificielle en France. Son objectif est d’encourager la proximité des acteurs pour accélérer le développement de projets opérationnels dans le domaine de l’IA.

Le Hub France IA vise à fédérer les acteurs français de l’IA et à accompagner l’écosystème pour favoriser le développement et l’adoption d’une intelligence artificielle responsable, éthique et performante.