IA ACT : que comprend ce nouveau règlement européen ?

L’IA Act, est un règlement européen sur l’intelligence artificielle qui entrera en vigueur le 1er août prochain. Cette loi vise à marquer une distinction avec les approches américaine et chinoise et à terme à apporter un véritable avantage concurrentiel à l’Europe. Il s’agit d’ailleurs du premier règlement établit au niveau mondial pour encadrer l’utilisation de l’IA. 

Découvrez dans notre dernier article : les conditions de son entrée en vigueur, son adoption par le parlement européen et ses impacts sur les entreprises, notamment en matière de conformité, ainsi que sur les citoyens européens.

Présentation du IA ACT : une innovation juridique européenne

Le IA ACT est un règlement européen visant à encadrer l’usage et l’exploitation de l’intelligence artificielle. Il s’agit d’une première mondiale en matière de régulation de l’IA. L’ambition est de créer un cadre juridique harmonisé  dans l’Union européenne tout en favorisant l’innovation et l’adoption de systèmes fiables et sécurisés.

L’IA ACT est basé sur une approche du risque. En effet, le règlement définit 4 catégories d’utilisation de l’IA :

  • Risque inacceptable : Cette catégorie concerne les utilisations de l’IA qui sont interdites car jugées contraires aux valeurs européennes, comme par exemple, les systèmes de notation sociale. 
  • Risque élevé : Il englobe les systèmes d’IA qui nécessitent une conformité stricte avec le règlement. Ils doivent également respecter des obligations spécifiques.

  • Risque limité : Celui-ci comprend des systèmes d’IA qui doivent respecter certaines obligations de transparence. 

  • Risque minimal : Enfin, pour les systèmes d’IA présentant un risque minimal, aucune obligation spécifique n’est requise.

Cette classification permet d’apporter des réponses proportionnées aux enjeux posés par l’IA.

De plus, le texte met l’accent sur la protection des droits fondamentaux, la démocratie, l’État de droit et la durabilité environnementale. Il vise également à promouvoir le développement et l’utilisation d’une IA digne de confiance au sein de l’UE. Des enjeux stratégiques au vue du contexte géopolitique actuel. 

Le contexte de l’adoption du IA ACT en Europe

L’adoption du IA ACT s’inscrit dans un contexte où l’Europe cherche à renforcer son autonomie numérique. Face aux géants technologiques américains et chinois, l’UE a mis en place une régulation pour garantir une application de l’IA respectueuse des droits fondamentaux des citoyens et de l’environnement.

De plus, l’UE voit dans l’IA une opportunité de créer un écosystème de confiance, favorable à l’innovation et à l’adoption des technologies basées sur l’IA par les entreprises et les citoyens. 

La loi IA ACT est donc le tremplin vers une stratégie européenne ambitieuse pour se positionner en tant qu’acteur de référence dans le domaine de l’IA, tout en étant garant de la protection des citoyens et la promotion d’une IA éthique et durable.

L’entrée en vigueur du IA ACT : des étapes clés 

La publication au Journal officiel de l’Union européenne, une étape importante

La publication de l’IA ACT au Journal officiel de l’Union européenne s’est faite le 12 juillet dernier. Cette étape majeure marque le début de la prise d’effet de cette réglementation. Le journal officiel est l’organe officiel de l’Union où sont consignées les lois. La date de publication de l’IA Act dans ce dernier est donc importante, car elle déclenche l’entrée en vigueur du texte. Plus concrètement, l’IA ACT va entrer en vigueur progressivement à partir d’août 2024.

L’impact de la date d’entrée en vigueur pour les entreprises

La date d’entrée en vigueur de l’IA ACT va avoir un impact significatif sur les entreprises qui utilisent l’IA. Le délai de mise en conformité va varier en fonction du niveau de risque associé à leurs systèmes d’IA. Les entreprises doivent donc prendre des mesures pour se conformer à cette nouvelle réglementation européenne.

  • Les systèmes d’IA à usage général doivent se conformer à des exigences de transparence 12 mois après l’entrée en vigueur.
  • Les systèmes à haut risque disposent de plus de temps pour se conformer aux exigences, à savoir 36 mois. 

 

Ces délais permettent aux entreprises d’adapter leurs pratiques et de mettre en place les processus adéquats pour garantir leur conformité. Il est donc crucial qu’elles planifient leur stratégie de mise en conformité dans les meilleurs délais.

Quelles conséquences pour les citoyens européens ?

L’entrée en vigueur du IA ACT a également des répercussions directes sur les citoyens européens, en termes de protection des droits et de sûreté des systèmes d’IA.

Le texte assure une garantie de transparence sur l’utilisation des IA. Les citoyens bénéficient ainsi de droits renforcés et d’une meilleure traçabilité des IA, notamment celles classifiées comme étant à haut risque. Les systèmes d’IA discriminatoires ou susceptibles d’entraver les droits fondamentaux sont interdits, ce qui renforce de manière significativement la sécurité des citoyens.

L’IA ACT prévoit également la mise en place d’un bureau de l’IA. Cet organe de surveillance aura pour rôle de veiller à l’application de la régulation, et de protéger les citoyens européens d’abus éventuels.

Enfin, la loi prévoit des recours juridiques pour les personnes qui pourraient être impactées négativement par des systèmes d’IA. C’est une avancée importante pour les droits des citoyens.

IA ACT : que comporte concrètement le texte ?

L’IA ACT traite de multiples aspects de l’intelligence artificielle. Il est structuré en plusieurs parties abordant différents pans. 

Le règlement comporte entre autre une série d’obligations spécifiques pour les fournisseurs d’IA, y compris les fournisseurs d’applications et les fournisseurs de modèles. Ces obligations visent à garantir la sécurité, la transparence et la non-discrimination des systèmes d’IA.

  • Il regroupe aussi des dispositions relatives à la gouvernance de l’IA et à la protection des données.
  • Il insiste sur la nécessité d’un enregistrement des activités liées à l’IA pour assurer leur suivi et leur contrôle. 
  • Il aborde également la question des sanctions financières en cas de non-respect des règles établies.

 

Le texte examine en outre les risques liés à l’IA, tels que les comportements dangereux et la notation sociale, et propose des mesures pour les atténuer.

Il évoque aussi le rôle des différentes organisations dans la mise en œuvre de la réglementation et le soutien à l’innovation dans le domaine de l’IA.

Enfin, le règlement insiste sur l’importance de la durabilité environnementale dans le développement de l’IA. 

Les pratiques d’IA interdites par le IA ACT

Le IA ACT interdit explicitement certaines pratiques d’IA jugées inacceptables car contraires aux valeurs européennes. Parmi ces interdictions, on retrouve :

  • L’usage de techniques considérée subliminales ou manipulatrices destinées à altérer le comportement d’une personne de manière substantielle et préjudiciable. 
  • L’utilisation de l’IA à des fins de police prédictive basée sur le profilage et les systèmes qui exploitent des données biométriques pour classer les individus selon des critères tels que la race, la religion ou l’orientation sexuelle.
  • Les systèmes d’IA de notation sociale et ceux susceptibles d’entraver les droits fondamentaux sont également proscrits.

 

Le non-respect de ces interdictions peut entraîner des sanctions sévères, notamment pour les entreprises.

Liste des utilisations jugées à à haut risque selon le IA ACT

Selon l’IA ACT, certaines exploitations d’IA sont considérées comme étant à haut risque. Ces demandes sont soumises à des exigences spécifiques pour garantir leur conformité à la réglementation et éviter les débordements. 

Les utilisations à haut risque comprennent notamment :

  • Les systèmes d’IA utilisés dans les domaines de la santé, la sécurité ou les droits des personnes, lorsque leur défaillance ou dysfonctionnement peut mettre en danger ces éléments.
  • Les systèmes d’IA destinés à interagir avec des personnes physiques.
  • Les systèmes de reconnaissance des émotions et de catégorisation biométrique.
  • Les systèmes d’IA qui manipulent des informations de manière trompeuse tels que les deep fake que nous avons fleurir ces derniers mois et particulièrement dangereuses. Cela pouvant créer des failles de cybersécurités pour les entreprises. 

 

Ces systèmes d’IA à haut risque sont soumis à une analyse de risque par l’entreprise et doivent être déclarés aux autorités. Ces dernières doivent également respecter des obligations spécifiques, comme le marquage CE et l’enregistrement, sous peine de sanctions financières.

Qu’est ce que le marquage CE et l’enregistrement ? 

Le marquage CE est un indicateur de conformité à certaines normes de l’Union Européenne. Pour les systèmes d’IA, ce marquage certifie que le produit respecte les exigences de sécurité, de santé et de protection de l’environnement de l’UE.

L’enregistrement, quant à lui, fait référence à l’obligation d’inscrire les systèmes d’IA à haut risque dans une base de données européenne spécifique. Cela permettra aux autorités de mieux superviser leur utilisation et garantir leur conformité. 

L’approche française du IA ACT : quelles spécificités ?

La France, en tant qu’acteur de premier plan au sein de l’Union Européenne, a apporté sa contribution spécifique à l’élaboration de l’IA ACT. Un regard sur les spécificités françaises de cette approche nous permet de mieux comprendre l’orientation adoptée.

En effet, l’écosystème IA français a été particulièrement actif dans l’analyse de la faisabilité opérationnelle de l’IA ACT. Le document du Hub France IA indique l’orientation règlementaire française adoptée. Cette position a été intégrée au texte final afin de refléter les besoins et les attentes spécifiques de la France.

Une des préoccupations majeures de la France a été la protection des données personnelles, en lien avec le RGPD – Règlement général sur la protection des données. Ainsi, la France a insisté sur la nécessité de garantir le respect de la vie privée et de la non-discrimination dans l’utilisation des systèmes d’IA.

La France a également poussé pour une approche réglementaire basée sur les risques, avec notamment des règles plus strictes pour les systèmes d’IA présentant un risque élevé pour la sécurité, la santé ou les droits des citoyens.

Enfin, la France a œuvré pour que l’IA ACT soit un outil favorisant l’innovation tout en protégeant les citoyens. Cela se reflète dans l’accent mis sur la nécessité d’équilibrer la régulation de l’IA et le soutien au développement technologique.

Quelles retombées économiques attendues du IA ACT en Europe ? 

Stimulation de la recherche et des capacités en intelligence artificielle

L’IA Act vise à stimuler la recherche et les capacités en intelligence artificielle (IA) en Europe. Il s’agit notamment de favoriser un environnement propice à l’innovation tout en instaurant un cadre réglementaire clair. L’objectif est de placer l’Europe en position de leader dans le domaine de l’IA.

  • Le IA Act se présente comme un levier pour les start-ups européennes et les chercheurs, leur offrant un cadre réglementaire clair qui peut stimuler l’innovation et la compétitivité au niveau mondial.
  • Il favorise également un apprentissage réglementaire basé sur des données probantes, ce qui peut aider à identifier et à surmonter les obstacles à l’innovation en matière d’IA.
  • Par ailleurs, l’IA Act met l’accent sur l’importance de l’investissement dans la recherche en IA pour soutenir le développement et l’adoption d’une IA digne de confiance.

Le IA ACT européen face aux approches américaine et chinoise de l’IA

L’IA ACT se distingue des approches américaine et chinoise en matière de régulation de l’IA.

Contrairement aux Etats-Unis, où la régulation se base sur des principes directeurs non contraignants, l’IA ACT impose des exigences strictes aux entreprises qui développent et déploient des systèmes d’IA.

En parallèle, la Chine a choisi pour une stratégie de développement rapide de l’IA, avec un soutien gouvernemental important, mais sans un cadre réglementaire aussi détaillé que celui proposé par l’Europe.

Le positionnement de l’Europe étant quant à lui très clair avec un souhait d’équilibre entre innovation, protection des citoyens et respect des valeurs européennes.

La conformité à la nouvelle loi IA ACT : quels impacts pour les entreprises ?

La mise en conformité avec l’IA ACT représente un enjeu majeur pour les entreprises. Celles-ci doivent désormais répondre à des obligations précises et rigoureuses, liées à l’utilisation de systèmes d’IA.

Pour se conformer à cette nouvelle réglementation, les entreprises doivent :

  • Réaliser une cartographie de leurs systèmes d’IA. C’est une étape cruciale car les obligations de mise en conformité s’appliquent à chaque système d’IA et non à l’entreprise dans son ensemble.
  • Prévoir une stratégie de mise en conformité. Cela peut comprendre l’établissement de codes de conduite, la mise en place de processus de contrôle et de documentation, et la révision des contrats avec les fournisseurs de services d’IA.
  • Évaluer les risques associés à leurs systèmes d’IA. Certains systèmes d’IA sont considérés comme à haut risque et sont donc soumis à des obligations spécifiques.

 

Il est essentiel que les entreprises anticipent ces démarches pour éviter d’être désavantagées face à leurs concurrents internationaux. Ce processus de conformité peut être complexe et nécessiter des ressources importantes, mais il est indispensable pour garantir une utilisation éthique et responsable de l’IA.

Chez VIALINK, tiers de confiance européen, et regtech du groupe Signaturit, le respect du RGPD, l’innovation et le développement de technologies développées autour de notre IA font partie de nos préoccupations quotidiennes. Nous sommes attentifs à proposer le meilleur service à nos clients avec des solutions souveraines, fiables et conformes à la réglementation en vigueur.

Ainsi l’IA Act va dans le sens des engagements du groupe tel que le respect des réglementations et bonnes pratiques européennes. 

Logo VIALINK
VIALINK

Partager

Facebook
Twitter
LinkedIn
Pinterest