Share on twitter
Tweet
Share on linkedin
Partager
Share on email
Envoyer

Transparence, responsabilité et éthique, quelles réglementations pour l’intelligence artificielle ?

IA Act - Micropole

 

« Une nouvelle ère s’annonce », explique Bruce Daley, chercheur à l’université de Stanford. Selon lui, « des technologies construites sur le modèle du cerveau humain, comme le deep learning, effectuent des tâches aussi variées que le diagnostic médical, l’évaluation des risques, le program trading, la détection de fraudes, la recommandation de produits, la classification d’images, la reconnaissance vocale, la traduction ou les véhicules autonomes. Et les premiers résultats parlent déjà d’eux-mêmes.»¹

L’intelligence artificielle (IA) est considérée comme l’une des technologies les plus prometteuses de notre époque, car elle peut offrir de nombreux avantages dans divers domaines tels que la santé, la finance, la fabrication, les transports et bien d’autres. Cependant, elle suscite également de nombreuses inquiétudes, notamment en ce qui concerne les risques potentiels pour l’emploi, la vie privée, la sécurité et la souveraineté nationale. Il est important de comprendre les avantages et les risques de l’IA afin de pouvoir en tirer le meilleur parti tout en minimisant les risques2.

 

L’intelligence artificielle fascine autant qu’elle inquiète

L’intelligence artificielle connaît un véritable essor depuis les années 2010. Rapidement, les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) ont investi massivement dans le domaine de l’intelligence artificielle et ont mis en place des équipes dédiées à la recherche et au développement de cette technologie. Depuis 2020, suite à la pandémie de COVID-19, l’utilisation de l’intelligence artificielle s’est accélérée dans divers domaines tels que la détection de la maladie, la recherche de vaccins et de traitements, et la prévision de la propagation, mais également dans le but de renforcer des mécanismes de sécurité, de lutte contre la fraude et de criminalité.

Le marché de l’IA devrait atteindre 11,1 milliards de dollars en 2025. Le Gartner estime que d’ici 2035, l’IA pourrait contribuer à augmenter la productivité mondiale de 40 % ³.

Le lancement de certaines intelligences artificielles a été largement acclamé pour leur pertinence et leur connaissance diversifiée dans différents domaines. Cependant, cette admiration initiale s’est transformée en méfiance et en crainte à mesure que les utilisateurs ont commencé à se rendre compte des risques associés à ces technologies. En décembre 2022, la revue Nature a exprimé ses préoccupations quant à la capacité des chercheurs à distinguer les résumés rédigés par des intelligences artificielles de ceux écrits par des scientifiques, ce qui a mis en évidence la difficulté à établir une confiance absolue en ces technologies.

À la lumière de cela, il est important de comprendre que les mécanismes d’IA peuvent porter atteinte à la vie privée, être discriminatoires, manipulateurs ou même produire des préjudices physiques, psychologiques ou économiques. Par conséquent, il est crucial d’évaluer soigneusement les avantages et les risques associés à l’IA afin de pouvoir l’utiliser de manière responsable et minimiser les éventuels dangers

L’intelligence artificielle : un cadre règlementaire naissant

Il existe actuellement peu de réglementations spécifiques à l’intelligence artificielle. Cependant, de nombreux gouvernements et organismes internationaux travaillent à élaborer des règles pour encadrer son utilisation et prévenir les risques. Il est important de s’assurer que l’IA respecte les lois et les normes éthiques en vigueur, notamment en matière de protection de la vie privée et de non-discrimination. 

Bien que les systèmes d’IA aient déjà été encadrés partiellement par le Règlement Général sur la Protection des Données personnelles (RGPD) en 2018, la Commission européenne a donc adopté le 21 avril 2021 une proposition de régulation, l’IA Act visant à proposer “un cadre juridique pour une IA digne de confiance”.

Ce futur règlement, qui serait le deuxième à portée extraterritoriale, pourrait entrer en vigueur entre 2023 et 2026. Ses objectifs sont clairs4:

  • Positionner l’Union Européenne comme acteur majeur sur la réglementation de l’IA,
  • Construire une stratégie européenne numérique cohérente et respectueuse des libertés et droits fondamentaux des individus,
  • Favoriser la coopération entre les états membres et empêcher la fragmentation du marché,
  • Faciliter le développement d’un marché unique pour des applications d’IA légales, sûres et dignes de confiance.

« L’UE veut établir des règles de jeu équitables pour tous les acteurs du marché et devenir « une référence internationale des règles de l’IA ».

Thomas Skordas, chercheur au CNRS

Un rôle clé pour les fournisseurs, distributeurs et utilisateurs (entreprises) pour assurer une maîtrise et la mise en place des systèmes d’IA

Fournisseurs, distributeurs et utilisateurs, tous ces acteurs sont impactés par la mise en place et le suivi des systèmes d’IA, car ils ont tous des rôles différents à jouer dans leur utilisation et leur gestion.

L’Artificial Intelligence Act s’appliquera aux acteurs5 suivants :

  • Les fournisseurs de systèmes d’IA, établis dans l’Union ou dans un pays tiers, qui mettent sur le marché ou mettent en service des systèmes d’IA dans l’UE,
  • Les distributeurs de systèmes d’IA situés dans un pays tiers lorsque les résultats générés par le système sont utilisés dans l’Union Européenne,
  • Les utilisateurs (personnes morales) de systèmes d’IA situés dans l’Union Européenne.

    Les fournisseurs responsables de développer et de fournir les technologies d’IA aux entreprises sont tenus avant la mise sur le marché ou l’utilisation de l’IA au sein de l’UE par de nombreuses obligations en matière d’évaluation de la conformité, de gestion de la qualité, d’information des autorités nationales compétences et de documentation technique.

Les utilisateurs (entreprises) utilisant ces technologies pour améliorer leurs opérations et augmenter leur efficacité, doivent respecter les prérequis des fournisseurs de systèmes d’IA (ex. : conditions générales d’utilisation…), assurer une surveillance humaine des systèmes d’IA, vérifier la bonne utilisation des données traitées et informer les fournisseurs en cas d’incidents ou de risques

L’Artificial Intelligence Act n’impactera pas :

  • Les autorités publiques d’un pays tiers ou organismes internationaux utilisant des systèmes d’IA dans le cadre d’accords internationaux de coopération policière et judiciaire avec l’Union ou avec un ou plusieurs États membres,
  • L’utilisation purement privée et non-commerciale du système d’IA.
 

Contenus et impacts de la règlementation pour les fournisseurs, distributeurs et consommateurs

La proposition de règlement est basée sur une approche par les risques qui implique une classification des systèmes d’IA par niveau de risque. Les régulateurs distinguent quatre catégories d’IA classées en fonction de leurs risques pour les individus :

  • Les systèmes d’IA à risques “inacceptables”. Ils incluent les mécanismes influençant les comportements, entraînant des discriminations notamment par le biais d’une classification des personnes (ex. : le refus d’un crédit à la suite d’un mauvais comportement social). La mise en place de ces systèmes est interdite.
  • Les systèmes d’IA “très risqués”. Huit systèmes ont été définis comme “très risqués” comme la formation professionnelle, l’accès aux services publics, les contrôles aux frontières, etc. Ces systèmes requièrent notamment la mise en place d’un dispositif de gestion des risques, une transparence claire vis à vis des individus ou encore une supervision humaine. Ces systèmes, une fois conformes, font l’objet d’un marquage CE garantissant la conformité de l’IA et la protection des droits des individus.
  • Les systèmes d’IA “avec obligation de transparence” ayant des interactions avec des humains, utilisés notamment pour détecter des émotions ou générant du contenu modifié (ex. : chabots). Ces systèmes peuvent être mis en place sous réserve d’une information totalement claire auprès du consommateur et de la mise en place d’un code de conduite.
  • Les systèmes d’IA à risques minimes ou nuls tels que la maintenance prédictive.

 

IA Act-réglementations-Micropole

Les manquements aux obligations prévues par l’Artificial Intelligence Act peuvent entraîner des sanctions pécuniaires et un préjudice d’image

 Comme pour le RGPD, l’Artificial Intelligence Act prévoit des sanctions financières en cas de non-respect de certaines obligations6  :

  • Jusqu’à 30 millions d’euros d’amende ou 6% du chiffre d’affaires mondial en cas de préjudices moraux ou physiques aux individus ou à leurs comportements directement ou indirectement, de discrimination et manquements aux principes d’approche par les risques,
  • 10 millions d’euros ou 2% du chiffre d’affaires annuel mondial en cas d’informations trompeuses ou inexactes,
  • 20 M d’€ ou 4% du chiffre d’affaires mondial en cas d’autres manquements aux autres obligations de l’Artificial Intelligence Act.

Au-delà de ces sanctions financières les entreprises peuvent s’attendre à un préjudice d’image en cas de non-respect des obligations prévues par le législateur. En effet, il est possible que les sanctions soient rendues publiques par les autorités de contrôle comme le sont celles du RGPD (Règlement général sur la protection des données).

 

Le projet “Artificial Intelligence Act” comporte des ambitions affirmées par l’Union Européenne, elles ne seront pas sans conséquences pour les acteurs de l’IA agissant sur le territoire européen.

Avec cette proposition de réglement, l’Union Européenne affirme une nouvelle fois sa volonté d’imposer une règlementation extraterritoriale face à des acteurs dominants tels que l’Asie ou l’Amérique. Après une réglementation centrée sur la protection des données personnelles et les droits des personnes concernées (RGPD), la Commission Européenne légifère sur une technologie et son cadre de mise en œuvre afin de favoriser innovation et éthique et de positionner l’Europe comme acteur majeur de l’intelligence artificielle.

Les entreprises doivent donc s’attendre dans les prochaines années à approfondir leurs méthodes d’approche par les risques pour mettre en conformité leurs processus mais aussi répondre à des problématiques nouvelles générées par l’évolution croissante des technologies

Célia Allouche
Senior Data privacy & Data governance Consultant
Éliott Mourier
Data compliance & Data privacy Manager
‏Sources :

1 et 2 : Microsoft

3 : CNRS

4 : CNIL

5 et 6 : Commission Européenne

La Data un levier pour vos enjeux de transformations RSE

La Data un levier pour vos enjeux...

Eliott Mourier, vous êtes manager Data compliance, comment accompagnez vous les sociétés…
La data : un enjeu stratégique au cœur du business

La data : un enjeu stratégique au...

L’exploitation des données permet aux entreprises de rester compétitives et de garantir…
ACCÉLÉREZ AVEC NOUS
ÊTES-VOUS DATA FLUENT ?

Contactez-nous