L'UE va de l'avant avec la première réglementation de ce type pour l'IA

6 juillet 2023

La lueur d'un écran d'ordinateur sur le visage d'une femme.
Partager sur LinkedIn Partager sur Facebook Partager sur X

L'intelligence artificielle (IA) est omniprésente, mais elle n'a jusqu'à présent fait l'objet d'aucune réglementation. L'Union européenne cherche à changer cela avec sa proposition de loi sur l'IA. Le Parlement européen a fait un grand pas en avant dans la réglementation de l'IA au début du mois de juin lorsque ses membres se sont mis d'accord sur une version préliminaire de la loi.

L'acte a été proposé pour la première fois par la Commission européenne en 2021, et l'IA a beaucoup évolué depuis lors, notamment avec l'essor des produits d'IA générative. Il n'est donc pas surprenant que la position de négociation adoptée par le Parlement diffère de celle de la Commission ou du Conseil européen adoptée en 2022. Les différences entre les trois versions du projet de loi sur l'IA pourraient prolonger les négociations et les réglementations finales. Toutefois, les entreprises qui fournissent ou utilisent des systèmes d'IA peuvent anticiper l'orientation approximative de la réglementation et devraient commencer à s'y préparer.

La loi sur l'IA adopte une approche fondée sur le risque pour réglementer l'IA, en définissant des règles plus strictes pour les applications d'IA qui représentent une menace plus importante pour la sécurité des utilisateurs. Les systèmes d'IA qui tombent dans la catégorie "risque inacceptable" de la loi seraient interdits dans l'UE.

Principaux changements

La position adoptée par le Parlement européen va plus loin que les versions de la Commission et du Conseil, avec de nouvelles obligations pour les fournisseurs et des champs d'application élargis pour ce qui est de la qualification d'un système d'IA à haut risque. Voici quelques-uns des principaux changements :

  • Une définition plus stricte d'un système d'intelligence artificielle qui s'aligne sur la définition de l'Organisation de coopération et de développement économiques (OCDE). Le projet définit un système d'intelligence artificielle comme un "système basé sur une machine qui est conçu pour fonctionner avec différents niveaux d'autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent des environnements physiques ou virtuels".
  • Une liste élargie de systèmes d'IA classés dans la catégorie des "risques inacceptables" qui seront strictement interdits. Cette liste comprend désormais de nombreux systèmes d'identification biométrique à distance, des systèmes de police prédictive, des systèmes de reconnaissance des émotions et des systèmes de catégorisation biométrique par "notation sociale".
  • Une classification élargie des systèmes à haut risque pour inclure ceux qui pourraient nuire à la santé, à la sécurité ou aux droits fondamentaux des personnes, ainsi qu'à l'environnement, entre autres.
  • Obligation pour les fournisseurs de modèles de fondation de procéder à des évaluations des risques pour leurs systèmes et de s'enregistrer dans une base de données de l'UE.
  • De nouvelles exigences de transparence pour les modèles de fondation génératifs, telles que la divulgation du moment où le contenu a été généré par l'IA, la conception de modèles d'IA pour les empêcher de générer du contenu illégal, et la publication de résumés des données protégées par le droit d'auteur que les modèles utilisent pour l'entraînement.

La position adoptée aborde également la question de l'IA générative, qui était moins préoccupante dans les versions précédentes. Ces changements sont les suivants :

La loi sur l'IA va maintenant faire l'objet de négociations approfondies entre la Commission, le Conseil et le Parlement afin de déterminer le texte final de la loi, ce qui pourrait prendre jusqu'à la fin de l'année. Comme nous l'avons vu dans d'autres secteurs, tels que les dispositifs médicaux, les réglementations décrites dans la loi sur l'IA pourraient bientôt être obsolètes compte tenu du rythme rapide de l'innovation dans le domaine de la technologie de l'IA. Les législateurs prennent des mesures pour résoudre ce dilemme, mais pour l'instant, l'accent semble être mis sur la création d'une base pour la réglementation des systèmes d'IA.

Les entreprises de tous les secteurs - qu'elles fournissent ou utilisent l'IA ou non - devraient suivre de près l'évolution de la loi sur l'IA. Bien qu'elle n'entre probablement pas en vigueur avant 2026, les conséquences en cas de non-respect de la loi devraient être lourdes. Par exemple, la mise sur le marché européen d'un système d'IA inacceptable serait sanctionnée par des amendes administratives pouvant aller jusqu'à 40 millions d'euros ou 7 % du chiffre d'affaires annuel mondial total d'une entreprise (le chiffre le plus élevé étant retenu), selon la position adoptée par le Parlement.

L'IA étant de plus en plus considérée comme la technologie de l'avenir, et d'autres gouvernements étant susceptibles d'utiliser la loi européenne sur l'IA comme modèle pour leurs propres réglementations, les entreprises devraient prendre des mesures dès maintenant pour adapter leurs activités à l'IA et à ses réglementations.

Pour découvrir comment cette technologie naissante va révolutionner la sécurité des consommateurs et des produits, inscrivez-vous à notre webinaire ici. Au cours de cette session exclusive de 45 minutes, notre panel d'experts partagera son point de vue sur l'impact potentiel de l'IA sur les pratiques commerciales tout au long du cycle de vie des produits. Ne manquez pas cette occasion - inscrivez-vous ici.

Tags : IA, Intelligence Artificielle, Europe, réglementations, Avancées technologiques, Technologie