L'intelligence artificielle (IA) est omniprésente, mais elle n'a jusqu'à présent fait l'objet d'aucune réglementation. L'Union européenne souhaite changer cela avec son projet de loi sur l'IA. Le Parlement européen a franchi une étape importante dans la réglementation de l'IA début juin, lorsque ses membres se sont mis d'accord sur uneversion préliminaire de la loi.

La loi a étéproposée pour la première foispar la Commission européenne en 2021, et beaucoup de choses ont changé depuis lors dans le domaine de l'IA, notamment avec l'essor des produits d'IA générative. Il n'est donc pas surprenant que la position de négociation adoptée par le Parlement diffère decellede la Commission oudu Conseil européenadoptée en 2022. Les différences entre les trois versions du projet de loi sur l'IA pourraient prolonger les négociations et retarder l'adoption de la réglementation finale. Cependant, les entreprises qui fournissent ou utilisent des systèmes d'IA peuvent anticiper l'orientation générale de la réglementation et commencer à s'y préparer.

La loi sur l'IA adopte une approche fondée sur les risques pour réglementer l'IA, en définissant des règles plus strictes pour les applications d'IA qui présentent un risque plus important pour la sécurité des utilisateurs. Les systèmes d'IA qui entrent dans la catégorie des « risques inacceptables » de la loi seraient interdits dans l'UE.

Changements clés

La position adoptée par le Parlement européen va plus loin que celles de la Commission et du Conseil, avec de nouvelles obligations pour les fournisseurs et un élargissement du champ d'application de ce qui est considéré comme un système d'IA à haut risque. Parmi les principaux changements, on peut citer :

  • Une définition plus stricte d'un système d'intelligence artificielle qui s'aligne sur celle de l'Organisation de coopération et de développement économiques (OCDE). Le projet définit un système d'IA comme un « système basé sur une machine, conçu pour fonctionner avec différents niveaux d'autonomie et capable, pour des objectifs explicites ou implicites, de générer des résultats tels que des prévisions, des recommandations ou des décisions qui influencent des environnements physiques ou virtuels ».
  • Une liste plus complète des systèmes d'IA classés comme présentant un « risque inacceptable » qui seront strictement interdits. Cette liste comprend désormais de nombreux systèmes d'identification biométrique à distance, des systèmes de police prédictive, des systèmes de reconnaissance des émotions et des systèmes de catégorisation biométrique par « notation sociale ».
  • Une classification élargie des systèmes à haut risque afin d'inclure ceux qui pourraient nuire à la santé, à la sécurité ou aux droits fondamentaux des personnes, ainsi qu'à l'environnement, entre autres.
  • Obligations pour les fournisseurs de modèles de base d'effectuer des évaluations des risques pour leurs systèmes et de s'enregistrer dans une base de données de l'UE.
  • Nouvelles exigences de transparence auxquelles doivent se conformer les modèles de base génératifs, telles que la divulgation des contenus générés par l'IA, la conception de modèles d'IA empêchant la génération de contenus illégaux et la publication de résumés des données protégées par le droit d'auteur utilisées par les modèles pour l'entraînement.

La position adoptée aborde également l'IA générative, qui était moins préoccupante dans les versions précédentes. Ces changements comprennent :

La loi sur l'IA fait désormais l'objet de négociations approfondies entre la Commission, le Conseil et le Parlement afin de déterminer le texte final de la loi, ce qui pourrait prendre jusqu'à la fin de l'année. Comme nous l'avons vu dans d'autres secteurs, tels que celui des dispositifs médicaux, les réglementations énoncées dans la loi sur l'IA pourraient bientôt devenir obsolètes compte tenu du rythme rapide de l'innovation dans le domaine des technologies d'IA. Les législateurs prennent des mesures pour remédier à ce dilemme, mais pour l'instant, l'accent semble être mis sur la création d'une base pour réglementer les systèmes d'IA.

Les entreprises de tous les secteurs, qu'elles fournissent ou utilisent l'IA ou non, devraient suivre de près l'évolution de la loi sur l'IA. Même si elle n'entrera probablement pas en vigueur avant 2026, son non-respect devrait avoir des conséquences importantes. Par exemple, la mise sur le marché européen d'un système d'IA non conforme serait sanctionnée par des amendes administratives pouvant atteindre 40 millions d'euros ou 7 % du chiffre d'affaires annuel mondial total de l'entreprise (le montant le plus élevé étant retenu), selon la position adoptée par le Parlement.

L'IA étant de plus en plus considérée comme la technologie du futur, et d'autres gouvernements devant s'inspirer de la loi européenne sur l'IA pour élaborer leurs propres réglementations, les entreprises devraient dès à présent prendre des mesures pour adapter leurs activités à l'IA et à ses réglementations.

Pour découvrir comment cette technologie naissante va révolutionner la sécurité des consommateurs et des produits, inscrivez-vous à notre webinaireici. Au cours de cette session exclusive de 45 minutes, notre panel d'experts partagera son point de vue sur l'impact potentiel de l'IA sur les pratiques commerciales tout au long du cycle de vie des produits. Ne manquez pas cette occasion, inscrivez-vousici.