6 juillet 2023
L’intelligence artificielle (IA) est partout, mais elle a été largement non réglementée jusqu’à présent. L’Union européenne cherche à changer cela avec sa proposition de loi sur l’IA de l’UE. Le Parlement européen a franchi un pas majeur en matière de réglementation de l’IA au début juin lorsque ses membres se sont entendus sur un projet de version de la loi.
La Loi a été proposée pour la première fois par la Commission européenne en 2021, et beaucoup de choses ont changé avec l’IA depuis – surtout avec l’essor des produits d’IA générative. Par conséquent, il n’est pas surprenant que la position de négociation adoptée par le Parlement diffère de celle de la Commission ou du Conseil européen adoptée en 2022. Les différences entre les trois versions du projet de loi sur l’IA pourraient prolonger les négociations et les règlements finaux. Cependant, les entreprises qui fournissent ou utilisent des systèmes d’IA peuvent anticiper l’orientation approximative des règlements et devraient commencer à se préparer.
La Loi sur l’IA adopte une approche axée sur le risque pour réglementer l’IA, en définissant des réglementations plus strictes pour les applications d’IA qui représentent une menace plus grande pour la sécurité des utilisateurs. Les systèmes d’IA qui entrent dans la catégorie du « risque inacceptable » de la loi seraient interdits dans l’UE.
Changements clés
La position adoptée par le Parlement européen va plus loin que les versions de la Commission et du Conseil, avec de nouvelles obligations pour les fournisseurs et un champ d’application élargi pour ce qui qualifie de système d’IA à haut risque. Parmi les changements clés, on compte :
- Une définition plus stricte d’un système de renseignement basé sur l’IA qui correspond à la définition de l’Organisation de coopération et de développement économiques (OCDE). Le projet définit un système d’IA comme un « système basé sur une machine conçu pour fonctionner avec différents niveaux d’autonomie et qui peut, pour des objectifs explicites ou implicites, générer des résultats tels que des prédictions, des recommandations ou des décisions qui influencent les environnements physiques ou virtuels. »
- Une liste plus large de systèmes d’IA classés comme « risques inacceptables » qui seront strictement interdits. Cette liste comprend maintenant de nombreux systèmes d’identification biométrique à distance, des systèmes de police prédictive, des systèmes de reconnaissance des émotions et des systèmes de catégorisation biométrique par « notation sociale ».
- Une classification élargie des systèmes à haut risque pour inclure ceux qui pourraient nuire à la santé, à la sécurité ou aux droits fondamentaux des personnes, ainsi qu’à l’environnement, entre autres.
- Obligations pour les fournisseurs de modèles de fondation à effectuer des évaluations des risques pour leurs systèmes, ainsi qu’à s’enregistrer dans une base de données européenne.
- De nouvelles exigences de transparence pour les modèles de fondation générative doivent se conformer, telles que la divulgation de la date de génération de contenu par l’IA, la conception de modèles d’IA pour éviter qu’ils ne génèrent du contenu illégal, et la publication de résumés des données protégées par le droit d’auteur utilisées par les modèles pour l’entraînement.
La position adoptée aborde également l’IA générative, qui était moins préoccupante dans les versions précédentes. Ces changements incluent :
La Loi sur l’IA est maintenant en négociation complète pour la Commission, le Conseil et le Parlement afin de déterminer le texte final de la loi, ce qui pourrait se poursuivre jusqu’à la fin de l’année. Comme nous l’avons vu dans d’autres industries, notamment avec les dispositifs médicaux, les réglementations énoncées dans la Loi sur l’IA pourraient bientôt devenir obsolètes compte tenu du rythme rapide de l’innovation technologique en IA. Les législateurs prennent des mesures pour remédier à ce dilemme, mais pour l’instant, l’accent semble être mis sur la création d’une base pour réguler les systèmes d’IA.
Les entreprises de tous secteurs – qu’elles fournissent ou utilisent l’IA ou non – devraient suivre de près les progrès de la Loi sur l’IA. Bien qu’il n’entre probablement en vigueur qu’en 2026, on s’attend à des conséquences majeures en cas de non-conformité. Par exemple, la mise en place d’un système d’IA inacceptable sur le marché européen serait sanctionnée par des amendes administratives allant jusqu’à 40 millions d’euros, soit 7% du chiffre d’affaires annuel mondial total d’une entreprise (selon le chiffre le plus élevé) selon la position adoptée par le Parlement.
Alors que l’IA est de plus en plus considérée comme la technologie du futur, et que d’autres gouvernements devraient utiliser la Loi sur l’IA de l’UE comme modèle pour leurs propres règlements, les entreprises devraient prendre des mesures dès maintenant pour ajuster leurs opérations en matière d’IA et de ses règlements.
Pour découvrir comment cette technologie naissante est sur le point de révolutionner la sécurité des consommateurs et des produits, inscrivez-vous à notre webinaire ici. Au cours de cette session exclusive de 45 minutes, notre panel d’experts partagera son point de vue sur l’impact potentiel de l’IA sur les pratiques commerciales tout au long du cycle de vie du produit. Ne manquez pas l’occasion – inscrivez-vous ici.
Australie
Canada
Danemark
France
Irlande
Pays-Bas
Nouvelle-Zélande
Espagne et Portugal
Royaume-Uni
États-Unis