Naviguer dans les derniers développements de la réglementation de l'IA : ce que les entreprises doivent savoir

23 novembre 2023

Partager sur LinkedIn Partager sur Facebook Partager sur X

Les régulateurs, les législateurs et les experts en technologie semblent s'accorder sur deux points : l'intelligence artificielle (IA) est un élément important de notre avenir et son utilisation doit être encadrée. Dans le monde entier, on a assisté récemment à un foisonnement d'activités allant de décrets et de principes directeurs à des codes de conduite volontaires et à des propositions de réglementation.

Si l'Union européenne a été la première à réglementer l'IA avec sa proposition de loi européenne sur l'IA, d'autres instances dirigeantes lui ont rapidement emboîté le pas en adoptant diverses approches pour réglementer une technologie qui ne cesse d'évoluer. Alors que nous continuons à suivre les nouveaux développements en matière de réglementation de l'IA, voici quelques mises à jour récentes qui pourraient avoir un impact sur la façon dont les entreprises de tous les secteurs utilisent l'IA dans leurs produits.

Les dirigeants du G7 s'accordent sur les principes directeurs de l'IA

Lors d'une réunion qui s'est tenue à la fin du mois d'octobre, les dirigeants des économies du groupe des sept (G7) sont parvenus à un accord sur des principes directeurs internationaux pour les organisations développant des systèmes d'IA avancés et sur un codede conduite volontairepour les organisations développant des systèmes d'IA avancés. Ces deux documents visent à "promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier" et à fournir des orientations aux organisations qui développent l'IA, alors que les législateurs travaillent à l'élaboration de réglementations.

Le code de conduite volontaire décrit 11 actions que les développeurs d'IA sont encouragés à suivre. Il s'agit notamment de prendre des mesures appropriées pour identifier, évaluer et atténuer les risques tout au long du cycle de vie de l'IA, ainsi que de rendre compte publiquement des capacités, des limites et des domaines d'utilisation appropriée des systèmes d'IA avancés, afin de contribuer à une plus grande responsabilisation.

En annonçant l'accord, les dirigeants du G7 ont souligné que les principes directeurs et le code de conduite seraient des documents évolutifs qui "seront réexaminés et mis à jour si nécessaire" pour s'assurer qu'ils restent "adaptés à cette technologie qui évolue rapidement". Bien que les actions décrites par le G7 ne soient pas obligatoires, les entreprises intéressées par l'IA devraient s'efforcer de s'y conformer, étant donné que les réglementations qui suivront s'inspireront probablement de ces modèles.

Le décret américain définit des normes très strictes en matière de sûreté et de sécurité de l'IA

Fin octobre également, le président Joe Biden a publié un décret sur l'intelligence artificielle sûre, sécurisée et digne de confiance, qui introduit de nouvelles exigences en matière de sécurité de l'intelligence artificielle et définit de nouvelles normes de sécurité à élaborer. Si la plupart des observateurs ont salué ce décret comme une première étape nécessaire, certains acteurs de l'industrie technologique se sont inquiétés de son caractère général et du risque d'étouffement de l'innovation qu'il comporte.

Parmi les principales mesures énoncées dans le décret figure l'obligation pour les développeurs de systèmes d'IA de "partager les résultats de leurs tests de sécurité et d'autres informations essentielles avec le gouvernement américain" afin de s'assurer que ces systèmes sont sûrs, sécurisés et fiables avant que les entreprises ne les rendent publics. Le décret ordonne également à plusieurs agences fédérales d'élaborer des normes, des outils et des tests pour "contribuer à garantir que les systèmes d'IA sont sûrs, sécurisés et dignes de confiance". Le délai de mise en œuvre des mesures prévues par le décret est relativement court, la plupart des échéances se situant entre 90 et 270 jours après la publication du décret.

Perspectives d'avenir

Les deux évolutions de la gouvernance de l'IA décrites ci-dessus s'ajoutent à une liste croissante d'efforts visant à gérer les risques de l'IA et à promouvoir l'innovation dans ce domaine. Pour les entreprises qui développent des systèmes d'IA ou qui les utilisent dans leurs produits, il peut être difficile de suivre les lignes directrices volontaires et les réglementations obligatoires auxquelles elles devraient ou doivent se conformer. Alors que les législateurs continuent de tisser un réseau international de réglementations pour l'IA, il est essentiel pour les entreprises d'avoir à leurs côtés une équipe solide de partenaires experts en matière de conformité, de protection de la marque et de contentieux.