Naviguer dans les derniers développements de la réglementation de l’IA : ce que les entreprises doivent savoir

23 novembre 2023

Partager sur LinkedIn Partager sur Facebook Partager sur X

Les organismes de réglementation, les législateurs et les experts en technologie semblent s’entendre sur deux choses : l’intelligence artificielle (IA) est un élément important de notre avenir et elle a besoin de lignes directrices pour son utilisation. Dans le monde entier, il y a eu récemment une vague d’activités allant des décrets et des principes directeurs aux codes de conduite volontaires et aux propositions réglementaires.

Alors que l’Union européenne a été l’un des premiers chefs de file de la réglementation de l’IA avec son projet de loi sur l’IA de l’UE, d’autres organes directeurs ont rapidement emboîté le pas avec une variété d’approches pour réglementer une technologie qui continue d’évoluer. Alors que nous continuons à suivre les nouveaux développements dans la réglementation de l’IA, voici quelques mises à jour récentes qui pourraient avoir un impact sur la façon dont les entreprises de tous les secteurs utilisent l’IA dans leurs produits.

Les dirigeants du G7 s’entendent sur les principes directeurs de l’IA

Lors d’une réunion à la fin d’octobre, les dirigeants des économies du Groupe des Sept (G7) sont parvenus à un accord sur les Principes directeurs internationaux pour les organisations qui développent des systèmes d’IA avancés et uncode de conduite volontaire pour les organisations qui développent des systèmes d’IA avancés. Les deux documents visent à « promouvoir une IA sûre, sécurisée et digne de confiance dans le monde entier » et fournissent des conseils aux organisations développant l’IA, alors que les législateurs s’efforcent d’élaborer des réglementations.

Le code de conduite volontaire décrit 11 actions que les développeurs d’IA sont encouragés à suivre. Il s’agit notamment de prendre des mesures appropriées pour identifier, évaluer et atténuer les risques tout au long du cycle de vie de l’IA, ainsi que de rendre compte publiquement des capacités, des limites et des domaines d’utilisation appropriés des systèmes d’IA avancés pour contribuer à une responsabilisation accrue.

En annonçant l’accord, les dirigeants du G7 ont souligné que les Principes directeurs et le Code de conduite seraient des documents évolutifs qui « seront examinés et mis à jour au besoin » pour s’assurer qu’ils demeurent « adaptés à cette technologie en évolution rapide ». Bien que les mesures décrites par le G7 ne soient pas obligatoires, les entreprises ayant un intérêt direct dans l’IA devraient essayer de s’y conformer étant donné que les règlements qui suivent s’appuieront probablement sur ces modèles.

Le décret-loi des États-Unis décrit des normes radicales en matière de sûreté et de sécurité de l’IA

Également à la fin du mois d’octobre, le président Joe Biden a publié un décret sur l’intelligence artificielle sûre, sécurisée et digne de confiance, qui introduit de nouvelles exigences pour la sécurité de l’IA et décrit de nouvelles normes de sécurité à développer. Bien que la plupart aient accueilli le décret comme une première étape nécessaire, certains intervenants de l’industrie de la technologie ont soulevé des préoccupations quant à la nature générale de l’ordre et au potentiel qu’il a d’étouffer l’innovation.

Certaines des mesures clés décrites dans l’ordonnance comprennent une exigence selon laquelle les développeurs de systèmes d’IA « partagent leurs résultats de tests de sécurité et d’autres informations critiques avec le gouvernement américain » pour s’assurer que ces systèmes sont sûrs, sécurisés et fiables avant que les entreprises ne les rendent publics. L’ordonnance ordonne également à plusieurs organismes fédéraux d’élaborer des normes, des outils et des tests pour « aider à s’assurer que les systèmes d’IA sont sûrs, sécurisés et dignes de confiance ». Le calendrier de mise en œuvre des mesures prises dans le décret est relativement court, la plupart des délais ayant lieu entre 90 et 270 jours après la publication du décret.

Regard vers l’avenir

Les deux développements dans la gouvernance de l’IA décrits ci-dessus s’associent à une liste croissante d’efforts visant à gérer simultanément les risques de l’IA et à promouvoir l’innovation dans le domaine. Pour les entreprises qui développent des systèmes d’IA ou qui les utilisent dans leurs produits, il peut être difficile de suivre les directives volontaires et les réglementations obligatoires auxquelles elles devraient ou doivent se conformer. Alors que les législateurs continuent de tisser un réseau international de réglementations pour l’IA, traversant l’industrie, disposer d’une solide équipe de partenaires experts en matière de conformité, de protection de la marque et de litiges à leurs côtés deviendra crucial pour le succès des entreprises.

Mots clés : IA, Technologie de l’IA, Intelligence artificielle, Marque, Protection de la marque, Protection de la marque et rappel, Marques, Conformité, Europe, Litige, Préservation des marques, Rappel, réglementation, Sûreté, Sécurité, Avancées technologiques, Technologie