Les autorités de la concurrence de l'Union européenne, du Royaume-Uni et des États-Unis ont publié une déclaration commune concernant la concurrence dans les modèles de base d'intelligence artificielle générative (IA) et les produits d'IA. La Commission européenne, l'autorité britannique de la concurrence et des marchés (CMA), le ministère américain de la justice (DOJ) et la Commission fédérale du commerce (FTC) des États-Unis ont indiqué dans cette déclaration qu'ils "s'efforceront de garantir une concurrence effective et un traitement équitable et honnête des consommateurs et des entreprises" dans l'utilisation des produits d'IA.
Cette déclaration intervient alors que les approches en matière de réglementation de l'utilisation de l'IA varient d'une juridiction à l'autre. Jusqu'à présent, l'UE a ouvert la voie et a été la première à introduire un cadre législatif complet avec la loi européenne sur l'IA qui est entrée en vigueur le 1er août 2024. Entre-temps, le Royaume-Uni a adopté une approche non législative qu'il qualifie de "pro-innovation", dans le cadre de laquelle les régulateurs existants appliqueront cinq principes intersectoriels pour l'IA dans leurs cadres réglementaires existants. Toutefois, le Royaume-Uni a publié un document d'opinion établissant sept principes qui devraient être utilisés lors du développement et du déploiement des FM. Ce document a été révisé en avril 2024. Aux États-Unis, l'administration Biden a eu recours à des décrets pour établir des exigences relatives à l'utilisation sûre de l'IA, tandis que les organismes de réglementation travaillent sur leurs propres lignes directrices sectorielles pour les produits d'IA.
Risques centraux liés à l'IA
La déclaration commune reconnaît trois risques principaux pour la concurrence associés aux produits d'IA :
- La concentration du contrôle des intrants clés, qui pourrait potentiellement étouffer l'innovation ou mettre un petit nombre d'entreprises en position d'exploiter les goulets d'étranglement existants ou émergents dans le développement de l'IA. La crainte est que ces entreprises aient une influence démesurée sur le développement futur des outils d'IA.
- Renforcement ou extension du pouvoir de marché sur les marchés liés à l'IA. Cette question peut se poser si les grandes entreprises numériques en place, qui bénéficient déjà d'avantages accumulés importants, réalisent des gains encore plus importants.
- Les accords impliquant des acteurs clés amplifient les risques en sapant ou en cooptant les menaces concurrentielles. Si les partenariats liés au développement de l'IA générative ne nuisent pas toujours à la concurrence, ils pourraient dans certains cas être utilisés pour orienter les résultats du marché en leur faveur, au détriment du public.
Mesures de protection du marché
Outre l'identification des principaux risques, la déclaration commune énonce également trois principes visant à protéger la concurrence dans l'écosystème de l'IA. Ces principes s'appuient sur les principes communs existants dans les marchés connexes :
- L'utilisation équitable, selon laquelle les entreprises disposant d'un pouvoir de marché doivent éviter les tactiques d'exclusion afin d'encourager l'innovation, l'investissement et la concurrence.
- L'interopérabilité, qui renforcera l'innovation et la concurrence en permettant une plus grande compatibilité entre les produits d'IA. Les autorités de la concurrence notent que toute affirmation selon laquelle l'interopérabilité nécessite des sacrifices en matière de protection de la vie privée et de sécurité sera examinée de près.
- Le choix, qui profitera aux entreprises et aux consommateurs dans l'écosystème de l'IA. Selon les régulateurs, cela signifie qu'il faut examiner de près la manière dont les entreprises utilisent des mécanismes de verrouillage qui empêchent les utilisateurs de chercher ou de choisir d'autres options. En outre, les autorités examineront les partenariats entre les entreprises en place et les nouveaux venus pour s'assurer que les accords n'échappent pas à l'application de la législation sur les fusions ou ne donnent pas aux entreprises en place une influence indue.
Les autorités de la concurrence surveilleront et traiteront également tout risque spécifique pouvant découler d'autres développements et applications de l'IA au-delà de l'IA générative. Les régulateurs attireront également l'attention sur le préjudice potentiel que l'IA peut causer aux consommateurs et "seront vigilants à l'égard de toute menace pour la protection des consommateurs pouvant découler de l'utilisation et de l'application de l'IA".
Perspectives d'avenir
Le développement et l'utilisation de l'IA constituent une priorité pour les régulateurs de tous les secteurs et de toutes les juridictions. Bien que les autorités qui ont publié cette déclaration commune aient adopté des approches divergentes en matière de réglementation de l'IA, elles sont unies dans leur engagement à surveiller les comportements anticoncurrentiels potentiels et à protéger les consommateurs contre les dommages liés à l'IA. Alors que les régulateurs travaillent à l'élaboration de lignes directrices pour une utilisation sûre de l'IA, les entreprises devraient suivre de près les nouveaux développements et vérifier régulièrement leurs propres opérations pour s'aligner sur les meilleures pratiques et les nouvelles règles.
Sedgwick a géré plus de 7 000 rappels de produits parmi les plus sensibles et les plus urgents, dans plus de 100 pays et plus de 50 langues, au cours des 30 dernières années. Pour en savoir plus sur nos solutions de rappel de produits et de remédiation, visitez notre site Web ici.
Tags : IA, Intelligence artificielle, Marque, Protection des marques, Consommateur, Europe, Préservation des marques, rappel, réglementation, recherche et intelligence, Risque, Avancées technologiques, Technologie, Royaume-Uni, États-Unis