Autores

Por Mark Buckingham, consultor internacional en retiradas de productos

Las autoridades de competencia de la Unión Europea, el Reino Unido y los Estados Unidos han publicado unadeclaración conjuntasobre la competencia en los modelos base (FM) de inteligencia artificial (IA) generativa y los productos de IA. La Comisión Europea, la Autoridad de Competencia y Mercados del Reino Unido (CMA), el Departamento de Justicia de los Estados Unidos (DOJ) y la Comisión Federal de Comercio de los Estados Unidos (FTC) afirmaron en la declaración que «trabajarán para garantizar una competencia efectiva y un trato justo y honesto a los consumidores y las empresas» en el uso de productos de IA.

Esta declaración se produce en un contexto de enfoques dispares a la hora de regular el uso de la IA en las distintas jurisdicciones. Hasta ahora, la UE ha liderado el camino y ha sido la primera en introducir un marco legislativo integral con laLey de IA de la UE, que entró en vigor el 1 de agosto de 2024. Por su parte, el Reino Unido ha adoptado un enfoque no normativo que califica de «favorable a la innovación», según el cual los organismos reguladores existentes aplicarán cinco principios intersectoriales para la IA dentro de sus marcos normativos actuales. No obstante, el Reino Unido ha publicado un documento de opinión en el que se establecen siete principios que deben aplicarse al desarrollar e implementar sistemas de gestión de datos (FM). Este documento fue revisado en abril de 2024. En EE. UU., la Administración Biden ha recurrido a órdenes ejecutivas para establecer requisitos para el uso seguro de la IA, mientras que las agencias reguladoras trabajan en sus propias directrices sectoriales específicas para los productos de IA.

Riesgos relacionados con la IA central

La declaración conjuntaseñala tres riesgos fundamentales para la competencia asociados a los productos de inteligencia artificial:

  1. El control concentrado de los factores clave, lo que podría frenar la innovación o colocar a un pequeño número de empresas en una posición que les permita sacar partido de los cuellos de botella existentes o emergentes en el desarrollo de la IA. La preocupación radica en que estas empresas tendrían una influencia desmesurada sobre el desarrollo futuro de las herramientas de IA.
  2. Consolidar o ampliar el poder de mercado en los sectores relacionados con la inteligencia artificial. Esta cuestión podría plantearse si las grandes empresas digitales ya establecidas, que ya disfrutan de sólidas ventajas acumuladas, logran obtener aún más beneficios.
  3. Acuerdos en los que participan actores clave que amplifican los riesgosal socavar o cooptar a los competidores. Aunque las alianzas relacionadas con el desarrollo de la IA generativa pueden no perjudicar a la competencia en todos los casos, en algunas ocasiones podrían utilizarse para influir en los resultados del mercado a su favor, en detrimento del público.

Medidas para proteger el mercado

Además de identificar los principales riesgos, la declaración conjunta establece tres principios para proteger la competencia en el ecosistema de la IA. Estos se basan en los principios comunes ya existentes en mercados relacionados:

  1. El trato leal, según el cual las empresas con poder de mercado deben evitar las tácticas de exclusión para fomentar la innovación, la inversión y la competencia.
  2. La interoperabilidad, que potenciará la innovación y la competencia al facilitar la compatibilidad entre los productos de inteligencia artificial. Las autoridades de competencia señalan que cualquier afirmación de que la interoperabilidad exige sacrificar la privacidad y la seguridad será objeto de un minucioso escrutinio.
  3. La libertad de elección, que beneficiará a las empresas y a los consumidores del ecosistema de la inteligencia artificial. Según los reguladores, esto implica analizar minuciosamente las formas en que las empresas utilizan mecanismos de captación que impiden a los usuarios buscar o elegir otras opciones. Además, las autoridades examinarán las alianzas entre las empresas ya establecidas y las nuevas para garantizar que los acuerdos no eludan la normativa sobre fusiones ni otorguen a las primeras una influencia indebida.

Las autoridades de competencia también supervisarán y abordarán cualquier riesgo específico que pueda derivarse de otros avances y aplicaciones de la IA, más allá de la IA generativa. Los reguladores también señalarán los posibles perjuicios que la IA puede causar a los consumidores y «se mantendránalertaante cualquier amenaza para la protección de los consumidores que pueda derivarse del uso y la aplicación de la IA».

De cara al futuro

El desarrollo y el uso de la inteligencia artificial (IA) constituyen una prioridad para los organismos reguladores de todos los sectores y jurisdicciones. Aunque las autoridades que han emitido esta declaración conjunta han adoptado enfoques divergentes en materia de regulación de la IA, comparten el compromiso de examinar minuciosamente cualquier posible comportamiento anticompetitivo y de proteger a los consumidores frente a los perjuicios relacionados con la IA. Mientras los organismos reguladores trabajan en la elaboración de directrices para el uso seguro de la IA, las empresas deben seguir de cerca las novedades y auditar periódicamente sus propias operaciones para garantizar que se ajustan a las mejores prácticas y a las nuevas normas. 

Con la confianza de las principales marcas mundiales, el servicio de protección de marcas de Sedgwick ha gestionado más de 7.000 retiradas de productos, entre las más urgentes y delicadas, en más de 100 países y en más de 50 idiomas a lo largo de 30 años. Para obtener más información sobre nuestras soluciones de retirada y corrección de productos, visite nuestro sitio webaquí.