La UE avanza en su primera normativa sobre IA

6 de julio de 2023

El resplandor de una pantalla de ordenador en la cara de una mujer.
Compartir en LinkedIn Compartir en Facebook Compartir en X

La inteligencia artificial (IA) está en todas partes, pero hasta ahora no ha estado regulada. La Unión Europea quiere cambiar esta situación con su propuesta de Ley Europea de Inteligencia Artificial. El Parlamento Europeo dio un gran paso adelante en la regulación de la IA a principios de junio, cuando sus miembros acordaron una versión preliminar de la Ley.

La Ley fue propuesta por primera vez por la Comisión Europea en 2021, y la IA ha cambiado mucho desde entonces, especialmente con el auge de los productos de IA generativa. Como resultado, no es inesperado que la posición negociadora adoptada por el Parlamento difiera de la posición de la Comisión o del Consejo Europeo adoptada en 2022. Las diferencias entre las tres versiones del proyecto de Ley de IA pueden prolongar las negociaciones y la normativa final. Sin embargo, las empresas que proporcionan o utilizan sistemas de IA pueden anticipar la dirección aproximada de la normativa y deberían empezar a prepararse.

La Ley de IA adopta un enfoque basado en el riesgo para regular la IA, esbozando normativas más estrictas para las aplicaciones de IA que supongan una mayor amenaza para la seguridad de los usuarios. Los sistemas de IA que entren en la categoría de "riesgo inaceptable" de la Ley estarían prohibidos en la UE.

Principales cambios

La posición adoptada por el Parlamento Europeo va más lejos que las versiones de la Comisión y el Consejo, con nuevas obligaciones para los proveedores y un mayor alcance de lo que se considera un sistema de IA de alto riesgo. Algunos de los cambios clave son:

  • Una definición más estricta de sistema de inteligencia artificial que se ajusta a la de la Organización de Cooperación y Desarrollo Económicos (OCDE). El borrador define un sistema de IA como un "sistema basado en máquinas que está diseñado para funcionar con distintos niveles de autonomía y que puede, con objetivos explícitos o implícitos, generar resultados tales como predicciones, recomendaciones o decisiones que influyen en entornos físicos o virtuales".
  • Una lista más amplia de sistemas de IA clasificados como de "riesgo inaceptable" que serán estrictamente prohibidos. Esa lista incluye ahora muchos sistemas de identificación biométrica a distancia, sistemas policiales predictivos, sistemas de reconocimiento de emociones y sistemas de categorización biométrica de "puntuación social".
  • Una clasificación ampliada de los sistemas de alto riesgo para incluir aquellos que puedan causar daños a la salud, la seguridad o los derechos fundamentales de las personas, así como causar daños al medio ambiente, entre otros.
  • Obligación para los proveedores de modelos de cimentación de realizar evaluaciones de riesgo de sus sistemas, así como de registrarse en una base de datos de la UE.
  • Nuevos requisitos de transparencia que deben cumplir los modelos de fundamentos generativos, como revelar cuándo los contenidos han sido generados por IA, diseñar modelos de IA para evitar que generen contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor que los modelos utilizan para entrenarse.

La posición adoptada también aborda la IA generativa, que preocupaba menos en versiones anteriores. Entre esos cambios figuran:

La Ley de IA pasa ahora a negociaciones completas para que la Comisión, el Consejo y el Parlamento determinen el texto final de la ley, lo que podría llevar hasta finales de año. Como hemos visto en otros sectores, por ejemplo en el de los productos sanitarios, la normativa de la Ley de IA puede quedar obsoleta en breve, dado el rápido ritmo de innovación de la tecnología de IA. Los legisladores están tomando medidas para hacer frente a este dilema, pero por ahora la atención parece centrarse en crear una base para regular los sistemas de IA.

Las empresas de todos los sectores, proporcionen o utilicen IA o no, deberían seguir de cerca los avances de la Ley de IA. Aunque es probable que no entre en vigor hasta 2026, se espera que su incumplimiento tenga graves consecuencias. Por ejemplo, colocar un sistema de IA inaceptable en el mercado de la UE se castigaría con multas administrativas de hasta 40 millones de euros o el 7% de la facturación anual total mundial de una empresa (la cifra que sea más alta) según la posición adoptada por el Parlamento.

Dado que la IA se considera cada vez más la tecnología del futuro, y que se espera que otros gobiernos utilicen la Ley de IA de la UE como modelo para sus propias normativas, las empresas deben tomar medidas ahora para ajustar sus operaciones a la IA y sus normativas.

Para descubrir cómo esta tecnología naciente está llamada a revolucionar la seguridad de los consumidores y los productos, inscríbase en nuestro seminario web aquí. Durante esta sesión exclusiva de 45 minutos, nuestro panel de expertos compartirá su perspectiva sobre el impacto potencial de la IA en las prácticas empresariales a lo largo del ciclo de vida del producto. No se lo pierda: inscríbase aquí.

Etiquetas: Avances tecnológicos, Inteligencia Artificial, avances tecnológicos, Europa, normativa, Tecnología