6 de julio de 2023
La inteligencia artificial (IA) está presente en todas partes, pero hasta ahora ha estado prácticamente sin regular. La Unión Europea pretende cambiar esta situación con su propuesta de Ley de IA de la UE. El Parlamento Europeo dio un gran paso adelante en la regulación de la IA a principios de junio, cuando sus miembros acordaron unborrador de la ley.
La ley fuepropuesta por primera vezpor la Comisión Europea en 2021, y desde entonces han cambiado muchas cosas en el ámbito de la IA, especialmente con el auge de los productos de IA generativa. Por lo tanto, no es de extrañar que la posición negociadora adoptada por el Parlamento difiera de laposiciónadoptadaporla Comisión oel Consejo Europeoen 2022. Las diferencias entre las tres versiones del proyecto de ley sobre IA pueden prolongar las negociaciones y la normativa definitiva. Sin embargo, las empresas que proporcionan o utilizan sistemas de IA pueden anticipar la orientación aproximada de la normativa y deberían empezar a prepararse.
La Ley de IA adopta un enfoque basado en el riesgo para regular la IA, estableciendo normas más estrictas para las aplicaciones de IA que suponen una mayor amenaza para la seguridad de los usuarios. Los sistemas de IA que entren en la categoría de «riesgo inaceptable» de la Ley estarían prohibidos en la UE.
Cambios clave
La posición adoptada por el Parlamento Europeo va más allá de las versiones de la Comisión y del Consejo, con nuevas obligaciones para los proveedores y un alcance ampliado de lo que se considera un sistema de IA de alto riesgo. Algunos de los cambios clave incluyen:
- Una definición más estricta de un sistema de inteligencia artificial que se ajusta a la definición de la Organización para la Cooperación y el Desarrollo Económicos (OCDE). El borrador define un sistema de IA como un «sistema basado en máquinas que está diseñado para funcionar con distintos niveles de autonomía y que, con objetivos explícitos o implícitos, puede generar resultados tales como predicciones, recomendaciones o decisiones que influyen en entornos físicos o virtuales».
- Una lista más amplia de sistemas de IA clasificados como «riesgo inaceptable» que serán estrictamente prohibidos. Esa lista incluye ahora muchos sistemas de identificación biométrica remota, sistemas de vigilancia policial predictiva, sistemas de reconocimiento de emociones y sistemas de categorización biométrica de «puntuación social».
- Una clasificación ampliada de los sistemas de alto riesgo para incluir aquellos que podrían causar daños a la salud, la seguridad o los derechos fundamentales de las personas, así como daños al medio ambiente, entre otros.
- Obligaciones de los proveedores de modelos básicos de realizar evaluaciones de riesgos de sus sistemas, así como de registrarse en una base de datos de la UE.
- Nuevos requisitos de transparencia que deben cumplir los modelos generativos básicos, como revelar cuándo el contenido ha sido generado por IA, diseñar modelos de IA para evitar que generen contenido ilegal y publicar resúmenes de los datos protegidos por derechos de autor que los modelos utilizan para su entrenamiento.
La posición adoptada también aborda la IA generativa, que era menos preocupante en versiones anteriores. Entre los cambios se incluyen:
La Ley de IA pasa ahora a la fase de negociaciones entre la Comisión, el Consejo y el Parlamento para determinar el texto definitivo de la ley, lo que podría prolongarse hasta finales de año. Como hemos visto en otros sectores, como el de los dispositivos médicos, las normas recogidas en la Ley de IA podrían quedar obsoletas en breve, dado el rápido ritmo de innovación en la tecnología de IA. Los legisladores están tomando medidas para abordar este dilema, pero por ahora parecen centrarse en sentar las bases para regular los sistemas de IA.
Las empresas de todos los sectores, independientemente de si proporcionan o utilizan IA, deben seguir de cerca los avances de la Ley de IA. Aunque es probable que no entre en vigor hasta 2026, se prevé que el incumplimiento de la misma tenga graves consecuencias. Por ejemplo, según la posición adoptada por el Parlamento, la comercialización en el mercado de la UE de un sistema de IA inaceptable se castigaría con multas administrativas de hasta 40 millones de euros o el 7 % del volumen de negocios anual total de la empresa a nivel mundial (la cifra que sea mayor).
Dado que la IA se considera cada vez más como la tecnología del futuro y que se espera que otros gobiernos utilicen la Ley de IA de la UE como modelo para sus propias regulaciones, las empresas deben tomar medidas ahora para adaptar sus operaciones a la IA y sus regulaciones.
Para descubrir cómo esta tecnología emergente va a revolucionar la seguridad de los consumidores y los productos, regístreseaquí en nuestro seminario web. Durante esta sesión exclusiva de 45 minutos, nuestro panel de expertos compartirá su perspectiva sobre el impacto potencial de la IA en las prácticas empresariales a lo largo del ciclo de vida de los productos. No se lo pierda, regístreseaquí.
Australia
Canadá
Dinamarca
Francia
Irlanda
Países Bajos
Nueva Zelanda
España y Portugal
Reino Unido
Estados Unidos