Ley europea sobre la inteligencia artificial - Delfos - jaimealvear

Ley europea sobre la inteligencia artificial

El 8 de diciembre de 2023 después de 3 intensos días de reuniones, el consejo del parlamento europeo ha llegado a un acuerdo preliminar para la legislación de la inteligencia artificial, este es el primer intento de legislación a nivel mundial. Este borrador quiere asegurar que los sistemas de inteligencia artificial en Europa son seguros para su utilización y respetan los derechos fundamentales y valores de la unión europea sin restringir y limitar las inversiones y la innovación en inteligencia artificial.

Esta iniciativa de ley pretende incentivar el desarrollo de la tecnología dentro de un marco seguro en su desarrollo tanto para el sector público como privado. La idea principal es regular la inteligencia artificial en base a su riesgo para causar “daño”, a mayor riesgo mayores serán las restricciones.

Los puntos principales que aborda el borrador son:

  • Reglamentación de los sistemas de inteligencia artificial de uso general que puedan tener un impacto/riesgo alto para causar daño.
  • Crear un sistema de gobierno para el control de la inteligencia artificial a nivel europeo.
  • Prohibición del uso de la inteligencia artificial en la identificación biométrica de personas mediante el uso de cámaras en espacios públicos salvo en caso de riesgo por las fuerzas de seguridad del estado.
  •  Salvaguarda de los derechos fundamentales con la obligación de establecer controles de seguridad antes de la puesta a disposición publica de sistemas de inteligencia artificial de alto riesgo.

Para clarificar lo que la proposición de ley considera como sistemas de inteligencia artificial, la unión europea se alinea sobre la definición de la OCDE (Organización para la Cooperación y Desarrollo Económico).

“Un sistema de inteligencia artificial es un sistema basado en máquinas que, con objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales. Los diferentes sistemas de inteligencia artificial varían en sus niveles de autonomía y adaptabilidad después de su implementación.”

La proposición también establece los límites de aplicación, dejando fuera de su alcance las aplicaciones relacionadas con la seguridad nacional de los estados o aquellas dentro del ámbito militar o de defensa. Tampoco se aplicará a las aplicaciones que tengan un uso no profesional o las que tengan como propósito la investigación o la innovación.

¿Cuáles son los Sistemas de alto riesgo y practicas prohibidas?

Como he mencionado al comienzo del artículo, la regulación se hará sobre el posible riesgo y daño que la aplicación pueda causar. Los sistemas que se evalúen como “riesgo limitado” contaran con controles y obligaciones de transparencia muy ligeras como por ejemplo la obligación de informar a los usuarios que el contenido ha sido generado por una aplicación de inteligencia artificial.

Los sistemas calificados de alto riego estarán autorizados pero los requerimientos y obligaciones serán mucho más rigurosos y estrictos, siempre tratando de no frenar o penalizar con complicados procedimientos burocráticos a pequeñas y medianas empresas versus grandes corporaciones que tienen mayores medios.

Los legisladores son conscientes que la cadena de producción y explotación de las aplicaciones de inteligencia artificial puede ser compleja y tratarán de determinar diferentes roles y responsabilidades entre los integrantes de la cadena de producción y suministro del servicio. Los servicios que sean evaluados con un riesgo inaceptable estarán prohibidos en la Unión Europea, algunos de los ejemplos citados serian:

  • “Manipulación cognitivo-conductual” es el uso de técnicas psicológicas y conductuales para influir en los pensamientos, emociones o comportamientos de una persona. Esta manipulación puede utilizarse en diferentes contextos, como terapia para cambiar patrones de pensamiento negativos o en estrategias de persuasión en marketing o relaciones interpersonales.
  • Recopilación, uso y análisis de imágenes faciales de internet o de grabaciones de circuito cerrado de televisión (CCTV).
  • Reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.
  • Tratamiento, análisis y categorización biométrica para inferir datos sensibles, como la orientación sexual o las creencias religiosas.
  • Predictivo policial sobre personas, esto implica el uso de algoritmos y análisis de datos para predecir posibles actividades delictivas o comportamientos criminales de individuos específicos en base a patrones de comportamiento o análisis de datos históricos.

 ¿Cuáles son las excepciones?

Se permitirá el uso de sistemas de inteligencia artificial de alto riesgo a los cuerpos de seguridad del estado en situaciones vitales o excepcionales y con mecanismos que garantizaran los derechos fundamentales para evitar el mal uso de la tecnología y que se respete la confidencialidad y el uso de datos sensibles para estas actividades.

Otra excepción seria sobre los sistemas de identificación biométrica en tiempo real en espacios de uso público se acuerda que dicho uso solo podrá realizarse por las fuerzas de seguridad con las autorizaciones necesarias y limitado a casos excepcionales como víctimas de ciertos delitos, prevención de amenazas concretas, como ataques terroristas, y búsquedas de personas sospechosas de los delitos muy graves.

También se define la inteligencia artificial de propósito general (GPAI) como los sistemas capaces de servir a múltiples finalidades y que además pueden ser integrados en otros sistemas más complejos de IA. Igualmente se definen también los “modelos de base”, grandes sistemas capaces de realizar una amplia gama de tareas diferentes como generar video, texto, imágenes, sistemas de procesamiento de lenguaje natural, computación o generación de código/programación. El acuerdo provisional establece que estos modelos al estar disponibles al público deberán cumplir ciertas obligaciones específicas de transparencia antes de ser accesibles. Se define igualmente una categoría de “modelos de base de alto riesgo”, estos son modelos entrenados con gran cantidad de datos y una complejidad avanzada capaces de un rendimiento muy por encima de la media y que podría por un mal uso causar un riesgo sistémico importante.

Se creará una oficina de IA dentro de la comisión formada por un grupo de expertos independientes para determinar las reglas y un marco de actuación para la inteligencia artificial de propósito general (GPAI) y para los modelos más avanzados de inteligencia artificial. Esta oficina sentará las bases y la metodología para la evaluación de los modelos de inteligencia artificial concretizando las excepciones y los modelos de alto riesgo. La comisión de IA estará formada por expertos de los estados miembros que funcionaran como una plataforma de consulta y regulación velando por que reglas se aplique correctamente y respondiendo a las empresas, sociedad civil y representantes sectoriales sobre la implementación de medidas.

Se establecen sanciones y multas por violaciones de la Ley de Inteligencia Artificial que se cuantificaran como un porcentaje del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o una cantidad predeterminada, la que sea mayor. Esto sería de 35 millones de euros o el 7% para violaciones de las aplicaciones de IA prohibidas, 15 millones de euros o el 3% para violaciones de las obligaciones establecidas en la ley de IA, y 7,5 millones de euros o el 1,5% por suministrar información incorrecta.

El acuerdo de ley provisional establece que se debe realizar un estudio de impacto antes de la puesta en producción de un sistema de inteligencia artificial de alto riesgo, es importante destacar que algunas disposiciones de la propuesta de la Comisión han sido modificadas para indicar que ciertos usuarios de un sistema de IA de alto riesgo que sean entidades públicas también estarán obligados a registrarse en la base de datos de la UE para sistemas de IA de alto riesgo. Además, las ultimas disposiciones incluidas hacen hincapié en la obligación de los propietarios de sistemas de reconocimiento de emociones de informar a las personas cuando estén siendo expuestas a dicho sistema.

Con el objetivo de crear un marco legal más propicio a la innovación y promover un aprendizaje basado en evidencia, las disposiciones relativas a medidas de apoyo a la innovación han sido sustancialmente modificadas en comparación con la anterior propuesta de la Comisión

En particular, se ha aclarado que los entornos de prueba de IA, que están destinados a establecer un entorno controlado para el desarrollo, entrenamiento y validación de sistemas de IA innovadores, también deberían permitir su prueba en condiciones del mundo real bajo reglas y garantías específicas. Para aliviar la carga administrativa para empresas más pequeñas, el acuerdo provisional incluye una lista de acciones a emprender para apoyar a dichos operadores y prevé algunas derogaciones limitadas y claramente especificadas.

Fechas y plazos


Este acuerdo provisional establece que la Ley de Inteligencia Artificial debería aplicarse dos años después de su entrada en vigor, aunque con algunas excepciones para disposiciones específicas

Después del acuerdo provisional de 8 de diciembre de 2023, el trabajo continuará a nivel técnico en las próximas semanas para finalizar los detalles de la nueva regulación. Una vez concluido este trabajo, la presidencia presentará el texto de compromiso a los representantes de los Estados miembros (Coreper) para su aprobación.

Todo el texto deberá ser confirmado por ambas instituciones y pasar por una revisión legal y lingüística antes de ser adoptado formalmente por los co-legisladores.