Regulación IA: Equilibrio Innovación y Protección Europea

La UE aprueba una regulación pionera en inteligencia artificial, equilibrando seguridad y desarrollo tecnológico para fomentar la innovación y proteger a los ciudadanos europeo

El Parlamento Europeo acaba de dar luz verde en la votación a la aprobación de su primer Reglamento de Inteligencia Artificial. Con el precedente del libro blanco publicado en 2020 y propuesto 0ficialmente por la Comisión Europea en abril de 2021, el devenir de los acontecimientos desde que ChatGPT y compañía llegaron a nuestras vidas dio más sentido a su tramitación.

Con 523 votos a favor, 46 en contra y 49 abstenciones, la Ley de IA europea ya es una realidad. No hay precedentes similares a esta nueva Ley en otras regiones, así que desde el Parlamento Europeo consideran que este texto no es solo un nuevo marco legal, sino también un referente mundial para regulaciones similares en otros territorios, que de hecho ya están preparando sus marcos regulatorios.

Dos objetivos y cuatro niveles de riesgo

Este primer marco regulador de la Unión Europea para la Inteligencia Artificial tiene dos objetivos principales que marcan cómo se debe encarar esta disciplina en territorio europeo, un ying yang que busca lograr el equilibrio entre innovación y protección.

  • Seguridad para la ciudadanía, garantizando que los sistemas de IA usados en la UE e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos.
  • Estimular la inversión y la innovación en el ámbito de la IA en Europa.

Además, la institución hace un matiz importante que sirve como aviso para navegantes: “La ley regulará la IA en base a sus riesgos. Cuanto mayor sea el riesgo, más estrictas serán las normas”. Un mantra que ha marcado todo el texto.

Lo primero es determinar qué es una IA y qué no. Aunque suene sencillo a nivel técnico, es importante definir bien qué distingue a una IA de otros software más sencillos, estableciendo criterios claros para entender a quién aplica la nueva Ley. Y la definición escogida es la que proporciona la OCDE:

La OCDE define un sistema de IA como un sistema basado en una máquina que, para un conjunto dado de objetivos definidos por el ser humano, hace predicciones, recomendaciones o decisiones que influyen en entornos reales o virtuales.

La Ley también tiene otros matices: no se aplica a ámbitos fuera del ámbito de aplicación del Derecho Europeo y no afectará a las competencias de los Estados miembros en materia de seguridad nacional. Tampoco a los sistemas usados exclusivamente con fines militares o de defensa ni a los empleados con fines “de investigación e innovación”, dando así más cancha tanto a la seguridad nacional de cada país como al I+D.

La mirada a largo plazo de esta Ley deja una incógnita, y es si el salto cuántico que en algún momento llegará podría dejarla obsoleta. “Hay que pensar en los saltos cuánticos que se pueden dar en esta tecnología, hay que pensar en cuando esa tecnología nos sorprenda con su capacidad: tendremos algún tipo de inteligencia generada artificialmente y ahí tendremos que pensar en las consecuencias morales de esa evolución”, ha explicado en el Parlamento Europeo Dragoş Tudorache, del partido liberal Renew y presidente del comité especial de IA.

“Hay que conseguir que aterrice este conjunto de normas. Necesitamos conseguir una armonía en la aplicación. Después de las elecciones, en la nueva legislatura, tendremos que abrir una vía de aplicación y ofrecer certidumbre a los ciudadanos europeos”, ha añadido Tudorache.

Este marco regulatorio ha sido desarrollado en medio de numerosas presiones. Brando Benifei, uno de los miembros del comité especial de IA, del partido socialdemócrata S&D, ha admitido que ha recibido “muchas presiones en materia de derechos de autor”, en referencia no solo a las grandes tecnológicas, sino también a la industria audiovisual.

En esta nueva Ley también se han establecido varios criterios horizontales de protección para determinar cuándo un sistema de IA puede causar daños a la sociedad: si se detecta uno que encaje en estos criterios, estará supeditado a varios requisitos y obligaciones para poder acceder al mercado europeo.

Dentro de quienes caigan en ese lado de la defnición, los que sean considerados como “riesgos inaceptables” quedarán directamente prohibidos. La UE ha puesto algunos ejemplos de casos así: los sistemas orientados a la manipulación cognitiva conductual o el rastreo indiscriminado de imágenes faciales extraídas de la Web.

Es decir, la prohibición del uso de IA para la manipulación o la vigilancia masiva. Los considerados como una amenaza para la seguridad y los derechos de las personas. Las únicas excepciones, muy delimitadas y procotolizadas, tienen que ver con usos de extrema urgencia que requieren una autorización judicial.

Los sistemas de IA que supongan un riesgo alto estarán sometidos a estrictos requisitos y certificaciones, y no podrán comercializarse hasta que el organismo regulador les dé su aprobación. Y si durante el ciclo de vida de dicho sistema se le aplican cambios relevantes, tendrán que volver a pasar todo el trámite antes de ponerlo en el mercado.

Los de riesgo limitado solo están sometidos a requisitos de etiquetado para aclarar que se trata de sistemas de IA, y los de riesgo mínimo tienen permitido el uso libre sin requisitos ni obligaciones.

La versión final de este texto —a falta de modificaciones de última hora, únicamente de caracter técnico—, presentada a finales de enero en el Consejo de Ministros de la Unión Europea, encontró ciertas resistencias por parte de algunos países por los escasos plazos para analizarla, pero finalmente obtuvo luz verde hasta devenir en la recién lograda aprobación.

La eterna búsqueda de un equilibrio

En este proceso, que comenzó con un borrador menos que poco convincente, ha habido también ciertas resistencias a un enfoque duro y centrado de más, a su entender, en la protección del usuario a costa de una mayor permisividad para los grandes modelos de IA.

Concretamente fueron Francia, Alemania e Italia quienes pidieron un régimen más ligero para ellos de cara a no cortar las alas de las empresas emergentes en IA nacidas en suelo europeo, como Mistral AI (francesa) o Aleph Alpha (alemana). Otros países como Austria o Eslovaquia también han mostrado reticencias o han solicitado algunas aclaraciones, si bien la posición de un mismo país ha podido variar durante el recorrido de este marco regulatorio.

No obstante, el Parlamento Europeo se mantuvo unido en un enfoque estricto para estos modelos, con un enfoque escalonado, reglas horizontales para cada modelo y obligaciones para los que considera que llevan un riesgo inherente.

La última fase de confección de este texto coincidió con la presidencia española (segunda mitad de 2023) y belga (desde este pasado enero). Esta última, ante las reservas de Francia, Alemania e Italia, mantuvo los ajustados plazos que se venían manejando de cara a no demorar más la votación ni facilitar modificaciones a causa de esas presiones.

El contexto es importante: la legislatura está a punto de finalizar, las próximas elecciones europeas son en junio y se ha hecho un esfuerzo final para poder aprobar este marco regulatorio para la IA antes de dicha fecha.

Francia, la nación que más tensiones provocó en este sentido, terminó quedándose sola en sus fricciones ya que Alemania primero e Italia después dieron su conformidad con el texto. En este último caso, presumiblemente jugó un papel importante su presidencia —rotativa— del G7, donde la IA tiene un mayor foco que nunca.

En cualquier caso, las exigencias francesas han pasado por una implementación que garantice que el desarrollo de modelos competitivos, que puedan hacer frente a los de Google, OpenAI y compañía, no se vea obstaculizado.

Es decir: que esta nueva regulación no sobrecargue a las empresas de obligaciones sino que las equilibre con la protección de sus secretos comerciales. Algo especialmente valioso para pymes y startups, con muchos menos recursos que poder dedicar a los trámites burocráticos. Sobre todo si les termina suponiendo una reducción de su nivel de innovación y competitividad, o directamente provoca un éxodo extracomunitario de tecnologías emergentes de IA.

Y ese es el asunto que más vueltas ha hecho dar hasta llegar a la versión final, en la que todo el mundo ha tenido que dar su brazo a torcer en cierta medida para poder sacar adelante esta nueva Ley: el equilibrio, la búsqueda constante del nivel que pondere la protección del ciudadano europeo con la competitividad y la innovación.

Vía | Regulación IA: Equilibrio Innovación y Protección Europea – Tecnología con Juancho (tecnologiaconjuancho.com)