Despacho socio de:

Socios Hispajuris

Tras intensos debates y negociaciones, el 9 de diciembre, la Presidencia del Consejo y el Parlamento Europeo han alcanzado un acuerdo provisional sobre la propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial (IA), también conocido como “ley de inteligencia artificial”.

Esta normativa resultará revolucionaria, pues se trata nada menos que de la primera propuesta legislativa sobre IA a nivel mundial, y por ello, tiene potencial para fijar un estándar global en otras jurisdicciones.

¿Cuál Será el enfoque Europeo para regular la IA?

El enfoque para regular la IA en Europa se basará en “el riesgo”, entendido como la capacidad de la IA para causar daño a la sociedad, por tanto, cuanto mayor sea riesgo, más estrictas serán las normas, esto es, habrá normas diferentes para niveles diferentes de riesgo.

Categorías en función del riesgo

Los sistemas de IA se enmarcarán en categorías, en función del riesgo que supongan:

Riesgo inaceptable

Los sistemas de IA para los que el riesgo se considere inaceptable estarán prohibidos, por tanto, según el acuerdo provisional se prohíbe:

  • La manipulación cognitivo-conductual, es decir, manipular el comportamiento de personas.
  • La extracción no dirigida de imágenes de rostros de Internet o de cámaras de vigilancia para crear bases de datos de reconocimiento.
  • El reconocimiento de emociones en el ámbito laboral y de educación.
  • La puntuación social o scoring social, que consiste en clasificar a las personas en función de su comportamiento, estatus socioeconómico o características personales.
  • Los sistemas de categorización biométrica que se apoyan en «características sensibles», como pueden ser la orientación sexual o las creencias religiosas.
  • Algunos casos de vigilancia policial predictiva.

Alto Riesgo

En este supuesto se encontrarían los siguientes sistemas de IA -entre otros-:

  • Que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos (juguetes, aviación, automóviles, dispositivos médicos y ascensores)
  • Que afecten a la gestión y explotación de infraestructuras críticas (agua, gas y electricidad).
  • De identificación biométrica y categorización de personas físicas
  • Que se utilicen en materia empleo, gestión de trabajadores, acceso al autoempleo, educación y formación profesional.
  • Que se utilicen para el acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas
  • Que se utilicen para la aplicación de la ley, y asistencia en la interpretación jurídica.
  • Que se utilicen para la gestión de la migración, el asilo y el control de fronteras

Estos sistemas estarán sujetos a requisitos y obligaciones adicionales, y se prevé la necesidad de una evaluación de impacto sobre los derechos fundamentales para acceder al mercado de la UE.

IA de propósito general

En esta categoría se encontraría el más que conocido Chat GPT, así como los sistemas de IA que pueden utilizarse para múltiples fines (IA de uso general), y se aborda también su posterior integración en otros sistemas de alto riesgo. Se acuerdan reglas específicas para los modelos básicos, grandes sistemas capaces de realizar una amplia gama de tareas tales como, generar video, texto, imágenes, conversar, computación o código informático. En concreto, se establecen obligaciones específicas de transparencia que han de cumplir antes de su introducción en el mercado, y se prevén «obligaciones más estrictas» para los modelos GPAI «de alto impacto».

Riesgo limitado

En este caso, simplemente habrán de cumplir con obligaciones de transparencia muy livianas, como, por ejemplo, indicar que el contenido fue generado a través de IA, para que así los usuarios puedan tomar decisiones informadas.

 

¿Qué sucederá finalmente con el uso de la IA para vigilancia?

Uno los puntos de mayor conflicto sobre esta regulación, era el uso de la IA para la vigilancia, en concreto la identificación biométrica remota (RBI) y el reconocimiento facial, ya que esta tecnología despierta fuertes recelos por las posibilidades de control que ofrece y su impacto en los derechos de los ciudadanos.

Con este acuerdo provisional, quedará limitado el uso de sistemas de identificación biométrica remota (RBI) en tiempo real en espacios de acceso público a efectos policiales y de modo excepcional, en situaciones concretas, tales como, la localización de víctimas de determinados delitos, la prevención de amenazas reales, presentes o previsibles, ataques terroristas, y la búsqueda de personas sospechosas de los delitos más graves.

 

Responsabilidad, sanciones y vías de reclamación

El acuerdo provisional adoptado aclara también la asignación de responsabilidades de los agentes que desarrollan y distribuyen estos sistemas de IA, y en concreto, la de los proveedores y usuarios de los mismos.

Además, se prevé la creación de un sistema revisado de gobernanza, y el establecimiento de gravosas multas por vulneraciones de la ley de IA, que podrían ir desde los 7,5 millones de euros o el 1,5% del volumen de negocio, hasta los 35 millones o el 7% del volumen de negocio.

Finalmente, el acuerdo contempla la posibilidad de que, tanto las personas físicas como jurídicas, puedan presentar reclamaciones ante la autoridad de vigilancia del mercado pertinente en relación con el incumplimiento de la Ley de IA.

La regulación cada vez será más detallada y los avances técnicos avanzan con rapidez, por lo que el asesoramiento de abogados especializados será cada vez más necesario en este ámbito.