Los grupos legisladores de la UE deben colmar la peligrosa laguna de la Ley de Inteligencia Artificial

07.09.2023

La Unión Europea está entrando en la fase final de las negociaciones sobre su Ley de Inteligencia Artificial (IA), pero las grandes tecnológicas y otros agentes del sector han presionado para introducir una importante laguna en el proceso de clasificación de alto riesgo, lo que socava toda la legislación. Pedimos a quienes legislan en la UE que eliminen esta laguna y mantengan un alto nivel de protección en la Ley de IA.

La Ley de IA de la UE tiene el potencial de mejorar la protección de las personas afectadas por los sistemas de inteligencia artificial. En su forma original, esbozaba una lista de "usos de alto riesgo" de la inteligencia artificial , incluidos los sistemas utilizados para controlar al alumnado, evaluar la solvencia de los consumidores, evaluar a las personas solicitantes de empleo y determinar quién tiene acceso a las prestaciones sociales.

La legislación exige a los colectivos de desarrolladores y usuarios de estos sistemas de inteligencia artificial de "alto riesgo" que garanticen que sus sistemas son seguros y no presentan sesgos discriminatorios, y que faciliten información de acceso público sobre su funcionamiento. Sin embargo, estas ventajas se verán mermadas por una laguna introducida en el proceso de clasificación de alto riesgo del artículo 6.

En el proyecto original de la Comisión Europea, un sistema de inteligencia artificial se consideraba de "alto riesgo" si iba a utilizarse para uno de los fines de alto riesgo enumerados en el anexo III. Sin embargo, el Consejo y el Parlamento Europeo han introducido una laguna que permitiría a quienes desarrollan estos sistemas decidir si consideran que el sistema es de "alto riesgo"[1]. A la misma empresa que estaría sujeta a la ley se le da la potestad de decidir unilateralmente si debe aplicársele o no.

Hay que rechazar estos cambios en el artículo 6 y restablecer el proceso original de clasificación de riesgos de la Comisión Europea. Debe existir un proceso objetivo, coherente y jurídicamente seguro para determinar qué sistemas son de "alto riesgo" en la Ley de IA.

Si no se revierten los cambios del artículo 6, la Ley de IA permitirá a quienes desarrollan inteligencia artificial decidir eximirse de todas las normas sustantivas para los sistemas de alto riesgo. La Ley de IA:

  • Introduciría una gran inseguridad jurídica en cuanto a qué sistemas se consideran de "alto riesgo".
  • Llevaría a la fragmentación del mercado único de la UE, con diferentes interpretaciones de lo que constituye "alto riesgo" en los Estados miembros.
  • Las autoridades de los Estados miembros se enfrentarán a graves dificultades para hacer cumplir la legislación, al carecer de recursos suficientes para supervisar la autoevaluación de las personas desarrolladoras.
  • Permitiría a quienes no tienen escrúpulos eludir los requisitos básicos de la ley que pretenden hacer sus sistemas más seguros y fiables. Esto pondría en desventaja a quienes desarrollan inteligencia artificial de forma responsable.
Instamos a los grupos legisladores a que reviertan estos cambios y restablezcan el lenguaje original de la Comisión en el artículo 6. La Ley de IA debe dar prioridad a los derechos de las personas afectadas por los sistemas de inteligencia artificial y garantizar que el desarrollo y el uso de la misma sea responsable y transparente [2].


Firmado por 118 organizaciones entre las que se encuentra Justicia y Paz. Ver en el archivo de descarga.

[1] El texto del Consejo propone excluir los sistemas de alto riesgo cuando el resultado del sistema sea "puramente accesorio con respecto a la acción o decisión pertinente que deba tomarse". El texto del Parlamento Europeo establece que un sistema es de alto riesgo sólo si plantea un "riesgo significativo" para los derechos fundamentales, la salud y la seguridad. Si el promotor considera que su sistema no plantea tal riesgo, debe notificarlo a una autoridad nacional, que dispone de 3 meses para responder.

[2] 150 organizaciones de la sociedad civil han pedido a las instituciones de la UE que garanticen que la Ley de IA proteja los derechos de las personas durante los diálogos tripartitos sobre la Ley de IA.