Trílogos de la UE: El Reglamento de Inteligencia Artificial debe proteger los derechos de las personas

12.07.2023

Declaración de la sociedad civil sobre los derechos fundamentales en el Reglamento de Inteligencia Artificial de la UE.

A medida que las instituciones de la Unión Europea [1] comienzan las negociaciones de los trílogos, la sociedad civil hace un llamado a las instituciones de la UE para garantizar que el Reglamento coloque a las personas y los derechos fundamentales en primer lugar en el Reglamento de Inteligencia Artificial (AI Act).

En Europa y en todo el mundo, los sistemas de inteligencia artificial se utilizan para vigilarnos y controlarnos en espacios públicos, predecir nuestra probabilidad de futura criminalidad, facilitar violaciones al derecho de solicitar asilo, predecir nuestras emociones y categorizarnos, y tomar decisiones cruciales que determinan nuestro acceso a los servicios públicos, la asistencia social, la educación y el empleo.

Sin una regulación sólida, las empresas y los gobiernos seguirán utilizando sistemas de inteligencia artificial que exacerban la vigilancia masiva, la discriminación estructural, el poder centralizado de las grandes empresas tecnológicas, la toma de decisiones públicas irresponsables y el daño medioambiental.

Hacemos un llamamiento a las instituciones de la UE para garantizar que el desarrollo y uso de la inteligencia artificial sea responsable, públicamente transparente y que las personas tengan la capacidad para hacer frente a los daños ocasionados:

1. Capacitar a las personas afectadas con un marco de responsabilidad, transparencia, accesibilidad y compensación

Es crucial que la ley de Inteligencia Artificial de la UE capacite a las personas y a los agentes de interés público para comprender, identificar, cuestionar y buscar reparación cuando el uso de los sistemas de inteligencia artificial agrave los daños y viole los derechos fundamentales. Para ello, es fundamental que la Ley desarrolle un marco de responsabilidad, transparencia, accesibilidad y reparación. Esto debe incluir:

2. Establecer límites a la vigilancia nociva y discriminatoria por parte de las autoridades nacionales de seguridad, policiales y de migración.

Cada vez se desarrollan y despliegan más sistemas de inteligencia artificial para ejercer formas nocivas y discriminatorias de vigilancia estatal. Estos sistemas se dirigen de forma desproporcionada a comunidades ya marginadas, socavan los derechos legales y procesales y contribuyen a la vigilancia masiva. Cuando los sistemas de IA se despliegan en el contexto de la aplicación de la ley, la seguridad y el control de la migración, existe un riesgo aún mayor de daños y violaciones de los derechos fundamentales y del Estado de Derecho. Para mantener la supervisión pública y evitar daños, la Ley de IA de la UE debe incluir:

  • Una prohibición total de la identificación biométrica en tiempo real y a distancia en espacios de acceso público, por parte de todos los actores, sin excepción.
  • Una prohibición de todas las formas de sistemas de predicción y elaboración de perfiles en las fuerzas del orden y la justicia penal (incluidos los sistemas que se centran en personas, grupos y lugares o zonas y se dirigen a ellos);
  • Prohibición de la IA en contextos migratorios para realizar evaluaciones y perfiles de riesgo individuales basados en datos personales y sensibles, así como de sistemas de análisis predictivo utilizados para interceptar, restringir e impedir la migración;
  • Una prohibición de sistemas de categorización biométrica que clasifiquen a personas físicas según atributos sensibles o protegidos, así como el uso de cualquier sistema de categorización biométrica y detección automatizada de comportamiento en espacios de acceso público.
  • Una prohibición del uso de sistemas de reconocimiento de emociones para inferir las emociones y estados mentales de las personas.
  • Rechazar la adición del Consejo de una exención general de la Ley de IA de los sistemas de IA desarrollados o utilizados con fines de seguridad nacional.
  • Eliminar las excepciones y lagunas para la aplicación de la ley y el control de la migración introducidas por el Consejo.
  • Garantizar la transparencia pública en cuanto a qué, cuándo y cómo los actores públicos despliegan la IA de alto riesgo en los ámbitos de la aplicación de la ley y el control de la migración, evitando cualquier exención a la obligación de registrar los usos de alto riesgo en la base de datos de IA de la UE.

3. Contrarrestar el lobby de las grandes empresas tecnológicas: eliminar los vacíos que socavan la regulación.

La Ley de Inteligencia Artificial de la UE debe establecer normas de aplicación claras y jurídicamente seguras si se quiere que la legislación se aplique de forma efectiva. La legislación debe mantener un proceso objetivo para determinar qué sistemas son de alto riesgo y eliminar cualquier "capa adicional" añadida al proceso de clasificación de alto riesgo. Tal capa permitiría a los desarrolladores de IA, sin responsabilidad ni supervisión, decidir si sus sistemas plantean o no un riesgo lo suficientemente "significativo" como para justificar un examen jurídico en virtud del Reglamento. Un proceso discrecional de clasificación de riesgos podría socavar toda la Ley de Inteligencia Artificial, dar paso a la autorregulación, plantear retos insuperables para la aplicación y la armonización, e incentivar a las grandes empresas a subclasificar sus propios sistemas de Inteligencia Artificial.

Los negociadores de la Ley de Inteligencia Artificial no deben ceder ante los esfuerzos de los grupos de presión de las grandes empresas tecnológicas que buscan eludir la regulación por intereses económicos. El Reglamento de Inteligencia Artificial de la UE debe:

  • Eliminar la capa adicional añadida al proceso de clasificación de riesgos en el artículo 6 y restablecer el proceso de clasificación de riesgos claro y objetivo esbozado en la posición original de la Comisión Europea;
  • Garantizar que los proveedores de sistemas de IA de propósito general estén sujetos a un conjunto claro de obligaciones en virtud de la Ley de IA, evitando que los proveedores y usuarios más pequeños soporten el peso de obligaciones más adecuadas para los desarrolladores originales.


Enlace al documento firmado por 150 organizaciones de la sociedad civil europea

[1] El Parlamento Europeo, el Consejo de la Unión Europea y la Comisión Europea participan en negociaciones interinstitucionales, conocidas como trílogos, con el fin de alcanzar un acuerdo provisional sobre una propuesta legislativa que sea aceptable tanto para el Parlamento como para el Consejo.