Trílogos de la UE: El Reglamento de Inteligencia Artificial debe proteger los derechos de las personas
Declaración de la sociedad civil sobre los derechos fundamentales en el Reglamento de Inteligencia Artificial de la UE.
A medida que las instituciones de la Unión Europea [1] comienzan las negociaciones de los trílogos, la sociedad civil hace un llamado a las instituciones de la UE para garantizar que el Reglamento coloque a las personas y los derechos fundamentales en primer lugar en el Reglamento de Inteligencia Artificial (AI Act).
En Europa y en todo el mundo, los sistemas de inteligencia artificial se utilizan para vigilarnos y controlarnos en espacios públicos, predecir nuestra probabilidad de futura criminalidad, facilitar violaciones al derecho de solicitar asilo, predecir nuestras emociones y categorizarnos, y tomar decisiones cruciales que determinan nuestro acceso a los servicios públicos, la asistencia social, la educación y el empleo.
Sin una regulación sólida, las empresas y los gobiernos seguirán utilizando sistemas de inteligencia artificial que exacerban la vigilancia masiva, la discriminación estructural, el poder centralizado de las grandes empresas tecnológicas, la toma de decisiones públicas irresponsables y el daño medioambiental.
Hacemos un llamamiento a las instituciones de la UE para garantizar que el desarrollo y uso de la inteligencia artificial sea responsable, públicamente transparente y que las personas tengan la capacidad para hacer frente a los daños ocasionados:
1. Capacitar a las personas afectadas con un marco de responsabilidad, transparencia, accesibilidad y compensación
Es crucial que la ley de Inteligencia Artificial de la UE capacite a las personas y a los agentes de interés público para comprender, identificar, cuestionar y buscar reparación cuando el uso de los sistemas de inteligencia artificial agrave los daños y viole los derechos fundamentales. Para ello, es fundamental que la Ley desarrolle un marco de responsabilidad, transparencia, accesibilidad y reparación. Esto debe incluir:
- Una obligación para todos los 'usuarios' (implementadores) públicos y privados de realizar y publicar una evaluación del impacto en los derechos fundamentales antes de cada implementación de un sistema de IA de alto riesgo, e involucrar de manera significativa a la sociedad civil y a las personas afectadas en este proceso;
- Exigir a todos los usuarios de sistemas de IA de alto riesgo, y a los usuarios de todos los sistemas del ámbito público, que registren su uso en la base de datos de la UE, de acceso público, antes de la implementación.
- Garantizar que los proveedores de IA con sede en la UE cuyos sistemas afecten a personas fuera de la UE estén sujetos a los mismos requisitos que aquellos dentro de la UE.
- Asegurar requisitos de accesibilidad horizontales e integrados para todos los sistemas de IA.
- Garantizar que las personas afectadas por los sistemas de IA sean notificadas y tengan derecho a buscar información cuando se vean afectadas por decisiones y resultados asistidos por IA.
- Incluir el derecho para las personas afectadas de presentar una denuncia ante una autoridad nacional si sus derechos han sido violados por el uso de un sistema de IA.
- Incluir el derecho de representación de las personas físicas y el derecho de las organizaciones de interés público a presentar quejas independientes ante una autoridad nacional de supervisión.
- Incluir el derecho a reparaciones efectivas por la violación de derechos.
2. Establecer límites a la vigilancia nociva y discriminatoria por parte de las autoridades nacionales de seguridad, policiales y de migración.
Cada vez se desarrollan y despliegan más sistemas de inteligencia artificial para ejercer formas nocivas y discriminatorias de vigilancia estatal. Estos sistemas se dirigen de forma desproporcionada a comunidades ya marginadas, socavan los derechos legales y procesales y contribuyen a la vigilancia masiva. Cuando los sistemas de IA se despliegan en el contexto de la aplicación de la ley, la seguridad y el control de la migración, existe un riesgo aún mayor de daños y violaciones de los derechos fundamentales y del Estado de Derecho. Para mantener la supervisión pública y evitar daños, la Ley de IA de la UE debe incluir:
- Una prohibición total de la identificación biométrica en tiempo real y a distancia en espacios de acceso público, por parte de todos los actores, sin excepción.
- Una prohibición de todas las formas de sistemas de predicción y elaboración de perfiles en las fuerzas del orden y la justicia penal (incluidos los sistemas que se centran en personas, grupos y lugares o zonas y se dirigen a ellos);
- Prohibición de la IA en contextos migratorios para realizar evaluaciones y perfiles de riesgo individuales basados en datos personales y sensibles, así como de sistemas de análisis predictivo utilizados para interceptar, restringir e impedir la migración;
- Una prohibición de sistemas de categorización biométrica que clasifiquen a personas físicas según atributos sensibles o protegidos, así como el uso de cualquier sistema de categorización biométrica y detección automatizada de comportamiento en espacios de acceso público.
- Una prohibición del uso de sistemas de reconocimiento de emociones para inferir las emociones y estados mentales de las personas.
- Rechazar la adición del Consejo de una exención general de la Ley de IA de los sistemas de IA desarrollados o utilizados con fines de seguridad nacional.
- Eliminar las excepciones y lagunas para la aplicación de la ley y el control de la migración introducidas por el Consejo.
- Garantizar la transparencia pública en cuanto a qué, cuándo y cómo los actores públicos despliegan la IA de alto riesgo en los ámbitos de la aplicación de la ley y el control de la migración, evitando cualquier exención a la obligación de registrar los usos de alto riesgo en la base de datos de IA de la UE.
3. Contrarrestar el lobby de las grandes empresas tecnológicas: eliminar los vacíos que socavan la regulación.
La Ley de Inteligencia Artificial de la UE debe establecer normas de aplicación claras y jurídicamente seguras si se quiere que la legislación se aplique de forma efectiva. La legislación debe mantener un proceso objetivo para determinar qué sistemas son de alto riesgo y eliminar cualquier "capa adicional" añadida al proceso de clasificación de alto riesgo. Tal capa permitiría a los desarrolladores de IA, sin responsabilidad ni supervisión, decidir si sus sistemas plantean o no un riesgo lo suficientemente "significativo" como para justificar un examen jurídico en virtud del Reglamento. Un proceso discrecional de clasificación de riesgos podría socavar toda la Ley de Inteligencia Artificial, dar paso a la autorregulación, plantear retos insuperables para la aplicación y la armonización, e incentivar a las grandes empresas a subclasificar sus propios sistemas de Inteligencia Artificial.
Los negociadores de la Ley de Inteligencia Artificial no deben ceder ante los esfuerzos de los grupos de presión de las grandes empresas tecnológicas que buscan eludir la regulación por intereses económicos. El Reglamento de Inteligencia Artificial de la UE debe:
- Eliminar la capa adicional añadida al proceso de clasificación de riesgos en el artículo 6 y restablecer el proceso de clasificación de riesgos claro y objetivo esbozado en la posición original de la Comisión Europea;
- Garantizar que los proveedores de sistemas de IA de propósito general estén sujetos a un conjunto claro de obligaciones en virtud de la Ley de IA, evitando que los proveedores y usuarios más pequeños soporten el peso de obligaciones más adecuadas para los desarrolladores originales.
Enlace al documento firmado por 150 organizaciones de la sociedad civil europea
[1] El Parlamento Europeo, el Consejo de la Unión Europea y la Comisión Europea participan en negociaciones interinstitucionales, conocidas como trílogos, con el fin de alcanzar un acuerdo provisional sobre una propuesta legislativa que sea aceptable tanto para el Parlamento como para el Consejo.