Valla de Melilla vista áerea
En la frontera de Melilla (en la foto) y Ceuta se prevé la recogida de datos biométricos. APDHA

Análisis
AI Act: un reglamento nuevo para afianzar el orden racial y colonial de siempre

La nueva normativa de Inteligencia Artificial establece una “regulación paralela” en función de quienes son las personas afectadas, algo observable en los usos que se prevén en contextos fronterizos y policiales.

Después de casi tres años desde que echara a andar la propuesta y, al menos dos de negociaciones, el pasado mes de marzo el Parlamento Europeo aprobó el reglamento de la Ley de Inteligencia Artificial (AI Act por sus siglas en inglés). Tras el visto bueno dado el 21 de mayo por los miembros del Consejo de Europa, al texto le queda como último paso su publicación en el Diario Oficial de la UE, lo que puede suceder en cualquier momento y tras lo cual entrará en vigor. Aunque se da un plazo de entre dos y cinco años para su aplicación plena por parte de los diferentes Estados miembro.

Este marco, presentado como el primero de su ámbito en el mundo, se ha vendido desde el inicio como la panacea en lo que respecta a la regulación del desarrollo y uso de tecnologías de IA. De hecho, incluye aspectos positivos como la prohibición de determinados sistemas automatizados en el ámbito de las prestaciones sociales, de la policía predictiva basada en perfilación y de los comportamientos delictivos anteriores (datos históricos), así como los sistemas de identificación biométrica en tiempo real. Además, prevé la creación de un registro público de sistemas de IA en uso en la UE.

No obstante, plantea un problema estructural al establecer una “regulación paralela” en función de quienes son las personas afectadas, algo observable en los usos que se prevén en contextos fronterizos y policiales, así como en aquellos escenarios que puedan ser justificados desde conceptos vagos como lo es la “seguridad nacional”. Bajo esta premisa, las prohibiciones establecidas en la ley no se extienden para los usos policiales, algo preocupante si tomamos en cuenta, por ejemplo, el avance del Ministerio del Interior en la implementación de sistemas de reconocimiento facial “para identificar sospechosos”, criticados por inexactos y racistas. Estas prohibiciones tampoco se extienden al ámbito del control migratorio, lo que provocará un trato desigual hacia la población dependiendo de si es europea o migrante. 

Pese a que los sistemas de identificación biométrica quedan prohibidos por implicar un riesgo alto para la población al vulnerar derechos fundamentales, sí se podrán usar en personas migrantes y solicitantes de asilo

Es lo que ocurre con los sistemas de identificación biométrica. Pese a que en teoría quedan prohibidos por implicar un riesgo alto para la población al vulnerar derechos fundamentales, sí se podrán usar en personas migrantes y solicitantes de asilo. De hecho, la mal llamada “frontera inteligente” prevista en Ceuta y Melilla, cuya infraestructura está instalada, contempla la recogida de imágenes del rostro de personas que crucen estos pasos fronterizos mediante tecnología de reconocimiento facial, a quienes además se les podría aplicar tecnología de reconocimiento de emociones con un detector de mentiras en fase de prueba llamado “policía virtual”, y elaborado en el marco del proyecto europeo iBorderCtrl para identificar a viajeros “de alto riesgo”.

Por otro lado, pese a que el reglamento establece una escala de riesgos, no incluyó en la lista de “riesgo alto”  aquellos ya en uso en contextos migratorios, quedando exentos de los requisitos de supervisión y rendición de cuentas establecidos para los catalogados con este nivel de riesgo. De este modo, las bases de datos a gran escala empleadas en la UE en el control migratorio (prohibidas sobre población europea), como es el caso de Eurodac o Schengen, que se basan especialmente en la recogida de datos biométricos, quedarán exentas de regulación hasta el año 2030.

Inteligencia artificial
Inteligencia artificial La Unión Europea abraza la ley del algoritmo más fuerte
La inteligencia artificial ya tiene quién la regule. El Parlamento Europeo ha aprobado una ley que no mitiga las preocupaciones por los efectos que puede tener el modelaje algoritmo sobre los derechos fundamentales.

No solo hablamos de un marco que establece diferentes categorías de personas, sino que las tecnologías de reconocimiento facial han sido ampliamente criticadas por conllevar fallos sistemáticos y peligrosos. Investigaciones del MIT y del Instituto Nacional de Estándares y Tecnologías de Estados Unidos han probado empíricamente cómo estas herramientas producen falsos positivos y falsos negativos en rostros de personas no caucásicas. En cuanto a los sistemas detección de emociones, un experimento reciente de la revista The Intercept demostró cómo una de sus periodistas fue calificada de “mentirosa” por el policía virtual del proyecto IBorderCtrl, pese a responder con honestidad todas preguntas que se le formularon.

Otro problema de base que plantea la AI Act es que deja fuera una multitud de sistemas de IA debido a la definición planteada, que describe un sistema de IA como aquel que funciona con diversos niveles de autonomía, sin delimitar la misma, y que puede tener capacidad de adaptación tras su despliegue. Una definición discutida al margen de la sociedad civil, que deja fuera sistemas como los empleados en los servicios públicos. 

Es el caso de SyRI, un algoritmo empleado por Países Bajos para elaborar perfiles de ciudadanos y ciudadanas que supuestamente podían defraudar al Estado, enfocándose fundamentalmente en población pobre y racializada. SyRI fue declarado ilegal por el Tribunal de Distrito de la Haya al no cumplir las exigencias de proporcionalidad y transparencia y por vulnerar las previsiones sobre respeto a la vida privada que reconoce el artículo 8 del CEDH. En el caso de España, esta regulación deja fuera sistemas empleados por la Administración como el usado por la Seguridad Social para rastrear bajas laborales y “cazar fraudes”, así como el sistema BOSCO, que decide quién recibe el bono social, y sobre el que CIVIO lleva desde 2018 pidiendo el código fuente tras detectar que dejaba fuera a usuarios y usuarias con derecho al mismo.

Tecnología de vigilancia fronteriza

Otras tecnologías que no se incluyeron en los listados de usos peligrosos de IA son aquellas desarrolladas para impedir y restringir la movilidad humana del sur al norte global. En 2021 Frontex firmó contratos millonarios para incrementar su vigilancia marítima a través del uso de drones, cuyo objetivo es frenar los flujos migratorios actuando como una alarma temprana para los países receptores. El uso de drones no tripulados exime de la obligación de proporcionar ayuda a embarcaciones que se encuentran en situación de peligro en el mar y también contraviene el derecho internacional de solicitud de asilo al impedir que las embarcaciones lleguen a tierra. 

El reglamento de la AI Act no impide que tecnologías desarrolladas por empresas con sede en la UE, prohibidas en el territorio europeo por su peligrosidad para la población, sean exportadas a otros países

En la actualidad, hay distintas tecnologías cuestionables en uso o en fase de prueba en contextos fronterizos, como las cámaras de visión nocturna o el denominado proyecto Sniffer, desarrollado para reconocer el olor corporal de personas que intentan cruzar fronteras escondidas en vehículos. Todos estos dispositivos pensados para usarse en frontera tienen un claro beneficiario: la industria del control migratorio, que se embolsa contratos millonarios gracias al desarrollo de tecnologías pensadas para impedir que las personas del sur global se desplacen libremente hacia el norte, generando en consecuencia mayores riesgos y mortalidad en rutas migratorias. Una industria que se alimenta de la política de una UE que sitúa la migración como problema de seguridad.

A todo lo anterior se añade el hecho de que el reglamento de la AI Act no impide que tecnologías desarrolladas por empresas con sede en la UE, prohibidas en el territorio europeo por su peligrosidad para la población, sean exportadas a otros países. Se podrá vender fuera lo que se prohíbe dentro. La AI Act, que dice basarse en los principios de proporcionalidad y responsabilidad, no solo deja fuera y sin protección a aquellos grupos demográficos considerados desechables, sino que se vale de una narrativa de “lucha contra el terrorismo” y “garantía de la seguridad nacional” para señalar a la población migrante y racializada mientras impide su libre movilidad. De esta forma, refuerza la criminalización racial y la lógica colonial que rige las políticas de la UE.

Un Pacto racial contra el derecho a migrar

El AI Act tardará años en entrar en vigor. Mientras tanto, se seguirán probando, desarrollando e implantando sistemas de IA nocivos en muchos ámbitos de la vida. Además, este marco es sólo uno de los que la UE implementa en esta materia, como lo es el anteriormente nombrado Eurodac, reformulado recientemente junto al Código de Fronteras de Schengen para ampliar los controles policiales sobre personas migrantes, y para facilitar aún más la perfilación racial y las devoluciones en frontera. 

No obstante, la vigilancia, la discriminación y la criminalización de las personas no blancas y migrantes no se limitan a la AI Act, Eurodac o Schengen. Así lo evidencia el nuevo Pacto sobre Migración y Asilo, aprobado el pasado mes de abril por el Parlamento Europeo, que supondrá un conjunto de reformas que amplían la criminalización y la vigilancia digital de las personas migrantes y racializadas. Un pacto que, como indica la coalición internacional Proteger no vigilar (#ProtectNotSurveil), “viene a normalizar el uso arbitrario de la detención de migrantes, incluidos niños y familias, aumentar el perfilamiento racial, utilizar procedimientos de 'crisis' para permitir y facilitar devoluciones en caliente, así como la devolución de migrantes a los llamados 'países terceros seguros', donde corren riesgo de sufrir violencia, tortura y encarcelamiento arbitrario”.

Migración
Fronteras Europa apunta a profundizar el control biométrico de las personas migrantes con la reforma del EURODAC
110 organizaciones de la sociedad civil denuncian que la reforma de EURODAC (Base de datos dactiloscópicos europea de asilo), que podría concretarse este 7 de diciembre, supone un salto adelante en la criminalización de las personas migrantes.

El Pacto crea un extenso sistema de vigilancia masiva al contemplar la recopilación de datos en masa y compartidos entre las diferentes fuerzas policiales de la UE, empleando tecnologías de identificación biométrica para rastrear todos los movimientos de las personas migrantes e incrementar la vigilancia sobre ellas, llegando a reducir la edad mínima para la recopilación de datos de catorce a seis años. También plantea el uso de tecnologías intrusivas en las diferentes etapas del proceso de solicitudes de asilo, incautando los dispositivos electrónicos de las personas solicitantes o permitiendo el uso de entrevistas remotas o videoconferencias.

Hablamos de un marco legal de “gestión” de la migración que plantea la creación de centros de detención (además de los ya existentes Centro de Internamiento de Extranjeros) de personas migrantes, incluyendo niños y familias enteras, con características similares a las prisiones (pero con menos derechos) y que se basa en la restricción de circulación, empleando sensores de movimiento, sistemas de cámaras y un control continuo mediante huellas dactilares, uso de tecnologías predictivas y detectores de mentiras (prohibidos ambos sobre población europea), así como el uso de tecnologías de vigilancia también en las fronteras internas de la UE. 

El marco regulatorio establecido por la AI Act viene a facilitar la implementación de todas estas tecnologías de vigilancia y criminalización racial. Marcos y mecanismos pensados para el mantenimiento de la Europa Fortaleza. En definitiva, el mantenimiento de un orden racial y colonial construido sobre la explotación de personas migrantes, en beneficio de la industria del control y el modo de vida europeo.

Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra na túa conta.

Relacionadas

Iritzia
Antirrazismoa Donostia eta benetako lapur handiak
Lapurreta txikien arrazoi nagusia, tamalez, egiturazko pobrezia eta bazterkeria kronikoa da, eta soluzioak norabide horretan egin behar du.
Racismo
Euskal Herria El discurso reaccionario gana enteros en Euskal Herria
La simbología fascista, las patrullas ciudadanas y los postulados políticos antimigratorios ganan terreno emulando al resto de Europa.
Racismo
Arun Kundnani “Arrazakeriak gizarteko baliabideen banaketarekin du zerikusia”
Militante eta ikerlari antiarrazistak abiapuntu argia adierazten du: arrazakeriaren aurka borrokatzea ez da zeregin psikologiko edo diskurtsibo bat, baizik eta egiturak desegiteko premia.
Laboral
Laboral Coidar sen dereitos: a loita das traballadoras nas residencias privadas de Galiza
Sen tempo nin medios para ofrecer uns coidados axeitados, alertan dunha situación insostible nos centros e denuncian a privatización dun servizo a costa do benestar das persoas maiores e dependentes.
Galicia
Galicia Vigo, A Coruña e Ourense mercaron material policial a Israel por medio millón de euros en só catro anos
O alcalde ourensán, Gonzalo P. Jácome, adxudicou un contrato por 70.000 euros días despois do sete de outubro. Abel Caballero asinou outro de máis de 200.000 euros e a alcaldesa da Coruña seguiu a estela cun contrato de 170.000 euros.
A Catapulta
A Catapulta O mapa afectivo conectado a través da poesía
O poeta, escritor e dinamizador Tiago Alves visita A Catapulta e reflexiona sobre as conexións na lusofonía
LGTBIAQ+
Juicio el 9 de mayo Lidia Falcón pide cinco años de cárcel a una mujer trans por un tuit de 2021 que no la menciona
La activista antiderechos Lidia Falcón denunció a Diana Juan Cano en 2021 por un tuit que apenas tuvo repercusión. La acusación pide una pena de cinco años de prisión y 50.000 euros de indemnización.
Senegal
Migraciones El mito de la migración ordenada: la denegación de visados por el Consulado de España en Dakar
Maltrato institucional. Estas dos palabras son las más escuchadas cuando se pregunta a personas descontentas con el Consulado de España en Dakar. Cada vez más personas denuncian denegación de visados que no consideran justificados.
Francia
Francia Militantes e intelectuales exigen la absolución de Anasse Kazib, perseguido por su apoyo a Palestina
El Estado francés utiliza el tipo penal de “apología del terrorismo” para perseguir a personalidades y colectivos que han mostrado su apoyo a Palestina y su repulsa al genocidio cometido por Israel.

Últimas

Medio ambiente
Medio ambiente Máis de 200 colectivos esixen transparencia sobre a mina Doade e piden a intervención do Parlamento Europeo
Organizacións de toda Europa, lideradas por SOS Suído-Seixo, esixen a Bruxelas acceso á documentación sobre a explotación prevista, denunciando opacidade, privilexios empresariais e risco ambiental en zonas protexidas de Galiza.
La vida y ya
La vida y ya Espacios de encuentro
Me contaba que, al final del día, le dolían mucho las manos y que había dejado de escribir. Que ya no llevaba el cuaderno pequeño que tenía para anotar ideas que luego se transformarían en artículos o poemas.
Gobierno de coalición
Gobierno de coalición Sánchez piensa en un paréntesis legislativo para evitar roces con los socios tras una semana explosiva
El choque bronco por el caso de las compras de balas israelíes a cargo de Grande Marlaska puso sobre la mesa como nunca la ruptura de la coalición, aunque nunca fue una opción.
Opinión
Opinión “Tener correa” y la ridiculización del afecto
Existe una presión muy fuerte sobre los propios hombres para que no amen demasiado, no cuiden demasiado. El ideal de “libertad masculina” tradicionalmente se entiende como independencia, desapego, y muchas veces, desinterés.
Que no te lo cuenten
Que No Te Lo Cuenten De armas y crisis climática
VV.AA.
Repasamos la actualidad política internacional y miramos los visibles efectos de la crisis climática en la costa mediterránea
Más noticias
Comunidad de Madrid
LGTBifobia Femen protesta contra las terapias de conversión en un acto de la familia de psiquiatras Rojas Estapé
El movimiento Femen ha querido denunciar públicamente la relación de esta familia con sectores ultraconservadores de la Iglesia y su postura abiertamente contraria a los derechos del colectivo LGTBIQ+
València
València Convocan una huelga general contra Mazón el próximo 29 de mayo
CGT, CNT, COS e Intersindical llaman a la movilización por la gestión de la Dana, los recortes y la situación de acceso a la vivienda.

Recomendadas

Guinea-Bissau
Internacional Guinea-Bissau arranca una ola de represión tras el sabotaje popular de una mina de arena en un parque natural
Una acción liderada por las mujeres del pueblo de Varela provocó un incendio en la bomba de extracción de la mina de arena pesada. El Gobierno ha llevado a cabo la detención de 16 personas, entre las que se encuentran líderes locales.
Turquía
Pinar Selek “Turquía sigue gobernada en base al miedo”
La profesora y socióloga turca, quien ha sufrido además de cárcel, un acoso judicial por 27 años, habla de la falta de independencia del poder judicial, del adoctrinamiento social y de la formación de la sociedad turca.
Medio ambiente
Medio ambiente Que papel xoga Abanca no proxecto da celulosa de Altri en Galiza?
A sociedade público-privada Impulsa Galica, que cimentou os primeiros plans da multinacional papeleira e Greenalia está participada fundamentalmente pola Xunta e polo banco que xurdiu da desastrosa fusión das caixas de aforro galegas.