Inteligencia artificial
Los planes del Gobierno para la supervisión de la inteligencia artificial excluyen a la sociedad civil

La futura Agencia de Supervisión de la Inteligencia Artificial (AESIA) no empezará a funcionar antes de otoño. El Ejecutivo, que actualmente discute sobre los recursos que le asignará, planea moldear su operativa de la mano del sector privado.
Inteligencia artificial
Inteligencia artificial. Foto de Binary Koala.

@pjarandia

21 feb 2023 06:00

El Gobierno español quiere actuar como avanzadilla en la regulación de la Inteligencia Artificial (IA) en Europa. “No queremos ser testigo, sino protagonistas de los grandes cambios digitales”, dijo en una reciente entrevista Carme Artigas, secretaria de estado de digitalización y figura clave en estas aspiraciones. En los próximos meses bajo su batuta abrirá la primera agencia nacional en el continente creada para supervisar y controlar estas tecnologías, bajo las siglas de AESIA (Agencia Española de Supervisión de la IA).  

El borrador del reglamento europeo (conocido como AI Act), actualmente en discusión en Bruselas, exige que los Estados miembros designen autoridades nacionales para vigilar su cumplimiento. La mayoría de países todavía no han explicado cómo lo van a hacer. Pero España ya ha detallado que creará una entidad independiente del Gobierno, encargada de supervisar algoritmos tanto del sector privado como público. 

La capacidad de la AESIA para vetar el uso de sistemas potencialmente dañinos para las personas estará muy ligada a la versión final de la norma que se apruebe en Bruselas. También su potestad para imponer sanciones económicas a empresas o administraciones que se salten la normativa. 

Por otro lado, los recursos y el funcionamiento interno de la agencia están ahora mismo en discusión dentro del Gobierno. Pero la documentación oficial disponible y las fuentes consultadas para este artículo permiten dibujar ya cuáles serán las prioridades y líneas maestras de este organismo. 

Testear la normativa europea

El pasado verano Artigas y el comisario europeo de Mercado Interior y Servicios, Thierry Breton, presentaron un sandbox regulatorio —o entorno de pruebas controlado— para que empresas españolas testeen de primera mano la nueva normativa. 

El objetivo del Gobierno español con este testeo es doble. Primero, identificar “mejores prácticas” entre las empresas participantes sobre cómo implementar la regulación europea. Algunas de ellas se recogerán luego en una guía que España se ha comprometido a presentar durante su presidencia del Consejo Europeo en el segundo semestre de este año). 

La capacidad de la nueva normativa europea y de las agencias de supervisión nacionales para detectar (y prevenir) el impacto social negativo de los sistemas de IA es una de las grandes preguntas hoy en el aire

Y segundo, definir la manera en que trabajará la AESIA y cuál será su relación con los actores privados del mercado español. Así se desprende de una licitación pública publicada hace unas semanas y de las explicaciones ofrecidas desde el Gobierno para este artículo. 

“Se da la vuelta a la lógica normativa. Normalmente tú desarrollabas, escribías la ley y veías las consecuencias. Y en base a eso podías hacer las modificaciones legales pertinentes. En este caso es al revés: participan empresas con sistemas de IA más avanzados y se van viendo casos de uso y dónde se pueden producir determinadas discriminaciones. En base a eso, se intentarán minimizar los sesgos de los sistemas”, señala en conversación por videollamada Carlos Ruiz de Toledo, asesor del ministerio. 

En los últimos meses un proveedor externo al Gobierno, formado por la consultora Deloitte y la asociación OdiseIA, ha redactado varias guías y manuales para explicar de manera práctica a las empresas cómo implementar los requisitos de la normativa. Estas guías incluyen autoevaluaciones de conformidad —es decir, listas de preguntas específicas relacionadas con la nueva ley— y están centradas en los casos de uso considerados de alto riesgo por el AI Act. 

Entre marzo y abril de este año —cinco meses después respecto a los planes iniciales del Gobierno— este entorno de pruebas se abrirá a empresas que quieran participar de forma voluntaria, explica por correo electrónico Miguel Valle del Olmo, alto cargo del equipo de Artigas.

Un sello nacional y automatización de la supervisión

En esa licitación se detallan también los planes del Gobierno para los primeros pasos de la agencia. La empresa adjudicataria (el contrato se divide en dos lotes) tendrá entre otras funciones que actualizar y redactar las guías finales del sandbox, pero también “definir los procesos internos” de funcionamiento de la agencia y los perfiles profesionales necesarios para su puesta en marcha. 

Entre estos planes está la creación de un sello nacional de IA. Es decir un certificado que acredite que los sistemas desplegados en el país cumplen con los requisitos exigidos por Europa. Este sello será de carácter voluntario, al menos hasta la entrada en vigor definitiva del reglamento europeo. Desde el Gobierno no aclaran cómo van a incentivar que las empresas pasen por este reconocimiento. Pero deslizan la posibilidad de vincular el acceso a los fondos de financiación europeos a este sello de calidad. 

Otra de las ideas de Artigas es automatizar todo lo posible el trabajo de supervisión de la agencia. Para ello se desarrollará una herramienta web a la que tendrá acceso tanto el personal de la AESIA como las empresas que usen sistemas de IA de alto riesgo. En ella las empresas podrán auto-evaluar la conformidad de sus sistemas con el reglamento; así como hacer un seguimiento una vez han sido desplegados en el mercado. La herramienta, según la documentación oficial consultada, también incluirá un análisis del código y los datasets de los sistemas. 

“Sin perfiles humanistas o sociales en esta plantilla, ¿cómo vas a observar el impacto social de los sistemas de IA?”, se pregunta Judith Membrives, activista por los derechos digitales y de Lafede.cat

Dentro del consejo asesor de la IA del Gobierno se ha discutido en los últimos meses la automatización, al menos parcial, de las auditorías de algoritmos desde la AESIA, señala Amparo Alonso Betanzos, miembro de este consejo. Aunque esta investigadora, como otras voces, alerta de las limitaciones que tiene realizar un análisis automatizado a sistemas de IA. 

“Automatizar ciertas cosas es bastante complejo. Habrá partes que sí se podrán medir de forma automática: los datos que se recogen, las variables usadas, etc. Pero por ejemplo la interfaz con humanos es más complicada”, señala. 

Recursos todavía en el aire 

Como cualquier agencia pública de nueva creación, la AESIA necesita recursos económicos y humanos suficientes para empezar a operar. Su dotación presupuestaria es precisamente el principal motivo hoy de disputa entre este departamento y otros ministerios del Gobierno.

Inicialmente se difundió que la agencia contaría con cinco millones de euros. Ruiz de Toledo asegura que la intención es aumentar este presupuesto antes de su puesta en marcha, pero aclara que esto dependerá del Ministerio de Hacienda. Y apunta que una de las opciones para aumentar estos recursos es que las futuras sanciones económicas de la agencia a empresas o administraciones vayan a parar a su propio presupuesto.

Una parte importante del dinero finalmente designado será para pagar las nóminas de la plantilla de la agencia. El Gobierno estimó en otoño una plantilla de 40 trabajadores, todos ellos funcionarios del Estado de perfiles técnicos, administrativos y jurídicos. La ausencia de otro tipo de perfiles ha despertado suspicacias entre investigadores y entidades en defensa de la justicia algorítmica.

Inteligencia artificial
Regulación de algoritmos Varios colectivos piden que la Agencia de Supervisión de la Inteligencia Artificial tenga un registro público de algoritmos
Las organizaciones reclaman participar en el diseño de la futura Agencia Española de Supervisión de Inteligencia Artificial y proponen la creación de estándares y criterios de evaluación algorítmica que aseguren un buen uso de la inteligencia artificial en la vida cotidiana, en las administraciones públicas y las empresas privadas.

“Sin perfiles humanistas o sociales en esta plantilla, ¿cómo vas a observar el impacto social de los sistemas de IA?”, se pregunta Judith Membrives, activista por los derechos digitales y de Lafede.cat. Ruiz De Toledo no descarta que en los próximos meses se pueda abrir la plantilla a profesionales o colaboradores externos, aunque reconoce las dificultades para justificar su inclusión en un organismo como este.

Los recursos económicos y humanos de la AESIA, claves para definir su capacidad de supervisión real, se incluirán en unos estatutos internos que deberían estar listos antes del verano. La previsión más optimista del equipo de Artigas es tener toda la documentación en junio y dar al Gobierno tiempo para tramitar las leyes pertinentes en verano. Así, la agencia echaría andar, si nada se tuerce por el camino, el próximo otoño. 

A nivel oficial el Gobierno solo ha anunciado por ahora que la sede física de la agencia estará en A Coruña, después de un concurso entre varias candidatas. Una asignación que ha levantado una gran polvareda política en Granada, una de las sedes candidatas, que ha criticado al Ejecutivo central por falta de transparencia y un supuesto trato de favor hacia la ciudad gallega. 

Impacto social de la IA 

La capacidad de la nueva normativa europea y de las agencias de supervisión nacionales para detectar (y prevenir) el impacto social negativo de los sistemas de IA es una de las grandes preguntas hoy en el aire.

Ya en 2020 el Gobierno español incluyó en la Estrategia Nacional de Inteligencia Artificial (ENIA) la creación de un observatorio público de impacto social algorítmico. Más de dos años después nada se sabe de esta entidad. Ahora, bajo el paraguas de la nueva normativa europea, el Ejecutivo plantea un plan en teoría más ambicioso para proteger a la ciudadanía de los efectos perniciosos de estas tecnologías.

“La ciudadanía no solo se va a posicionar cuando exista algo malo [con la IA]. Quiere ser escuchada para que estos procesos sean diseñados de forma que, además de la parte más mecánica, se tenga también en cuenta su impacto en la sociedad”

En los contratos publicados, el Gobierno incluye la creación de un “plan nacional de protección de colectivos vulnerables de IA” con varias acciones. Entre ellas un estudio de las implicaciones y riesgos de la IA por colectivos y ámbitos y la redacción de manuales de buenas prácticas para sistemas de IA en las administraciones públicas -los cuales habría que aplicar a algoritmos en uso desde hace años en España como RisCanvi (usado en el sistema penitenciario catalán), Veripol (un algoritmo para la detección de denuncias falsas en la Policía) o VioGén (un sistema automatizado integrado en los protocolos contra la violencia machista).

Asimismo se especifica la creación de un “laboratorio de observación de riesgos” que realizará “auditorías informales” sobre sistemas considerados de riesgo. Este plan de trabajo se realizará entre empresas externas y el equipo de Artigas, aclara Miguel Valle del Olmo. Y sus resultados se entregarán a la propia AESIA, señala. 

Rol de la sociedad civil

Estos planes sobre el papel contrastan con el rol que el Gobierno español está dejando hasta ahora a la sociedad civil. En España en los últimos años han proliferado entidades de defensa de los derechos humanos en el ámbito digital y de la IA: organizaciones como la Fundación Civio, que ha llevado a los tribunales al Gobierno a causa de un software usado para la asignación del bono social eléctrico; el colectivo Algorights, y el Observatorio de Trabajo, Algoritmo y Sociedad (TAS), de defensa de los derechos de los trabajadores de plataformas.

Estas y otro medio centenar de organizaciones sociales reclamaron en septiembre pasado al Gobierno a través de una carta pública poder participar en el diseño y en la estrategia de la nueva agencia supervisora. Semanas después Carme Artigas recibió a varios representantes para escuchar sus peticiones. 

Varias personas participantes en este encuentro señalan que, más allá de las buenas palabras, Artigas descartó su inclusión en el proceso de diseño de la agencia. De hecho, cuatro meses después de esta reunión el Gobierno no ha contactado de nuevo con ellas.  

“Estamos asistiendo a un proceso disruptivo en el cual deben participar muchos más actores, de eso no hay duda, sino será demasiado tarde”

Albert Sabater, investigador y director del observatorio de ética en IA de Cataluña (OEIAC), reclama la necesidad de aumentar el peso de la sociedad civil en estos procesos. “La ciudadanía no solo se va a posicionar cuando exista algo malo [con la IA]. Quiere ser escuchada para que estos procesos sean diseñados de forma que, además de la parte más mecánica, se tenga también en cuenta su impacto en la sociedad”. “Estamos asistiendo a un proceso disruptivo en el cual deben participar muchos más actores, de eso no hay duda, sino será demasiado tarde”, añade. 

Otro elemento llamativo de este proyecto es cómo se está licitando externamente el diseño y desarrollo de varios de los planes y acciones de la futura agencia. David Cabo, co-director de la Fundación Civio, especula con que el Gobierno esté apurado en los plazos y trate así de llegar a tiempo para arrancar con la agencia este año.

“El diseño de la agencia debería estar en manos públicas. Si quieres que la agencia acumule conocimiento para vigilar a los demás, si empiezas licitando en vez de contratando a los funcionarios, ese conocimiento no se va a quedar dentro de la agencia”, advierte.

Texto original
Este reportaje está basado en un texto publicado originalmente en AlgorithmWatch con licencia Creative Commons. La actual versión ha sido adaptada y modificada respetando el sentido del contenido original y traducida por el propio autor.
Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra na túa conta.

Relacionadas

Inteligencia artificial
PAN 06X01 Vuelve el PAN, integral, pero sin IA
Regresamos esta temporada con una edición mensual. Más ligera, integral. Un carrusel de Feeds N Chips y música porque los CEO's de las Big Tech y los criptobros no nos dejan descansar
Inteligencia artificial
Inteligencia Artificial Un manifiesto denuncia la desprotección de artistas y trabajadores culturales frente a la IA generativa
Asociaciones de autores, artistas y trabajadores del sector audiovisual, del libro y las artes escénicas presentan un manifiesto que pide al Gobierno protección ante “los abusos de las empresas de Inteligencia Artificial”.
Inteligencia artificial
Inteligencia artificial Malas artes
Ciertos movimientos en el sector editorial revelan intereses en el uso lucrativo de las inteligencias artificiales. ¿Qué futuro cabe esperar para los profesionales de la creación?
Opinión
Opinión Non sempre ter moitas luces é sinónimo de intelixencia
Que impacto ecolóxico e social produce a iluminación do Nadal de Vigo? A cidade sofre máis aló da masificación, o caos de tráfico, as molestias á veciñanza, o malgasto ou os recortes en orzamentos de emerxencia social.

Últimas

Palabras contra el Abismo
Palabras contra el Abismo Lee un capítulo de ‘Café Abismo’, la primera novela de Sarah Babiker
El barrio es el espacio físico y social en los que transcurre ‘Café Abismo’, la primera novela de la responsable de Migraciones y Antirracismo de El Salto, Sarah Babiker.
Crisis climática
Informe de Unicef El cambio climático multiplicará por tres la exposición de los niños y niñas a las inundaciones para 2050
Es la proyección que hace Unicef en su informe 'El Estado Mundial de la Infancia 2024'. La exposición a olas de calor extremas será ocho veces mayor para 2050 respecto a la década del 2000. “El futuro de todos los niños y las niñas está en peligro”, advierte la agencia de la ONU.
Memoria histórica
Memoria histórica Museo del franquismo, ¿eso dónde está?
España sigue ajena a la proliferación mundial de espacios museísticos dedicados a dictaduras y resistencias democráticas.
Unión Europea
Unión Europea La ultraderecha europea, ante la victoria de Trump
El triunfo de Donald Trump da alas a todas las formaciones ultraderechistas de Europa y del resto del mundo, que han visto cómo el millonario republicano ha conseguido volver a ganar las elecciones sin moderar un ápice su discurso.
Tribuna
Tribuna Vivienda: es hora de organizarnos
La situación de crisis inmobiliaria nos exige leer el momento para acertar en las batallas que debemos dar ahora, reflexionar sobre los modos de acción colectiva y lograr articular una respuesta política amplia.
Pontevedra
Ecoloxismo Unha investigación revela alta contaminación por nitratos en augas superficiais da comarca do Deza
Os resultados da análise de Ecoloxistas en Acción, con máis de 80 puntos de mostraxe, reflicten concentracións xeneralizadas e moi altas de NO3. Só o 19% das augas superficiais analizadas están “fóra de toda sospeita”.
Racismo
Racismo institucional Diallo Sissoko, una víctima más del sistema de acogida a migrantes
La muerte de este ciudadano maliense durante su encierro en el CAED de Alcalá de Henares ha puesto de manifiesto algunas de las deficiencias del sistema de acogida a migrantes en el Estado español.
Comunidad de Madrid
Violencias machistas Huelga en la red de atención a la violencia de género de la Comunidad y Ayuntamiento de Madrid el próximo 25N
Las trabajadoras de ambas redes se unen para reivindicar mejoras laborales y de atención a las mujeres víctimas en un paro de 24 horas. “Te sientes impotentes porque no puedes ayudar como deberías”, explican.
Turismo
Opinión Abolir el turismo
VV.AA.
Lleguemos a donde lleguemos, no puede ser que sea más fácil imaginar el fin del capitalismo que el fin del turismo.

Recomendadas

Galego
Dereitos lingüísticos Miles de persoas desbordan a praza da Quintana para mudar o rumbo da lingua galega
A Plataforma Queremos Galego, que convocou esta mobilización, sinala unha nova data para outro acto protesta: o vindeiro 23 de febreiro na praza do Obradoiro, en Santiago de Compostela.
València
Exclusiva El Gobierno de València contrata 12,9 millones en obras de la dana a una constructora investigada por pagos al cuñado de Barberá
La Generalitat Valenciana ha hecho el encargo a Ocide, una empresa cuya matriz está siendo investigada en el caso Azud por pagos “de naturaleza ilícita” al abogado José María Corbín a cambio de contratos adjudicados por el Ayuntamiento de València.