Marga Padilla: “Podemos crear una relación liberadora con la tecnología”

La inteligencia artificial se ha convertido en el gran tema económico-social de nuestra época. La programadora Marga Padilla ha querido bajar al terreno de lo real un concepto lleno de confusiones interesadas y cajas negras.
Marga Padilla - 4
Álvaro Minguito Marga Padilla es ingeniera y programadora informática.

Marga Padilla (Barcelona, 1957) explica que el libro Inteligencia artificial: jugar o romper la baraja (Traficantes de sueños, 2025) surge de un impulso inicial: las dudas de algunas de sus colegas sobre la cuestión laboral y cómo la inteligencia artificial (IA) aterriza sobre un montón de profesiones como un atajo para la desvalorización del trabajo humano. Padilla es programadora y una referente de los movimientos de la cultura libre, en los que lleva décadas participando; alguien que trabaja en una nube de unos y ceros y que participa en los procesos sociales y las relaciones que transcurren fuera de la máquina. De esa experiencia combinada surge un libro que sirve como caja de herramientas tanto para entender la inteligencia artificial como para imaginar y conocer otras formas de uso. 

“La inteligencia artificial recorre todos los hitos de la vida: lo laboral, lo personal, los cuidados, lo económico, lo colonial. Y permite hacerse cargo de los problemas de época, entender cómo es la época que estamos viviendo y construir ideas sobre ello” sostiene Padilla, que cree que el escenario actual no es deprimente sino interesante, dado que permite pensar en lo humano, lo tecnológico y lo bioquímico desde nuevos puntos de vista y que eso abre la puerta para un “hackeo” social.

Para eso, defiende, hay que separar el envoltorio, el papel de regalo, con el que se presenta la IA actual, impuesto por las grandes empresas de Silicon Valley, de las tecnologías que subyacen a esos envoltorios. “Se llama de la misma forma a cosas que son muy distintas y eso genera confusión y no permite entender qué es la IA”, explica esta autora. Bajo esa etiqueta en auge se engloban desde herramientas de selección de objetivos en la guerra hasta algoritmos para la concesión de becas, desde modelos de aprendizaje de idiomas hasta herramientas de transcripción o traducción. ¿Cómo discernir si la IA puede ayudarnos a transformar la realidad o si, por el contrario, solo consolida el poder que está dirigiendo al mundo hacia crisis irresolubles como el calentamiento global? Padilla apuesta, en primer lugar, por comprender qué funciones tiene la tecnología base: para qué puede servir, y después, intervenir socialmente para que esa tecnología sea abierta, debatible, auditable y que se pueda compartir. A partir de ese momento, será más sencillo entender cuál es el alcance real de la inteligencia artificial sobre nuestras vidas y cómo podemos huir de la profecía de que la tecnología terminará por hacer de los humanos piezas de museo.

¿Tiene sentido aplicar modelos de inteligencia artificial a todo tipo de procesos sociales?
La respuesta es similar a si nos preguntamos si el coche es útil. El coche es una tecnología que mata gente, contamina, ocupa el espacio público, hace ruido, etc., pero nos lleva de un sitio a otro. Si fuera un medicamento no cumpliría ninguno de los preceptos para ponerlo en uso y, sin embargo, quitarlo de en medio es misión imposible. Entonces, la pregunta por la utilidad de la inteligencia artificial es complicada. No hemos de ver el algoritmo como algo aislado, sino en la cadena de uso. O sea, no fijarse en un coche suelto, sino en todo el sistema que ha creado el vehículo privado.

En el libro examinas VioGen, el sistema basado en IA del Ministerio del Interior para hacer predicciones sobre el nivel de riesgo de violencia de género. ¿Es uno de los casos donde es más controvertido su uso?
VioGen a lo mejor es una herramienta medianamente útil, pero sería necesario que las personas que la usan tuvieran formación para hacer una evaluación personalizada. El algoritmo es útil realmente en estos casos si las personas tienen formación, hacen una evaluación y después el algoritmo hace una segunda evaluación, de tipo estadístico, que puede confirmar o reforzar lo que han decidido las personas, o que les hace cambiar de opinión. La cuestión no está en el algoritmo suelto, está en toda la cadena. En una cadena de montaje, el algoritmo es una pieza y su utilidad depende de cómo se usa. Cuando se monta la cadena de forma que primero el algoritmo da su veredicto y después la persona lo confirma —acepta el sesgo de autoridad y no se ve legitimada para cambiar lo que ha dicho el algoritmo—, me parece que es un acoplamiento poco útil. Pero con otras formas de acoplamiento puede haber una manera enriquecedora de usar estas tecnologías. 

¿Cómo te imaginas un proceso en el que no desvalorice, sino que coadyuve al trabajo humano? 
Creo que el problema no es la ayuda al trabajo humano, sino la remuneración de ese trabajo. Una persona que hace traducciones, igual que tiene un diccionario online, puede tener unos automatismos que asesoren o que sugieran cómo hacer traducciones. Creo que nadie estaría en contra de ese uso. Dicho de otra manera, se abre la oportunidad de un nuevo sindicalismo que valorice la remuneración y, si es preciso, se llegue a una renta básica. Lo que pide la situación es un nuevo sindicalismo y no volver otra vez a la defensa del copyright, que no nos va a salvar de nada. Ese no es el camino que elegimos cuando optamos por la cultura libre.

En este mundo no hay nada neutro, sería raro que lo fuera la tecnología. Esta responde a intereses, a relaciones de poder, pero también a conflictos y luchas

Es decir, que la lucha contra las corporaciones no sería tanto reclamar que paguen un pequeño porcentaje a cada creador cuyas obras han utilizado para alimentar la IA, lo cual es casi imposible, sino que una renta básica sería más justa para todo el mundo. Porque en el fondo la IA está bebiendo de lo que se ha creado colectivamente.
Digo esto desde el cariño, pero hay muchos manifiestos de creadores que se quejan contra la IA porque se les expropia su obra y se usa para alimentar inteligencias artificiales sin remuneración, pero no hay una reivindicación que vaya más allá. Creo que ese camino es corto, no lleva a grandes alianzas ni a grandes movilizaciones, y me parece imposible impedir que se use la IA, porque gran parte de la sociedad la abraza con los brazos abiertos. Hay que buscar dónde están las grietas. Yo no tengo ahora la solución, pero para mí sería muy interesante resituar el peso que debe tener el trabajo remunerado en la vida, y reconocer todo el trabajo con el que estás contribuyendo socialmente. Hay que crear conflicto, pero desde mi punto de vista sería un conflicto que no impugne la tecnología base en sí, en tanto que esa tecnología es fruto de una creatividad y un conocimiento social, sino que impugnaría las líneas de ensamblaje donde está metida. Eso es compatible con aprender, con amar la tecnología, con hackear, con disfrutar con el código. 

Cuestionas la afirmación que dice que la tecnología es neutral y que es el uso el que no es neutral. ¿Podrías explicar por qué? 
Un ejemplo es la lógica que subyace a los productos de Apple, que concibe que el usuario solo puede empeorar las cosas, porque se va a poner a toquetear y con su ignorancia lo va a estropear todo. Si haces un ordenador para una persona que tiene deficiencias cognitivas, a lo mejor es una buena solución que no pueda tocar nada. Pero para una persona de veintipocos años que tiene ganas de aprender, es una pésima solución. Por eso creo que es muy importante contemplar toda la cadena de uso donde algo se implanta, para ver los efectos que tiene. Al fin y al cabo, la tecnología es cultura y la cultura es una creación humana. En este mundo no hay nada neutro, sería raro que lo fuera la tecnología. Esta responde a intereses, a relaciones de poder, pero también a conflictos y luchas. No todo es dominación, también hay resistencias, autoorganización y maneras de componer otras lógicas. 

¿Cuál es el valor de lo humano? Yo no me niego a pensar en ello, solo que no quiero pensarlo con Google y con Microsoft, sino contigo y con las demás

Abrir las “cajas negras”, esto es, desmontar el control privado del software, es una de las reivindicaciones clásicas de la cultura libre, pero ¿hay otros factores que sean igual de importantes que esa apertura de las cajas negras?
En la historia del software libre se da mucho peso a la cuestión de las licencias, porque fue la manera jurídica de blindar los derechos al uso, al conocimiento, a la modificación y a la redistribución. Pero hay algo no menos importante que no está blindado jurídicamente: la comunidad como institución que custodia el software libre. Abrir la caja negra yo sola en mi casa puede estar bien para mi crecimiento personal, pero lo que permite el empoderamiento es la existencia de comunidades articuladas, porque sin comunidad no puede haber soberanía.

Un ejemplo.
En Wikipedia hubo un gran debate sobre cómo financiarse y una de las opciones era incluir publicidad, y la gente que participaba decidió que no querían que hubiese publicidad. Y esa es una decisión que Wikipedia mantiene, porque hay una comunidad que tiene un contrapoder. La licencia y el código no dejan de ser un instrumento para la soberanía, y la articulación de todo eso requiere de comunidades. 

¿Cómo se forman esas comunidades? 
Hay una barrera: la idea de que quien se tiene que organizar es la gente que entiende de tecnologías. Eso es como decir que quien se tiene que organizar en la defensa de la sanidad son solo las doctoras; la sanidad es un común que se defiende desde muchos puntos de vista. El conocimiento está en la sociedad y con alianzas suficientes se aborda en todos los frentes. Es fundamental no desatender los problemas ciudadanos y dejarlos en manos de expertos y expertas. 

Señalas que la IA no solo es una tecnología, sino que lleva consigo una ideología. ¿Qué nos dice la ideología de la IA? 
Así, en un titular, creo que dice que la subjetividad humana es mala, es un fallo en el sistema, algo a superar y eliminar. Pienso que deberíamos tomar esa propuesta y debatirla, reformularla. ¿Cuál es el valor de lo humano? Yo no me niego a pensar en ello, solo que no quiero pensarlo con Google y con Microsoft, sino contigo y con las demás. Vivimos en un mundo poblado de tecnologías muy avanzadas que ponen en cuestión facetas de lo que antes considerábamos que era lo humano. Hay un cierre identitario que defiende lo humano por encima de todo lo demás, como seres superiores. Ahora es una buenísima ocasión de abolir esa pirámide de superioridad y plantearnos una horizontalidad entre humanos, máquinas, y otros seres y formas de vida. Es un tema de época que es apasionante pensar, pero no desde la ideología de los poderosos, sino desde la vida que palpita desde abajo. 

Nos llama la atención lo que dices al final del libro, "la ideología de la IA considera que la vejez o la enfermedad son errores de diseño en lo humano”.
Considera que lo humano es sucio, está lleno de enfermedades, lleno de problemas. El ser humano es tan bobo que está poniendo en crisis el planeta, por lo que necesitamos dotarnos de unos mecanismos que superen esa crisis. Pero cuando se dice que el ser humano está poniendo en crisis el planeta, se hace una totalización de lo humano que no tiene en cuenta las relaciones de poder. ¿Qué humanos? ¿Dónde están? ¿Qué capacidad de decisión tienen? Señalemos con el dedo en lugar de hacer esa totalización sobre la humanidad. Estas ideas que consideran a la humanidad sin relaciones de poder no nos sirven para pensar los desafíos que tenemos.  

Esos grandes empresarios presentan el futuro de la IA en términos apocalípticos, con la vieja idea de los robots matando a gente por la calle a lo Terminator. Pero parece que todos los demás problemas que ya estamos viendo asociados a la inteligencia artificial se eluden. ¿Por qué crees que se insiste tanto en esas visiones por parte de estos grandes empresarios?
Lo que señalan estos miedos a que los robots nos maten son, a mi entender, marcos opresores, porque refuerzan y dan por hecha una relación de dominación. ¿Quién se ha sublevado a lo largo de la historia? Quienes estaban oprimidos, los esclavos. Esa amenaza de sublevación de las máquinas refuerza la idea de que es legítimo, natural y bueno tratar a las máquinas como nuestros esclavos, como algo que está a mi disposición para hacer lo que le ordeno, que no tiene necesidades. Al final esta idea legitima estructuras de dominación. Tanto si yo domino a alguien como si alguien me domina a mí, la dominación es mala porque no es liberadora. Tenemos muchas narrativas de ciencia ficción en las que los robots se rebelan, pero apenas hay narrativas de colaboración horizontal con las máquinas. Para mí son las más interesantes, porque para tener una relación horizontal con las máquinas, estas deberían ser de otra manera: máquinas que yo pueda amar, de las que me haga cargo, con las que tenga una relación social. 


Es que los últimos dos años, a raíz del genocidio de Gaza, se ha puesto muchísimo énfasis en la selección algorítmica y la IA militar. Una de las cuestiones principales de ese uso es la inexplicabilidad: las cajas negras que nos impiden saber cómo se ha llegado a esa decisión ¿Qué supone que se esté usando una selección algorítmica de adjetivos que posteriormente nadie pueda explicar?
La cuestión es cómo se dan por finiquitados los derechos humanos. Habíamos aceptado, que no cumplido, que la peor persona del mundo, el genocida más despreciable, tiene derechos porque es humano. Y ahora vemos lo contrario, no solo en Gaza, sino con el asesinato de personas en el Caribe por parte de EE UU. Esa idea sobre los derechos humanos es lo que legitima la utilización de esas tecnologías. Es volver atrás, finiquitar una etapa que legitimaba que lo humano en sí mismo es portador de derechos. Partiendo de ese cambio, la no explicabilidad es un dato menor, porque si puedo tirar bombas masivamente y matar a todo el mundo sin dar explicaciones, usar tecnologías que no son explicables no presenta ningún problema. Ese uso te separa cada vez más: yo a lo mejor no sería capaz de estrangular a una persona con mis propias manos, pero quizá sí sería capaz de apretar un botón. El enemigo se deshumaniza, se convierte en un número. Cuanto más abstracta sea esa relación, más fácil es ejercer la violencia. Otra cosa son contextos como el Estado español, donde todavía se reconocen los derechos de las personas. En ese caso, usar tecnologías que no son explicables es problemático. 

¿Cómo se resuelve este problema?
Lo suyo sería poner en marcha auditorías ciudadanas de todas las inteligencias artificiales, de todos los automatismos que pueden influir en el acceso a los derechos de las personas. La auditoría no consiste solo en ver el código, sino en ver cómo está afectando a las personas en términos de justicia. Hay que jugar con toda la baraja: una jugada es oponerse, otra es criticar la legitimidad, y otra es auditar. En contextos como el de la guerra, el error no preocupa porque no hay que rendir cuentas. Pero vivimos en entornos donde el error sí que preocupa. Por ejemplo, con las mamografías en Andalucía. Ahí lo que tenemos que ver es cómo mantener organizaciones que se preocupen por el error, porque eso es un contrapoder fuerte que vigila y no permite que todo valga. 

Lo que podemos construir exige activar la imaginación, quitar todos esos productos y servicios que nos dan empaquetados e imaginar otras cosas

Hace diez, 15 años había una visión muy optimista de las posibilidades que daban las redes sociales e internet y eso se ha venido abajo. ¿Ha cambiado tu visión en estos años o ya eras escéptica entonces?
Era escéptica, pero lo que yo fuera no viene al caso, porque al final una persona suelta no aporta. Ahora es el momento de recoger ese desencanto y aplicarlo al presente y al futuro, con estas nuevas tecnologías que están en una fase más incipiente. La ventana de posibilidad y de transformación es mayor. Venimos de 15 años de haber experimentado a dónde nos han llevado determinados usos de la tecnología, cuánto sufrimiento han creado en lo personal, cuánta desigualdad en lo social, cuánto dinero han permitido acumular. Tenemos la oportunidad de aplicar con espíritu crítico esa experiencia colectiva al nuevo escenario.

Defiendes que la inteligencia artificial puede ser portadora de horizontalidad. ¿Cómo puede ayudarnos a alcanzar esa soberanía tecnológica popular la propia herramienta?
Lo que tenemos ahora mismo no es portador de liberación. Lo que podemos construir con ello exige activar la imaginación, quitar todos esos productos y servicios que nos dan empaquetados e imaginar otras cosas. Y eso no lo puede hacer cada persona en su casa, pensando: se requiere experimentación. Para eso tenemos que agregarnos, organizarnos y ponernos manos a la obra. Por ejemplo, al hacer una auditoría nos vamos a enfrentar con muchos problemas, pero esos problemas van a ir transformando la idea. No nos vamos a liberar imaginando de manera idealista y en ausencia de conflicto. Hay suficientes suspicacias, dudas, malestares, miedos, unidos con expectativas positivas para experimentar. No me voy a inventar una IA que vaya a ser mucho mejor que ChatGPT y vaya a resolver todos los problemas de la humanidad. No es cambiar un producto por otro, dejar de usar ChatGPT y usar el ChatGPT libre. Pero si aprovechamos la oportunidad y nos ponemos a trastear, podemos crear otra relación con la tecnología que sea liberadora. Tenemos que cambiar las reglas del juego y crear otro juego. 

También podemos imaginar que una IA no tenga que ser esta cosa megalómana, gigantesca, sino que puede ser algo un poco más pequeño. 
Hay proyectos para que personas que tienen ordenadores portátiles medio buenos donen su capacidad de cómputo para ejecutar ideas a personas que no tienen esa capacidad de cómputo, en una especie de red P2P. Pero si además hay una comunidad de gente, tenemos posibilidades de encuentro, de apropiación. Como sé que estoy usando el ordenador de otra persona, no voy a usar la IA para hacer la primera tontería que se me pase por la cabeza, sino que la usaré con criterios de austeridad, porque entiendo que le estoy quitando capacidad de cálculo a otra persona. Ahí hay una oportunidad de relacionarse de otra forma con la tecnología. Hay modelos pequeños, hay modelos locales, modelos específicos. Es quitar el envoltorio, quedarte con la tecnología base y empezar a levantar según tus necesidades. Y necesidades que no sean finalistas, por ejemplo, necesito una IA que me haga resúmenes, pero también necesito no contaminar, estar en comunidad.

Inteligencia artificial
La máquina de los asesinatos en masa: Silicon Valley abraza la guerra
Las fantasías distópicas sobre los futuros usos de las máquinas en la guerra están más extendidas que el relato de lo que ya está pasando en los campos de batalla.
Cargando valoraciones...
Ver comentarios 1
Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra na túa conta.
Cargando...
Cargando...
Comentarios 1

Para comentar en este artículo tienes que estar registrado. Si ya tienes una cuenta, inicia sesión. Si todavía no la tienes, puedes crear una aquí en dos minutos sin coste ni números de cuenta.

Si eres socio/a puedes comentar sin moderación previa y valorar comentarios. El resto de comentarios son moderados y aprobados por la Redacción de El Salto. Para comentar sin moderación, ¡suscríbete!

Cargando comentarios...