We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Tecnología
“A industria tecnolóxica ten a tendencia de crear solucións á procura de problemas”
A galega Sofía Prósper (@sofipros) vive como nómade dixital. Actualmente traballa desde Porto (Portugal) nunha empresa coruñesa do sector tecnolóxico, pero non abandona o seu activismo a prol da privacidade en Internet desde Trackula, asociación da que é cofundadora. Coincidimos hai uns meses nun club de lectura de non ficción na libraría Lectocosmos de Lugo, desentrañando os capítulos de “Estados Unidos de Amazon. La historia del futuro que nos espera”, de Alec MacGillis. Esta crónica sobre a expansión do xa monstruoso xigante do comercio electrónico e a influencia dos seus tentáculos na vida das cidades estadounidenses e dos seus habitantes propiciou unha conversa pesimista dentro do grupo. Naquel intre de resignación colectiva, Sofía tomou a palabra e avogou polos dereitos dixitais e o pensamento crítico no desenvolvemento tecnolóxico.
Recomendou os libros de Marta Peirano, unha das súas referencias xunto a Paloma Llaneza, Evgeny Morozov e Shoshana Zuboff, e comentou que non podería asistir á próxima cita do club de lectura porque ese mesmo día estaría participando nunha mesa de debate sobre tecnoloxía humanista para o futuro, precisamente con Peirano e Ana Buitrago, directora de Servizos Xurídicos de Amazon para o Sur de Europa, no marco dun evento do programa “Tech & Society”, organizado por Fundación Telefónica e Aspen Institute España. O seu discurso crítico co capitalismo da vixilancia pareceume inspirador, sobre todo porque non era absolutamente derrotista. Logo descubrín que Sofía era arquitecta de formación e compartía ilustracións de estilo xaponés na rede. O seu pensamento amosaba a visión espacial e a creatividade destas dúas disciplinas. Meses despois daquel faladoiro, antes de que ela cambiase de latitude como nómade dixital, quedamos en Lugo para conversar sobre a privacidade en Internet e outros problemas do ecosistema dixital que merecen a nosa atención.
Sofía, teño entendido que ti es graduada en Arquitectura e tamén ilustradora afeccionada. Como te iniciaches no activismo a prol da privacidade en Internet?
Sempre tiven unha visión crítica sobre a tecnoloxía, pero a miña andaina activista comezou en 2017, cando creamos Trackula. Xunto a Santiago Saavedra, que é enxeñeiro informático, promovín o desenvolvemento desta extensión para Firefox que permitía ver o noso propio historial de navegación e todos os datos que ían recollendo os trackers en tempo real. Presentamos o proxecto a unha convocatoria do Medialab Prado sobre migracións, poñendo o foco no fenómeno da migración de datos. Por este proxecto recibimos un accésit no Premio de Investigación en Protección de Datos Persoais “Emilio Aced”. Logo comezaron a chamarnos para dar charlas sobre privacidade en Internet, dereitos dixitais e soberanía tecnolóxica, e convertemos Trackula nunha asociación.
Ademais de concienciar sobre o uso da tecnoloxía a través da asociación Trackula, estiveches detrás dunha start-up chamada IUVIA que xerou moita expectación no seu momento pero non chegou a despegar. Como foi esa experiencia?
Cando creamos Trackula pasara un ano desde o escándalo de Cambridge Analytica (de 2016), pero a xente non era tan consciente de que nos espiaban, de que a nosa privacidade estaba en perigo. Naquelas primeiras charlas sorprendíanse, pero tamén preguntaban que se podía facer contra isto. A realidade é que non hai tantas alternativas que non esixan un mínimo dominio técnico. É por iso que decidimos complementar o noso activismo co emprendemento para crear unha alternativa comercial. En 2019 presentamos un proxecto de innovación dixital chamado IUVIA ao mecanismo de financiamento en cascada da Comisión Europea para novas empresas. Con ese financiamento inicial comezamos a desenvolver unha nube persoal nun dispositivo físico onde poder gardar e protexer os teus propios datos na casa, desde fotos e arquivos persoais ata contactos e servidor de correo electrónico, que son os datos máis sensibles. Mais coa pandemia chegou unha crise de subministración de chips que nos obrigou a suspender este desenvolvemento porque non eramos capaces de fabricar.
Actualmente traballas noutra start-up galega con sede na Coruña, xestionando comunidades tecnolóxicas e en contacto directo coas developers. Que visión tes do desenvolvemento tecnolóxico desde esa posición?
A empresa onde traballo está especializada na creación de formularios de rexistro para empresas. A día de hoxe, traballar nalgunha empresa que colabore co capitalismo da vixilancia suporíame un conflito ético. Con todo, penso que o problema das grandes tecnolóxicas como Google ou Meta é o seu alcance. Son tan grandes que calquera decisión ten unha influencia global. Ademais, a industria tecnolóxica é perversa no deseño de conceptos. A nube é un exemplo. Visualizamos a nube como algo etéreo, limpo, sen impacto; mais a nube tecnolóxica non é así: son cables, son servidores, son edificacións enormes que precisan potentes sistemas de refrixeración e impactan na súa contorna. A nube é un concepto de márketing moi bo, pero tamén moi perverso. E agora vexo que está pasando o mesmo coa intelixencia artificial.
En que sentido?
Nos últimos anos buscouse un desenvolvemento da tecnoloxía de blockchain, dos NFT ou do metaverso, pero actualmente é a intelixencia artificial a que esperta unha maior expectación. É un concepto igual de confuso que o da nube, xa que nin é intelixencia nin é artificial, vén dos anos 60 do século pasado ou incluso antes. A industria tecnolóxica ten a tendencia de crear solucións á procura de problemas que solucionar, en vez de partir dos problemas xa existentes. Isto, sumado á sensación xeralizada de que os desenvolvementos tecnolóxicos son inevitables e non os podemos parar, de que simplemente vai acontecer, fai que desde as propias institucións estean buscando onde encaixar a intelixencia artificial.
A industria tecnolóxica é perversa no deseño de conceptos. A nube é un exemplo"
Ultimamente escóitanse advertencias mesmo apocalípticas sobre o futuro desenvolvemento da intelixencia artificial. Compartes este enfoque?
Realmente precisamos máis pensamento crítico arredor do desenvolvemento tecnolóxico. No sector estamos sempre á procura da seguinte xenialidade, the next big thing, sen pararnos a pensar para que estamos desenvolvendo esa suposta solución. A intelixencia artificial ten un serio problema de opacidade, nin sequera as persoas que a están desenvolvendo entenden ben cales poden ser os seus resultados. O preocupante non é o uso de ChatGPT ou doutras aplicacións baseadas nesta tecnoloxía, senón a integración indetectable da mesma nos mecanismos automáticos de toma de decisións ou noutras tecnoloxías máis complexas.
A intelixencia artificial ten un serio problema de opacidade, nin sequera as persoas que a están desenvolvendo entenden ben cales poden ser os seus resultados"
Que responsabilidade teñen as propias profesionais do desenvolvemento tecnolóxico nesta dinámica? Son elas as que toman as decisións ou simplemente manos executoras?
Non percibo que haxa pensamento crítico detrás das decisións que se toman en tecnoloxía. Primeiro está o negocio arredor da innovación, sen ter en conta as consecuencias que esta pode ter. Xa o dicía Mark Zuckerberg, move fast and break things (móvete rápido e rompe cousas). Existe unha necesidade de innovación continua, independentemente do resultado. Moitos developers son manos executoras, mais o perfil de emprendedor e fundador de empresa tecnolóxica está bastante relacionado coa enxeñería informática. Nos plans formativos, nos bootcamps de programación, practicamente non se fala de filosofía nin te ética. Sería importante que estes debates entrasen na educación. Cada vez é máis difícil entender como se relaciona a tecnoloxía cos problemas que nos está solucionando.
Non sei se liches o libro “Valle inquietante”, de Anna Wiener, pero nesta obra de non ficción móstrase esa tóxica cultura corporativa da industria tecnolóxica que agromou en Silicon Valley. Que visión tes desde Galiza?
Penso que esta cultura está relacionada co camiño do heroe do home branco, co soño americano de triunfar e deixar pegada. As mulleres que me teño atopado no mundo da tecnoloxía son máis críticas. Realmente son necesarias voces discordantes, e non só de mulleres, senón tamén de persoas racializadas. Nos grupos homoxéneos de homes brancos da mesma orixe, clase social,... que están traballando no desenvolvemento tecnolóxico pensarán igual, non serán capaces de imaxinar as necesidades das persoas que están fóra dese grupo e ofrecer solucións que non respondan soamente ás súas propias necesidades. Teño observado que apenas hai voces que pregunten 'e isto para que?', 'que consecuencias pode ter?' ou 'como respondemos ás necesidades destas persoas?' nos momentos críticos. Eu, que non veño da enxeñería informática e teño outros referentes, aporto esa nota discordante nos equipos onde traballo. Con todo, observo que nun mundo tan endogámico e masculino ás veces non apetece ter xente que faga preguntas incómodas.
Son necesarias voces discordantes, e non só de mulleres, senón tamén de persoas racializadas. Nos grupos homoxéneos de homes brancos pénsase igual e non hai capacidade de imaxinar necesidades de persoas que están fóra do grupo"
Con Trackula estades visibilizando o denominado capitalismo da vixilancia. En que medida nos afecta?
Está a capa superficial, a máis comercial, cando somos bombardeados con anuncios personalizados en función do que buscamos ou falamos en Internet; mais esta non é a capa máis preocupante para a democracia. Existen ferramentas capaces de influír na intención de voto e empresas dedicadas a crear campañas a partir da extracción de datos. Viuse claramente en 2016, nas vitorias de Trump en Estados Unidos e do 'Brexit' no Reino Unido; logo tamén con Bolsonaro no Brasil. Sempre houbo capacidade política para influír na intención de voto, pero agora o problema radica no alcance desa influencia. Paralelamente está xurdindo unha poderosa industria do trol, do meme, que actúa con bots e está deseñada para crear confusión, para manipular e xerar posverdade, que non haxa certezas sobre nada, que xa non teña lexitimidade falar de datos, senón soamente de sensacións. Neste ecosistema dixital, os individuos están dentro de cámaras de eco e se penaliza o cambio de opinión, a propia evolución persoal. Estamos incapacitados para saírmos da nosa cámara de eco, e se cambiamos de opinión publicamente somos duramente xulgados.
Como podemos conciliar o uso das redes sociais coa protección da privacidade?
É inxusto responsabilizar ao individuo do uso que fai das únicas tecnoloxías que ten ao seu alcance. Podemos falar de dous tipos de responsabilidades: a responsabilidade individual, do que unha persoa comparte voluntariamente nas redes sociais, e a responsabilidade da industria tecnolóxica, dos datos que se extraen dunha persoa involuntariamente. Non se pode eludir a responsabilidade individual, pero tampouco podemos culpar o individuo por unha industria que está deseñada para explotar ao máximo o seu comportamento en redes sociais. Alén do contexto europeo, non hai leis claras que protexan o usuario da explotación dos seus datos persoais. Cómpre ir con coidado, tratar de saír da cámara de eco na que estamos metidos. Penso que non é un batalla perdida, pero supón un esforzo moi grande que transcende o plano individual. Co capitalismo da vixilancia ocorre como co cambio climático. Cando os problemas son tan abstractos, tan diversificados e semellan inabarcables temos a impresión de que está todo perdido, mais deixalo pasar ten unhas consecuencias.
E neste contexto que estás describindo, sabemos que as propias institucións galegas e españolas subcontratan servizos de grandes tecnolóxicas para a xestión administrativa, comprometendo os datos persoais da poboación. Son cómplices deste capitalismo da vixilancia?
Efectivamente. En Galiza sabemos que o Sergas ten externalizado o sistema de información e que hai empresas xestionando datos de pacientes. A nivel estatal subcontratáronse servizos de Amazon Web Services (AWS) para a Administración Pública. É contraditorio que se promovan leis para protexer a privacidade e outros aspectos da vida das persoas en relación coa tecnoloxía, e que ao mesmo tempo se empreguen servidores externos de grandes empresas do capitalismo da vixilancia. Os gobernos toman estas decisións políticas e teñen moita responsabilidade. Non me explico por que se prefire o software privativo cando temos a alternativa do software libre.
É contraditorio que se promovan leis para protexer a privacidade e outros aspectos da vida das persoas en relación coa tecnoloxía, e que ao mesmo tempo se empreguen servidores externos de grandes empresas do capitalismo da vixilancia"
É unha cuestión de eficiencia económica ou de presión por parte das grandes empresas do sector?
A presión do lobby tecnolóxico obviamente existe. Hai unha tendencia clara a externalizar servizos, no canto de desenvolver infraestruturas propias. Contratar persoas que creen servizos propios con software libre sería doado e máis económico. Non se dependería de terceiros e se podería controlar e auditar a xestión dunha información moi sensible. Nestas decisións políticas hai moito de desleixo. Está en xogo a soberanía tecnolóxica.
Hai esperanza nun cambio de temón no desenvolvemento tecnolóxico?
É unha loita contra xigantes, pero cada vez escoitamos máis voces críticas detrás dos desenvolvementos tecnolóxicos. O escándalo de Cambridge Analytica espertou conciencias. Igual que en consumo responsable se fala de reducir, reutilizar e reciclar, no capitalismo da vixilancia debemos comezar por reducir a xeración de datos persoais. Unha vez creado o dato é moi difícil, casi imposible a día de hoxe, evitar que sexa vendido a terceiros cunha finalidade comercial ou utilizado sen nós sabelo no adestramento de intelixencias artificiais. É necesaria máis educación e compromiso ético.