Inteligencia artificial El Salto 53

Inteligencia artificial
La Unión Europea abraza la ley del algoritmo más fuerte

La inteligencia artificial ya tiene quien la regule. El Parlamento Europeo ha aprobado una ley que no mitiga las preocupaciones por los efectos que puede tener el modelaje algoritmo sobre los derechos fundamentales.
17 mar 2024 05:58

Solo unas horas después de sacar adelante la primera ley sobre economía digital, la Parlamento Europeo aprobaba la primera Directiva sobre Inteligencia Artificial. Con 523 votos a favor, 46 en contra y 49 abstenciones, la norma supone un cambio de paradigma respecto al escenario de completa desregulación anterior. La ley votada el 13 de marzo entrará en vigor en mayo y su implementación por parte de los Gobiernos nacionales se espera para 2026. Esta ratificación no es un simple trámite, sino que los distintos Estados miembro pueden establecer sus propios límites y recortes en las obligaciones que dibuja el tratado.

En la presentación del texto Brando Benifei (S&D, al que pertenece el PSOE) celebró como una “jornada histórica” la luz verde a una norma que comenzó a estudiarse antes de la llegada de Chat GPT —el juguete algorítmico más conocido de los últimos tiempos— y que se aplicará sobre productos que aún no han sido concebidos. Los principales partidos europeos tenían un objetivo: ser los primeros en regular la inteligencia artificial. Se trata de encontrar una serie de normativas que influyan sobre las predicciones, recomendaciones o decisiones que ya son capaces de realizar las máquinas a través de la acumulación de datos.

El hecho de que no exista una normativa anterior, y que no haya otra institución internacional que haya implementado todavía una directiva de este tipo, invita a pensar que, a pesar de sus limitaciones, la propia existencia de la Ley IA es una buena noticia. Como señala Sofía Scasserra, investigadora Asociada al Transnational Institute, este sector ha crecido en un contexto de monopolización del mercado en una internet desregulada. Los primeros impactos negativos de la digitalización apenas fueron atendidos por los Estados nacionales, que se situaban de espaldas a unas prácticas “por conveniencia o por desconocimiento”, resume Scasserra.

Entre los puntos negativos de la ley está que se otorga a las empresas la capacidad de definir qué aplicación de la IA será considerada de alto riesgo y cuál no

Pero, a medida que ha crecido el negocio, el poder, y el impacto en la vida cotidiana de la gente de los productos diseñados por estas empresas, se ha llegado a un consenso —al menos en la Unión Europea— para encauzar las prácticas de las grandes del sector, las llamadas big tech, dentro del marco de normas de la competencia. 

La norma establece cuatro niveles de riesgo, en el que se basará la aprobación de programas. Del inaceptable, que prohíbe la aprobación de sistemas de crédito social, de vigilancia masiva o amenazas a la seguridad al “alto riesgo” o al riesgo mínimo de usos “inocuos”. Pero la Ley deja fuera las competencias de los Estados miembros en materia de seguridad nacional, con lo cual abre diversas vías para puertas traseras que pueden aumentar los riesgos derivados de su uso. Pese a que reconocen aspectos que mejoran la situación actual, partidos como Podemos (dentro de The Left en el Parlamento Europeo) han votado en contra. “Tal y como se ha aprobado”, indican fuentes de la formación morada, la ley “antepone los intereses de las grandes tecnológicas a la protección de la ciudadanía y sus derechos fundamentales, especialmente la privacidad y la no discriminación”. 

El poder del valle de silicio

El proceso de preparación de la norma ha estado definido por el trabajo de zapa de los lobbies de la inteligencia artificial. Un informe publicado el 11 de marzo por Corporate Europe Observatory (CEO) ha detallado el intenso trabajo llevado a cabo por los gigantes del sector y por dos proyectos de raíz europea, la francesa Mistral AI y la alemana Aleph Alpha, para orientar la directiva a sus intereses. 

En 2023, último año con registros completos, el 78% de las reuniones de eurodiputados para abordar las problemáticas de la inteligencia artificial fueron con representantes de compañías. Google y Microsoft, especialmente, pero también Spotify, Uber, Amazon o Netflix se han interesado por contactar con distintos parlamentarios para trasladarles sus preocupaciones. 

Tecnología
Los nuevos ropajes del capitalismo (Parte I)

Evgeny Morozov realiza en este texto, publicado en dos entregas, una extensa e implacable crítica del libro de Shoshana Zuboff Surveillance Capitalism, el intento más reciente por conceptualizar el régimen social imperante. El intelectual bielorruso exige fijarse en las lógicas del capitalismo más que en las de la vigilancia.


Las negociaciones han estado definidas por dos posiciones, una, a favor de una regulación laxa, basada en que una norma con demasiados controles podía poner “en peligro la competitividad y la soberanía tecnológica de Europa” —en palabras de una carta abierta firmada por 150 empresas—. La otra, basada en el hecho de que la falta de regulación puede incrementar las dificultades asociadas al uso de la inteligencia artificial. Un amplio abanico de problemas que va desde los problemas de autoría en la creación cultural, el uso intensivo de energía o su empleo en la vigilancia fronteriza.

Según han denunciado ONG como CEO o el Observatoire des Multinationales (ODM), la legislación aprobada favorece en particular a las grandes tecnológicas de Silicon Valley, que han desarrollado en esta década los principales motores de aprendizaje automático. Gemini, el modelo de lenguaje multimodal de Google, Titan, el de Amazon, o ChatGPT, desarrollado con la financiación de Microsoft, son las triunfadoras de un modelo económico que tiende al monopolio y que, aunque está plagado de pequeñas compañías y startup, sigue una particular ley del embudo por el que el rastro del dinero siempre llega a Palo Alto (California), centro de operaciones del capitalismo GAFAM (acrónimo de Google, Apple, Facebook, Amazon y Microsoft).

Cathy O'Neil, que ha criticado los usos del Big Data para la toma de decisiones políticas, explicaba una de las características fundamentales de estos modelos: “Suelen castigar a los pobres”

“Sin embargo”, señala el informe de CEO, “fue el lobby de la startup francesa Mistral AI y de la startup alemana Aleph Alpha lo que inclinó la balanza”. Ambas empresas, favorecidas por ser de la “marca Europa” han tenido acceso a las instancias más altas de toma de decisiones, Pero, como explican desde el propio observatorio, las huellas vuelven a llevar al valle californiano del Silicio. El periodista tecnológico Luca Bertuzzi, detallaba en un hilo de Twitter cómo Mistral IA ha hecho el trabajo sucio para las grandes tecnológicas, en gran medida después del acuerdo que esta compañía firmó en febrero de 2023 con Microsoft, que aporta 15 millones de euros al desarrollo de sus productos y cederá sus servidores para el entrenamiento y la distribución de sus modelos.

Entre los puntos negativos de la ley está que se otorga a las empresas la capacidad de definir qué aplicación de la IA será considerada de alto riesgo y cuál no. Desde Podemos se estima que la definición de alto riesgo “es muy vaga y para todos los usos prohibidos de la IA se establecen excepciones, que son enormes puertas traseras”. La evaluación de impacto sobre los derechos de la ciudadanía que incluye la ley solo se aplicará a las instituciones públicas, mientras que a las empresas que usen esta tecnología únicamente se les anima a adherirse a esos criterios, “sin obligarles a cumplirlos”, recalcan desde este partido de la izquierda europea.

“Debería haber mecanismos de control más allá de la Ley IA, que es un buen primer intento pero es totalmente insuficiente”, resume Scasserra. Se refiere, por ejemplo a las posibles pérdidas de empleos que pueden acarrear estas tecnológicas. En marzo de 2023, solo un año después del lanzamiento de ChatGPT, el banco Goldman Sachs lanzó la estimación de que 300 millones de empleos en todo el mundo —el 18% del total— pueden desaparecer como consecuencia de la expansión de la Inteligencia Artificial. Los trabajos amenazados son los considerados de cuello blanco: puestos administrativos, también en el ámbito de la Justicia, traductores e intérpretes, y también profesionales de la ilustración, artistas, periodistas, publicistas… y profesionales de la programación informática.

Inteligencia artificial
El último 'hype' tecnológico ¿La inteligencia artificial generativa reemplazará a los artistas?
DALL-E o GPT-3 se plantean como una amenaza al sector creativo, pero debemos abandonar el imaginario de reemplazo para buscar vías de cooperación humano-máquina.

El abanico de problemas

En diciembre de 2022, un escándalo sacudió el panorama político australiano. El sistema de asistencia social había notificado por error a 430.000 beneficiarios que tenían una deuda. El plan llevado a cabo por el Gobierno de Scott Morrison se basaba en la presunción de sospecha sobre decenas de miles de personas perceptoras de ayudas. Se cruzaron los datos de ingresos con los de Hacienda y se hicieron sin una investigación humana, solo a través de un modelaje algorítmico. Las respuestas de los ciudadanos que eran conscientes del error y de cómo este estaba arruinando sus vidas caían en un saco roto: la máquina no atendía a razones —no estaba programado para ello— y las altas instancias políticas que la habían puesto en marcha confiaban en ella en su particular guerra contra los pobres. El escándalo de Robodeuda costó vidas humanas —suicidios y deterioro de la salud por la ansiedad provocada por la situación— y 1.800 millones de dólares australianos en indemnizaciones al Gobierno aussie.

No es el único caso en el que la robotización de procesos y el empleo del Big Data han sido un fiasco para las administraciones y una maquinaria de sufrimiento para sus damnificados. En enero de 2021, el Gobierno de Países Bajos dimitió al completo como consecuencia de un escándalo similar. En aquella ocasión, las víctimas eran perceptoras de prestaciones de cuidado infantil. La máquina había empleado un mecanismo de autoaprendizaje que clasificaba perfiles de riesgo de posible fraude. Como consecuencia, el Gobierno emitió multas, un millar de niños y niñas fueron a parar a familias de acogida —separados de sus progenitores— y se repitieron parecidas tragedias: suicidio, problemas de salud mental derivados de la política de discriminación y la confirmación de una situación de racismo institucional que separa a ciudadanos de primera y candidatos a la marginación y la exclusión social.

El tratamiento de datos personales y el derecho a la privacidad son los principales agujeros de un ramillete que se extiende en todas direcciones. La investigadora estadounidense Cathy O'Neil que, con su Armas de Destrucción Matemática (Capitán Swing, 2018), abrió el camino de la crítica hacia los usos del Big Data para la toma de decisiones políticas, explicaba en este libro una de las características fundamentales de estos modelos: “suelen castigar a los pobres”. Y el castigo se aplica en distintas esferas: a la hora de encontrar un empleo —selección automatizada de perfiles—, de percibir ayudas, acceder a becas, perder el derecho a un juicio justo, y hasta de ser seleccionado como un perfil proclive a cometer delitos por parte de software de control de riesgos de tipo “minority report”.

Laboral
Tecnología laboral Inteligencia artificial al servicio de tus jefes
La industria que desarrolla inteligencia artificial para entornos laborales crece y se desarrolla a grandes pasos. Principalmente se utiliza para contratar, organizar, vigilar empleados y predecir rendimiento.


Sofía Scasserra subraya que la cuestión de los sesgos no es el único punto problemático, ni siquiera la cuestión fundamental ya que, razona, ninguna empresa quiere verse asociada a la publicidad negativa que dan las acusaciones de discriminación. Hay, además un problema de acceso y de diseño: no es lo mismo el uso que alguien con cierta formación educativa puede realizar de un programa como Chat GPT que alguien que no está en ese nivel. Esa barrera de entrada es una vía hacia la desigualdad desde la etapa escolar: no es lo mismo un hogar en el que determinadas tareas se pueden hacer con esa u otras herramientas a otros donde no se conocen sus posibles usos, o una escuela en la que el personal está familiarizado con ese software a otras en las que ni siquiera hay computadoras. En otros casos, el diseño por parte de las start-up puede influir en el urbanismo: semáforos que fijan el tiempo de paso de peatones según la velocidad promedio de los viandantes pueden acarrear dificultades añadidas a personas con problemas de movilidad, ancianos o que acostumbran a ir más cargadas.

“La Ley de IA conducirá al uso de tecnologías digitales de formas nuevas y dañinas para apuntalar la Europa Fortaleza y limitar la llegada de personas vulnerables en busca de seguridad”, dicen desde Statewatch

En 2016 nació la Liga de la Justicia Algorítmica, activa hasta el día de hoy, que tiene entre sus objetivos sensibilizar y denunciar sobre los sesgos, de raza, de género y de clase, que se aplican en esos algoritmos. También alertan de la pérdida de un derecho fundamental como es el de la privacidad derivada del uso de los sistemas biométricos de vigilancia.

Precisamente este es uno de los puntos más oscuros de la nueva ley aprobada en el Parlamento Europeo: la ley no prohíbe el uso de la inteligencia artificial en el contexto de la vigilancia fronteriza o en la gestión migratoria, ni el reconocimiento biométrico a través de material grabado. Chris Jones, director ejecutivo de Statewatch, que monitoriza las normas y prácticas de vigilancia y restricción de derechos, reaccionaba así ante la aprobación de la Ley: “La Ley de IA puede ser una ley nueva, pero encaja en una historia mucho más antigua en la que los gobiernos y agencias de la UE —incluyendo Frontex— han violado los derechos de los migrantes y refugiados durante décadas. Implementada junto con una serie de nuevas leyes restrictivas de asilo y migración, la Ley de IA conducirá al uso de tecnologías digitales de formas nuevas y dañinas para apuntalar la ”Europa Fortaleza“ y limitar la llegada de personas vulnerables en busca de seguridad”.

Migración
Fronteras Europa apunta a profundizar el control biométrico de las personas migrantes con la reforma del EURODAC
110 organizaciones de la sociedad civil denuncian que la reforma de EURODAC (Base de datos dactiloscópicos europea de asilo), que podría concretarse este 7 de diciembre, supone un salto adelante en la criminalización de las personas migrantes.


En junio, durante la discusión de la Ley en el Parlamento Europeo, el grupo de The Left consiguió que se prohibiera el uso de ese software de reconocimiento biométrico en tiempo real, pero este mes de marzo, la ley se ha endurecido, incluyendo varias excepciones que lo permiten. La vigilancia biométrica en remoto no ha sido catalogada como “riesgo inaceptable” y ha sido encuadrada en el segundo nivel de “riesgo alto”, cuyo uso está permitido sujeto a requisitos.

Desde Podemos se detalla que tampoco se regula el uso de la IA en el ámbito policial, “por lo que podrá ser comercializada en la UE, abriendo la puerta a su uso para la aplicación de sistemas de reconocimiento de emociones o detectores de mentiras”. Además, no se cierra la aplicación en sistemas de “predictive policing” que busca aplicar la IA a la predicción de la comisión de crímenes, “algo que ya aplican países como Alemania o Francia, mientras que otros como España están estudiando su posible uso”, señalan desde la formación morada. 

En la actualidad se estima que los data centers consumen un 2% del total de la energía mundial, aunque el incremento es geométrico

Escándalos como el de Cambridge Analytica serán vistos como la prehistoria de otra práctica que utiliza la inteligencia artificial para seguir extendiéndose: la manipulación política. El pasado mes de febrero Open AI —creadora de ChatGPT, propiedad entre otros de Elon Musk y Microsoft— lanzó Sora. Sora promete ser la herramienta de vídeo definitiva, capaz de generar escenas complejas a partir de una pequeña descripción por parte del usuario. Pero los expertos indican que este tipo de entornos son especialmente proclives para la intoxicación en campañas electorales a través de imágenes, audio o vídeos engañosos. Los datos personales que se vuelcan en internet son el material de partida con el que se trabaja para la elaboración de perfiles y su uso en campañas para generar simpatías, antipatías o hastío, según el arquetipo generado y explotado por la máquina. El Centro para Contrarrestar el Odio Digital ha alertado de la nueva dimensión que Sora y procesadores similares dan a una práctica como la de deep fake —”creación” o suplantación digital de personas— usada ya en contexto electoral y, también, extraordinariamente dolosa en su utilización para la generación de pornografía.

Inteligencia artificial
Susie Alegre “La IA generativa permite que la desinformación se cree en minutos”
La abogada británica Susie Alegre, especializada en derechos humanos en la era digital, reivindica nuestra privacidad como barrera de protección ante las manipulaciones y advierte sobre el peligro que viene.


El uso de la Inteligencia Artificial ya está totalmente extendido también en la guerra, singularmente a través de los drones. Un artículo reciente de Foreign Affairs ha señalado que el ejército de EE UU usa la IA literalmente “para todo”: para mantener equipos, asignaciones presupuestarias, y hasta la predicción de la invasión rusa de Ucrania en 2022. En el capítulo de riesgos se señala que las IA son utilizadas en ejecuciones extrajudiciales —con o sin errores en la localización de objetivos— o serán capaces de, por ejemplo, sintetizar nuevas armas biológicas. Se advierte también de las “cajas negras” que impiden saber en qué se basan las decisiones tomadas por la inteligencia artificial y de riesgos como que las IA engañen a otras de su especie para instarlas, por ejemplo, a bombardeos no deseados de infraestructuras civiles.

Junto a los problemas de su uso en la restricción de derechos, y a los traumas que ya han generado distintos tipos de software en materia de políticas públicos, otra de las cuestiones no resueltas en la norma tiene que ver con los efectos sobre el clima que ya está teniendo su aplicación masiva y se refiere a la cantidad de energía que gastan los motores basados en el Big Data. Estos centros, por ejemplo, toman el 20% de la energía total que se consume en Irlanda, uno de los destinos prioritarios de las big tech en Europa. En la actualidad se estima que los data centers consumen un 2% del total de la energía mundial, aunque el incremento es geométrico. A nivel global, un informe de la Agencia Internacional de la Energía (IAE) ha calculado que la necesidad de consumo se duplicará desde 2024 hasta 2026. La ley que ha salido del Parlamento Europeo esta semana no incluyen los posibles daños ambientales de los algoritmos en el chequeo de los códigos fuentes aprobado.

Inteligencia artificial
Literatura y tecnología La IA no sustituirá a los autores humanos, pero ya está precarizando la industria editorial
Expertos y profesionales no ven probable librerías llenas de novelas escritas o traducidas por inteligencia artificial, pero sí que se utilice para eliminar puestos de trabajo o pagar peor los ya existentes.

Códigos privados

No hay una solución fácil. El internet de los 90 y los primeros 2000 que ofrecía posibilidades de emancipación, libertad y creatividad, se ha convertido, cuando se cumple un cuarto de siglo, en un espacio controlado por pocas empresas que apresan el trabajo vivo y convierten esa creatividad en productos. Hoy, los algoritmos que funcionan con código abierto generan a menudo comunidades que pueden chequearlo y llevar a cabo un examen para prevenir posibles sesgos o deficiencias, pero la experiencia de los últimos años indica que ese trabajo a menudo es atrapado y privatizado por las grandes empresas.

Ekaitz Cancela, autor de Utopías digitales (Verso, 2023) señala en el análisis de la Ley IA que pone en riesgo los modelos abiertos y libres de las universidades y se pone en riesgo a las pequeñas y medianas empresas, “porque para publicar los modelos abiertos tendrán que gastar enormes sumas de dinero en abogados si no quieren tener problemas”. Para este investigador, la norma aprobada no ha reducido el poder de Silicon Valley sino todo lo contrario, al permitir, entre otros aspectos, que las GAFAM extraigan los modelos abiertos para luego privatizarlos.

Scasserra deja una última reflexión: “Yo no estoy segura de que los códigos abiertos sean la solución, probablemente las licencias creative commons sean lo mejor que se puede pensar, pero esa batalla tampoco está ganada, ¿por qué? Porque la IA necesita sistemas de control mucho más holísticos respecto de los impactos y su forma de implementación. Si el debate tratase solo de los sesgos se resolvería muy fácilmente, pero el debate es mucho más amplio y es mucho más complejo”.

Una visión ciberfetichista y utópica nos presenta el futuro con contornos increíbles: planetas enteros diseñados en base a pocos parámetros, una explosión de creatividad y aligeramiento de tareas cotidianas fatigosas. Más tiempo fuera del trabajo, más libertad, en una palabra. La visión tecnoterrorífica pone de relieve la capacidad de destrucción de la humanidad que puede alcanzase aun más fácil o más rápidamente a través de los saltos cuánticos en inteligencia artificial y, como mínimo, un escenario de mayor desigualdad y discriminación. El devenir de la historia de la humanidad en la era del capitalismo señala que una vía es más probable que la otra. Especialmente cuando suenan los tambores de guerra en todo el mundo.

Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra na túa conta.

Relacionadas

Inteligencia artificial
PAN 06X01 Vuelve el PAN, integral, pero sin IA
Regresamos esta temporada con una edición mensual. Más ligera, integral. Un carrusel de Feeds N Chips y música porque los CEO's de las Big Tech y los criptobros no nos dejan descansar
Inteligencia artificial
Inteligencia Artificial Un manifiesto denuncia la desprotección de artistas y trabajadores culturales frente a la IA generativa
Asociaciones de autores, artistas y trabajadores del sector audiovisual, del libro y las artes escénicas presentan un manifiesto que pide al Gobierno protección ante “los abusos de las empresas de Inteligencia Artificial”.
Inteligencia artificial
Inteligencia artificial Malas artes
Ciertos movimientos en el sector editorial revelan intereses en el uso lucrativo de las inteligencias artificiales. ¿Qué futuro cabe esperar para los profesionales de la creación?
Opinión
Opinión Non sempre ter moitas luces é sinónimo de intelixencia
Que impacto ecolóxico e social produce a iluminación do Nadal de Vigo? A cidade sofre máis aló da masificación, o caos de tráfico, as molestias á veciñanza, o malgasto ou os recortes en orzamentos de emerxencia social.
València
Exclusiva El Gobierno de València contrata 12,9 millones en obras de la dana a una constructora investigada por pagos al cuñado de Barberá
La Generalitat Valenciana ha hecho el encargo a Ocide, una empresa cuya matriz está siendo investigada en el caso Azud por pagos “de naturaleza ilícita” al abogado José María Corbín a cambio de contratos adjudicados por el Ayuntamiento de València.

Últimas

Palabras contra el Abismo
Palabras contra el Abismo Lee un capítulo de ‘Café Abismo’, la primera novela de Sarah Babiker
El barrio es el espacio físico y social en los que transcurre ‘Café Abismo’, la primera novela de la responsable de Migraciones y Antirracismo de El Salto, Sarah Babiker.
Memoria histórica
Memoria histórica Museo del franquismo, ¿eso dónde está?
España sigue ajena a la proliferación mundial de espacios museísticos dedicados a dictaduras y resistencias democráticas.
Unión Europea
Unión Europea La ultraderecha europea ante la victoria de Trump
El triunfo de Donald Trump da alas a todas las formaciones ultraderechistas de Europa y del resto del mundo, que han visto como el millonario republicano ha conseguido volver a ganar las elecciones sin moderar un ápice su discurso.
Tribuna
Tribuna Vivienda: es hora de organizarnos
La situación de crisis inmobiliaria nos exige leer el momento para acertar en las batallas que debemos dar ahora, reflexionar sobre los modos de acción colectiva y lograr articular una respuesta política amplia.
Más noticias
Pontevedra
Ecoloxismo Unha investigación revela alta contaminación por nitratos en augas superficiais da comarca do Deza
Os resultados da análise de Ecoloxistas en Acción, con máis de 80 puntos de mostraxe, reflicten concentracións xeneralizadas e moi altas de NO3. Só o 19% das augas superficiais analizadas están “fóra de toda sospeita”.
Racismo
Racismo institucional Diallo Sissoko, una víctima más del sistema de acogida a migrantes
La muerte de este ciudadano maliense durante su encierro en el Centro de Acogida, Emergencia y Derivación (CAED) de Alcalá de Henares ha puesto de manifiesto algunas de las deficiencias del sistema de acogida a migrantes en el estado español.
Comunidad de Madrid
Violencias machistas Huelga en la red de atención a la violencia de género de la Comunidad y Ayuntamiento de Madrid el próximo 25N
Las trabajadoras de ambas redes se unen para reivindicar mejoras laborales y de atención a las mujeres víctimas en un paro de 24 horas. “Te sientes impotentes porque no puedes ayudar como deberías”, explican.
Turismo
Opinión Abolir el turismo
VV.AA.
Lleguemos a donde lleguemos, no puede ser que sea más fácil imaginar el fin del capitalismo que el fin del turismo.
Opinión
Opinión La eclosión del autoritarismo reaccionario y otras nueve tesis sobre la victoria de Trump
La victoria del candidato republicano nos ha demostrado que estamos en una nueva era: la del neoliberalismo autoritario, en donde el camino del mal menor propuesto por los Demócratas ha sido la fórmula más rápida para llegar al mal mayor.

Recomendadas

Galego
Dereitos lingüísticos Miles de persoas desbordan a praza da Quintana para mudar o rumbo da lingua galega
A Plataforma Queremos Galego, que convocou esta mobilización, sinala unha nova data para outro acto protesta: o vindeiro 23 de febreiro na praza do Obradoiro, en Santiago de Compostela.
València
Dana y vivienda “La crisis de vivienda multiplicada por mil”: la dana evidencia el fracaso de las políticas del PP en València
La dana ha dejado a miles de familias sin hogar. Ante la inacción de las instituciones, han sido las redes familiares las que han asumido el peso de la ayuda. La Generalitat, tras décadas de mala gestión, solo ha podido ofrecer 314 pisos públicos.
Redes sociales
Redes sociales Bluesky, la red social donde se libra la batalla por el futuro de internet
Ni es descentralizada ni está fuera de la influencia de los ‘criptobros’ que han aupado a Trump a la Casa Blanca, pero ofrece funcionalidades útiles para recuperar el interés por participar en redes sociales.