We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Big data
[Podcast] Big Data, machine learning y justicia social: mitos y realidades
El equipo de El Salto Radio entrevista en el hacklab de La Ingobernable a Javier Sánchez, doctor en informática que estudia las relaciones entre la justicia social con el aprendizaje automático o machine learning. Una de las técnicas más desarrolladas de inteligencia artificial que procesa nuestros datos para todo tipo de funciones relacionadas con la gestión de las ciudades.
Hace unas semanas, Ahora Madrid presentaba con orgullo un acuerdo para compartir los datos de los ciudadanos con Google a través del proyecto Waze Connected Citizens. La idea es suministrar información de los datos de tráfico para generar algoritmos que permitan optimizar el transporte de la ciudad. Un plan del tipo “no es que sobren coches, es que están mal gestionados”.
El de la capital no es el único ayuntamiento que celebra su metamorfósis hacia la ciudad inteligente. Las ciudades corren en pos de conseguir el apellido smart city. En su horizonte se encuentra la optimización de servicios y la extracción de datos masiva. Sin embargo, no debemos olvidar a todas las personas que viven en ellas sin conexión digital. En 2017 en la Comunidad de Madrid un nada desdeñable 10% de la población no había usado internet en el momento de la encuesta, y un 15% decía no ser usuaria frecuente.
Para Javier Sánchez, doctor en informática que investiga en la universidad de Cardif, en Reino Unido, cada vez que ha aplicado bases de datos digitales a cuestiones sociológicas, “siempre ha sido un desastre”. Sánchez estudia las relaciones entre la justicia social con el aprendizaje automático o machine learning, una de las técnicas más desarrolladas de inteligencia artificial que procesa nuestros datos para todo tipo de funciones relacionadas con la gestión de las ciudades.
Nos encontramos con él en La Ingobernable, uno de los espacios de la ciudad donde tienen lugar los hacklabs en Madrid, pero nos indica que fue miembro de un grupo de hacklab en Granada. Estas reuniones, escenarios en algunas de las obras de Belén Gopegui, son espacios sin jerarquías a los que podemos acudir a aprender sobre la tecnología con una perspectiva crítica. Precisamente viene a iniciar un debate en torno a las relaciones entre datos y justicia social.
Sánchez se muestra crítico con el escaso rigor con el que aparece representado cualquier producto asociado al Big Data en la prensa general y divulgativa. Incluso los medios críticos participan de la mistificación de esta tecnología, “creyendo que los grandes datos ofrecen una forma superior de inteligencia y conocimiento”.
Nada más lejos de la realidad, según el estudio de Sánchez estos algoritmos reproducen los mismos prejuicios que ya se dan en los sistemas humanos y los amplifican. Los escasos puntos críticos que aparecen en la prensa derivan hacia preguntas del tipo “¿deberían ser sujetos legales los algoritmos?”, “¿tienen derechos los robots?” y otros temas que contribuyen a la mitificación, sacando del foco los problemas discriminarorios reales que presentan estos algoritmos.
Por otro lado tenemos lo que denomina como “sociólogos y periodistas de Twitter”. Las grandes compañías tecnológicas ponen en manos de periodistas e investigadores sus datos, porque esto hace que aumente su valor. El problema surge cuando estos datos se utilizan para medir factores como “¿de qué se está hablando?”, cuando ya el mero hecho de centrarnos solo en una compañía presenta un sesgo importante.
Existen ya casos en EEUU donde los algoritmos han decidido cortar ayudas sociales, son utilizados para distinguir entre supuestos terroristas y refugiados, o directamente se convierten en tu jefe, como ocurre aquí en plataformas como Deliveroo. Para Sánchez existe un grave problema en la aplicación directa de estos algoritmos para asuntos sociológicos. “Si lo comparamos con los medicamentos, que son también científicos, jamás se nos ocurriría pensar en su implementación sin haberlos probado, y esto es lo que está ocurriendo con estos programas”.
¿Cómo reproducen estos algoritmos los prejuicios de nuestras sociedades? La clave para el investigador reside en las bases de datos, que ya se encuentran llenas de prejuicios. Por ejemplo, si vamos de nuevo a los EEUU, existen programas de predicción de crímenes por áreas en ciudades. Pero estos programas funcionan con bases de datos de las demarcaciones policiales, que históricamente han puesto su foco en barrios racializados, por lo que la máquina hará lo mismo.
Aunque la mayoría de ejemplos de reconocimiento facial y extracción y uso de datos los encontremos en ciudades de Estados Unidos o China (el conocido sistema de puntuación ciudadana), existen ya varias ciudades españolas que han trazado su hoja de ruta hacia los puertos smart city. Pero el aprendizaje automático ya existe en nuestras vidas cada vez que usamos el texto predictivo o cualquier motor de búsqueda en internet. Pensar que estos sistemas no reproducen y amplifican nuestros prejuicios es ingenuo. Aun así dejamos que escriban por nosotros y elijan la información que veremos sobre el mundo.
“Creo que es importante señalar que al final, lo que estás haciendo es automatizar una serie de decisiones políticas ideológicas y de prejuicios en muchos casos. Realmente es difícil hacer un sistema de toma de decisiones libre de estos problemas”, finaliza Sánchez.
Si quieres escuchar la entrevista al completo, escucha el podcast que se encuentra al inicio del artículo. En la pieza, por orden de aparición, suenan las siguientes canciones:
- Loud Pipes, Ratatat.
- Fallout, The Rat.
- Erik Owen, Youngblood Brass Band.
- Wake Up, Brass Against con Sophia Urista.
Relacionadas
Internet
Internet Tarjeta amarilla al fundador de Telegram, el último ‘criptobro’ de la libertad de expresión
Juegos olímpicos
Juegos Olímpicos Del brillo olímpico al reverso de los focos
Israel
SIONISMO La UPV/EHU crea una Cátedra de Ciberseguridad en la que colabora una universidad de Israel
El Big data (le dijo al padre a la hija; está feo...). Pa cuando pai andalú ? País calle rojas, 76 ... Me gusta como suena... La bandera... Será un ojal con fondo marrón... Esa es mi pregunta