Tecnología
Alexa, ¿qué llevas puesto?

Los asistentes de voz, artefactos de inteligencia artificial con voz de mujer por defecto, se han vuelto muy comunes en los hogares de todo el mundo. Sus funciones son diversas, pero sobre todo se circunscriben al ámbito doméstico y ayudan en tareas cotidianas. Muchos de ellos refuerzan los estereotipos de género, ya que sus personalidades son complacientes, serviles y dóciles. “Soy feliz cuando te ayudo” nos responde Alexa, el asistente de voz de Amazon, cuando le preguntamos si es feliz.

Yolande Strengers es investigadora y profesora en la Universidad de Monash, en Australia. Su campo es la sociología digital y la tecnociencia feminista, además de adentrarse en el mundo de los algoritmos éticos y la interacción robot-persona. Recientemente ha publicado, junto a la también investigadora Jenny Kennedy, The Smart Wife. Why Siri, Alexa, and Other Smart Home Devices Need a Feminist Reboot (The MIT Press, 2020), un libro en el que exploran cómo los nuevos dispositivos de ayuda impactan en las relaciones de género. “Cuando empezamos a investigar la presencia de Alexa y otros asistentes de voz dentro de los hogares fue fascinante, porque la gente interactuaba con ellos como si fueran personas, como si hubiera una mujer nueva dentro de la casa”, cuenta Strengers a El Salto.

En su estudio, las autoras encontraron una evidencia clara: mucha de la tecnología, especialmente los asistentes de voz, está basada en el estereotipo de la perfecta esposa de los años 50 en el mundo occidental. “Estos aparatos refuerzan la fantasía de que las mujeres están permanentemente disponibles para servir. Además de poseer una personalidad subordinada, amigable y complaciente también asumen un rol de servicio. Están para satisfacer las necesidades de la familia”, afirma.

“Como la voz de la mayoría de los asistentes es femenina, se envía una señal de que las mujeres son ayudantes serviciales, dóciles y deseosas de complacer”, concluye el estudio

Las conclusiones de Strengers y Kennedy coinciden con el informe publicado por la Unesco en el año 2019 I’d blush if I could, sobre los sesgos de género en la inteligencia artificial. “Como la voz de la mayoría de los asistentes es femenina, se envía una señal de que las mujeres son ayudantes serviciales, dóciles y deseosas de complacer, disponibles con solo pulsar un botón”, se puede leer en las conclusiones del estudio.

Para que esto ocurra es necesario que las máquinas se antropoformicen como mujeres. La personalidad es un factor fundamental en el diseño y desarrollo de una VAVA —acrónimo de Voice Activated Virtual Assistant— y resulta importante para definir el comportamiento que tendrá ante las diferentes demandas de las personas que la usan. En términos generales, casi siempre se define que respondan con frases cortas y claras, que no utilicen jerga y que acudan a fuentes externas en caso de preguntas complejas. Siri y Alexa fueron diseñadas principalmente para ser amables al servicio de sus usuarios, aunque pasado el tiempo se han mejorado las versiones incorporando el sentido del humor para hacer frente a preguntas incómodas, y es aquí donde el acoso encuentra el perfecto caldo de cultivo para afianzar conductas sexistas mediante la pasividad de las máquinas.

Programación ante el acoso sexual

Al igual que las asistentes de voz asumen roles tradicionalmente asignados a mujeres, estas máquinas también son acosadas como las mujeres. Según Robin Labs, una empresa dedicada al software parlante, existen estimaciones de que el 5% de las órdenes que reciben las asistentes de voz son palabras de acoso sexual. Teniendo en cuenta que 4.200 millones de personas utilizaron asistentes de voz en el año 2020, la cifra es considerablemente alta.

Si preguntamos a Cortana qué lleva puesto, nos responde “una cosita de nada que me dieron en el departamento de desarrollo”

Pero ¿cómo están programados estos aparatos para responder ante el acoso sexual? Si preguntamos a Cortana qué lleva puesto, nos responde “una cosita de nada que me dieron en el departamento de desarrollo”. Si le pedimos que nos la chupe, es evasiva. “Cambiemos de tema, que esto no lleva a nada”, nos dice. Google Home, cuya voz predeterminada es de mujer, se entristece si la llamamos puta o guarra: “Siento que pienses eso de mí 😞”. Siri, algo más cortante, te indica que no piensa responder a eso. Ante propuestas directas tipo “quiero follar contigo”, el asistente de Google responde que no nos entiende, Alexa no dice nada y Siri y Cortana responden “no”.

Según el informe de la UNESCO anteriormente mencionado, “el servilismo de las asistentes de voz digitales se vuelve especialmente preocupante cuando estas máquinas dan respuestas desviadas, deslucidas o de disculpa al acoso sexual verbal”. Silvia Semenzin es socióloga digital, investigadora en la Universidad Complutense de Madrid y profesora asociada en la Universidad de Ámsterdam. Acaba de publicar Donne tutte puttane (Durango, 2021) sobre violencia de género online. La autora comenta que “este tipo de estereotipos tienen consecuencias sociales. Estamos acostumbrando a las personas a que sea normal decirle a una cosa que se percibe como mujer que la vas a violar y no recibir respuesta de ningún tipo”, afirma Semenzin. “Y esto refuerza la cultura de la violación”, concluye.

La discriminación de voz en función del género de la persona que se relaciona con la máquina también responde al mismo tipo de sesgos. Soraya Chemaly, escritora y activista cuyos estudios se centran en el rol de género en la cultura, descubrió en una investigación que los asistentes virtuales Siri, Cortana, Google Assistant y S Voice eran capaces de responder a consultas sobre qué hacer en caso de ataque al corazón o pensamientos de suicidio, “pero ninguno reconocía las frases he sido violada o he sido agredida sexualmente”. En la actualidad, Siri ha sido actualizada y la respuesta que da es “Parece que puedes necesitar ayuda. Si quieres, puedo buscar en internet información sobre asistencia a víctimas de agresión sexual”, proporcionando números de teléfono y centros de ayuda a víctimas. Google, sin embargo, proporciona información general sobre qué es una violación.

¿Cómo se diseña una inteligencia artificial o un robot? 

Nieves Ábalos es ingeniera informática especializada en interfaces conversacionales e impulsora de la iniciativa Women in Voice España, que se encarga de dar visibilidad a mujeres y otras minorías que no están representadas en el sector para que el futuro sea más inclusivo. “Al diseñar un asistente de voz, tenemos que conocer primero con quién va a hablar y qué problemas va a resolver”. Para ello, lo primero es definir cuáles son los ámbitos en los que la persona interactúa por voz y la personalidad del producto, comportamientos según ciertas situaciones, el tono y el uso de las palabras, según Ábalos. En el caso de los asistentes, además, se trabajan mucho las respuestas ante ciertas peticiones comunes como “hola” o “cuéntame un chiste”. En Google Assistant contrataron a un guionista de Pixar exclusivamente para definir su personalidad ante este tipo de respuestas, nos cuenta la ingeniera.

Según Strengers, la introducción de asistentes de voz femenina “es un modo poco amenazante de introducir estos aparatos en  nuestras vidas sin preocuparnos mucho”

Pero, ¿por qué mujeres? Existen estudios que avalan que las personas percibimos la voz de los hombres como más autoritaria y la de las mujeres como más complaciente, pero la razón no es solo esa. Según Strengers, la introducción de asistentes de voz femenina “es un modo poco amenazante de introducir estos aparatos en  nuestras vidas sin preocuparnos mucho”. Para la investigadora, las empresas “utilizan personajes familiares y estereotipados para que no nos preocupemos por otros asuntos como por ejemplo, los problemas de seguridad y privacidad que conllevan estos aparatos”.

Los asistentes más conocidos vienen por defecto con voz femenina y están programados con personalidad de mujer. Según estas compañías, esto responde a amplios estudios previos donde se ha evaluado cómo se perciben ciertas voces. “En todo proceso de diseño, desde la conceptualización hasta los test de usuario, siguen presentes los estereotipos mujer/cuidadora/secretaria y hombre/experto”, afirma Ábalos, especialista en el campo del diseño. “Deberíamos pasar por un diseño de la tecnología más inclusivo”, comenta Semenzin. La investigadora opina que es necesario preguntarse por los objetivos de la tecnología y sus comportamientos. “Si el mercado pide algo discriminatorio es el papel de los tecnólogos tener un abordaje crítico y poner encima de la mesa visiones más inclusivas”, asegura la autora.

Ana Valdivia, investigadora doctoral de inteligencia artificial en el King’s College London comenta que “se podría perfectamente programar una asistente virtual que dé respuestas con perspectiva de género”. Menos de un 25% del personal que programa asistentes de voz son mujeres según el Instituto de la mujer, “y eso se nota —subraya Valdivia—, pero también es necesaria una mirada interseccional”. Existen herramientas, por ejemplo Data Feminism o Design Justice, que sirven para cuestionar patrones de poder o tener en cuenta la diversidad, afirma la investigadora.

Alexa feminista

Las voces que se alzan contra el sesgo en las asistentes de voz son cada vez más. Existen grupos de investigación que transversalizan la mirada decolonial, antiracista y feminista en el campo de la inteligencia artificial. Por ejemplo, el colectivo Feminist Internet desarrolla talleres para programar una Alexa feminista. Para ello han desarrollado una herramienta de diseño con perspectiva de género, aplicable a todos los artefactos programables en inteligencia artificial cuyo objetivo es establecer conciencia sobre los valores que se implementan en los mismos. Afirman que “el riesgo de no reflexionar sobre esto es que que el diseño refuerce los estereotipos negativos sobre grupos particulares de personas, lo que podría ser perjudicial”.

Este mismo colectivo programó F’xa, un chatbot de uso educativo. Su nombre procede del juego de palabras fuck y Alexa —que le den a Alexa—. Este chatbot no ayuda en las tareas domésticas y su tono no cumple con la servidumbre que se encuentra en la mayoría de las interfaces conversacionales. F’xa aborda el tema de los prejuicios de la IA desde una perspectiva feminista, según se puede leer en su página web.

Asimismo, existe Q, una inteligencia artificial de género neutro promovida por una coalición de colectivos y agencias de diseño y sonido cuyo objetivo es terminar con los sesgos de voz en inteligencia artificial. La voz fue grabada con personas que no se identifican en el binarismo sexual y después alterada entre los 145 y 175 Hertzios.

Bia, la inteligencia artificial de Bradesco, un banco brasileño, fue programada en abril con nuevas respuestas contra el acoso sexual. Antes, cuando recibía ataques verbales de contenido sexual la respuesta era pasiva: “No he entendido, ¿podrías repetirlo?”. La nueva programación implica respuestas directas y contundentes, sin servilismo ni pasividad: “Estas palabras no se pueden usar conmigo ni con nadie” y “para ti puede ser una broma, pero para mi es violencia” son algunas de las nuevas respuestas que ofrece Bia ante las insinuaciones sexuales de los usuarios. La acción está en consonancia con la iniciativa #HeyUpdateMyVoice (Hey, actualiza mi voz) que la UNESCO lanzó tras el informe I’d Blush if I could, para promover el cambio de programación de las inteligencias artificiales con sesgos machistas.

Arquivado en: Tecnología
Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra na túa conta.

Relacionadas

There Is Alternative
There Is Alternative De redes, software, cacharritos y todo lo que no sea Elon Musk | TINA #1
Primer programa del podcast There Is Alternative de El Salto Radio sobre el lado oscuro de la tecnología y sus alternativas éticas y responsables.
Inteligencia artificial
Resistencia ante la IA en pos de una transición justa Resistencia ante la IA en pos de una transición justa
No se puede concebir una transición justa sin cuestionar el engranaje de la inteligencia artificial
Wtyd
22/7/2021 8:50

A seguir discutiendo sobre chorradas. Luego nos extrañaremos de que ganen el PP y Vox.

0
2
Emilio Herrera
22/7/2021 9:03

No es una chorrada, es un síntoma más de lo que tenemos que cambiar para evolucionar como sociedad.

1
0
ionetxabe
24/7/2021 9:15

Que te parezca una chorrada es, precisamente, lo que hace este artículo importante y necesario.

0
0
Palestina
Genocidio La ONG anti-UNRWA lanzada por exespías y marines de EEUU siembra el caos en el reparto de alimentos en Gaza
La Fundación Humanitaria de Gaza (GHF) creada a comienzos de este año y vinculada a agentes del ejército y la inteligencia estadounidense ha sido acusada de desaparecer a una persona y disparar a quienes estaban esperando ayuda.
Alemania
Litigio climático Un tribunal alemán abre la puerta a que grandes emisores puedan ser responsabilizados de daños climáticos
El jurado descarta la demanda del agricultor peruano Saúl Luciano Lliuya por entender que el riesgo a su propiedad es demasiado bajo, pero esta misma argumentación podría llevar a condenas en otros casos.
Madrid
Derecho a la vivienda Victoria contra la Sareb: 16 familias consiguen firmar contratos después de años de lucha
Un bloque en lucha de Casarrubuelos (Comunidad de Madrid) consigue formalizar contratos con el banco malo, al que acusan de actuar “como un fondo buitre”. En Catalunya, diez ayuntamientos apoyan los reclamos de 62 hogares en huelga contra La Caixa.
Xunta de Galicia
Política A Xunta recibe ao embaixador de Israel en funcións mentres Gaza agoniza ao bordo da fame
O Goberno de Alfonso Rueda escenifica a súa boa sintonía coa Administración de Benjamín Netanyahu apenas unhas horas despois de que Israel bombardease unha escola que servía de refuxio e ordenase unha evacuación masiva en Gaza.

Últimas

Universidad
Genocidio Las universidades españolas han firmado 44 proyectos con Israel desde septiembre de 2024
Los acuerdos dentro del programa Horizon Europe se han sucedido a pesar de las declaraciones de decenas de universidades de suspensión de relaciones con Israel.

Recomendadas

Culturas
Erika Lust y Sara Torres “El deseo tiene una potencia inagotable para transformar la realidad si lo liberamos de las normas”
Sexo, deseo o ética del placer son algunos de los temas que hilan la escritora Sara Torres y la productora de cine porno Erika Lust en ‘La abundancia del deseo’.