We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Violencia machista
Ver para creer: ha llegado la hora de acabar la misoginia visual en las redes sociales
A menos que estés completamente fuera del mundo, seguro que te has encontrado en tus redes sociales y tus apps de mensajería con memes, stickers o cualquier otro tipo de contenido que infantiliza a mujeres políticas, sexualiza a mujeres jóvenes o retrata a las mujeres feministas como histéricas y odiosas. Estos no son ni casos aislados ni exageraciones de las feministas. Lamentablemente estos comportamientos misóginos campan a sus anchas por las redes sociales, como indica un estudio reciente que reveló que al menos la mitad de las publicaciones en X sobre feminismo e igualdad son negativas. Las expresiones visuales de odio hacia las mujeres en ciertas redes sociales no son la excepción, son la regla. Y lo llamamos misoginia visual.
¿Qué es la misoginia visual?
Cuando hablamos de misoginia visual, nos referimos a cualquier imagen real, creada, fabricada y/o editada que tenga como objetivo denigrar y deshumanizar a las mujeres. Los memes y los stickers misóginos son sólo la punta del iceberg. Violar al avatar de una niña de 7 años en Roblox o robar imágenes de compañeras para crear nudes falsos son formas mucho más sofisticadas de violentar a mujeres y niñas a través del uso de imagenes digitales. Todas estas formas de misoginia contemporánea están aumentando a medida que se generaliza el uso de la inteligencia artificial generativa para fabricar imágenes falsas o que crear tus propios stickers es posible sin salir de Whatsapp.
Los deep fakes pornográficos no son bromas, sino ataques que combinan la deshumanización y el acoso para crear un peligroso cóctel
En 2023, el cantante JC Reyes, buscando notoriedad digital, compartió en su Instagram una imagen de Rosalía que aparentemente mostraba a la cantante desnuda. La fotografía había sido manipulada digitalmente. Este incidente puso en evidencia la falta de control sobre el consentimiento en el ámbito digital y abrió el debate sobre cómo frenar ese tipo de abusos en las redes sociales. Huelga decir que los deep fakes pornográficos no son bromas, sino ataques que combinan la deshumanización y el acoso para crear un peligroso cóctel de normalización de la violencia sexual digital.
Aunque las mujeres famosas, como en este caso, se han visto especialmente afectadas por este tipo de violencias, no podemos olvidar que la misoginia visual le afecta a todo tipo de mujeres, pero no lo experimentan todas de la misma manera. Este es el caso de las mujeres racializadas, que tienen que soportar memes, comentarios racistas y navegar la estereotipia cada día en redes sociales. O el de las mujeres LGBTQIA+, que sufren vitriolo homofóbico en sus múltiples formas.
La imposible tarea de moderar el contenido odioso en Internet
Te preguntarás cómo es posible que no esté regulado un entorno digital que se ha vuelto tan tóxico y tan hostil para las mujeres. La buena noticia es que sí está regulado. La mala noticia es que, de facto, no sirve para mucho.
En los últimos años, la Unión Europea ha promulgado normas destinadas a eliminar los contenidos nocivos digitales como la Ley de Servicios Digitales y la Ley de Inteligencia Artificial de la UE. A estos esfuerzos se han sumado algunas iniciativas de las propias plataformas, como es la creación de juntas asesoras y consejos ciudadanos que revisan y se pronuncian sobre casos paradigmáticos de circulación de bilis digital. Este es el caso de Meta, que ha creado un organismo independiente llamado Consejo de Supervisión. Si bien el trabajo de los profesionales de este organismo creado por Meta es muy loable, los esfuerzos bienintencionados por eliminar los contenidos que incitan al odio no son más que una gota en el mar y, en tiempos de desfinanciación, puede ser que ni siquiera eso.
La moderación de contenido que actualmente se hace en redes sociales sirve para retirar la misoginia visual explícita, pero no es operativa para la misoginia implícita
La existencia de estos consejos asesores independientes y las obligaciones que impone la Ley de Servicios Digitales a los grandes operadores digitales nos llevaría a suponer que la misoginia visual está desapareciendo de las redes sociales. Sin embargo, un paseo por cualquier rincón de Internet basta para empacharse de odio gratuito hacia las mujeres. Pero, ¿nadie controla esto? Sí, pero no está funcionando.
La moderación de contenido que actualmente se hace en redes sociales sirve para retirar la misoginia visual explícita, pero no es operativa para la misoginia implícita. Nos encontramos de forma creciente memes, stickers y otras imágenes digitales misóginas que usan giros contextuales, señales sutiles y símbolos subculturales en lugar de contenido abiertamente ofensivo. Sin una formación adecuada y sin conocer el contexto, quienes moderan el contenido no pueden distinguir entre imágenes dañinas e inofensivas, oscilando entre la moderación excesiva y la incapacidad para eliminar material dañino.
Por ejemplo, en 2024, un usuario de Meta en México compartió una caricatura que representaba a una persona drogando a otra, insinuando la intención de violarla usando sumisión química. Los mecanismos de moderación de contenido fallaron y la viñeta permaneció subida hasta que el Consejo de Supervisión de Meta determinó que violaba las normas de uso de la plataforma. Este caso pone de manifiesto la complejidad de moderar contenido que puede presentarse como humor, pero que es retraumatizante para las víctimas, en este caso, de violencia sexual con sumisión química.
Diversos estudios han demostrado que los moderadores de contenido suelen experimentar ansiedad, depresión y síntomas compatibles con el trastorno de estrés postraumático
Por otro lado, ¿qué humanos deberían estar expuestos a contenidos violentos solo para que los demás no los veamos? Diversos estudios han demostrado que los moderadores de contenido suelen experimentar ansiedad, depresión y síntomas compatibles con el trastorno de estrés postraumático debido a la exposición continua a contenido de odio explícito. Si además los moderadores y las moderadoras de contenido son supervivientes de violencia, la exposición repetida a este tipo de material genera un daño psicoemocional incalculable.
Esto era el tecno-patriarcado
Para entender la misoginia visual no podemos obviar sus raíces estructurales, socioculturales y tecnológicas. Y es que no es suficiente con exigir la moderación sistemática de casos individuales, hay que empezar a hablar del tecno-patriarcado. Este término nos permite referirnos a la relación que se ha establecido entre el poder patriarcal y los sistemas tecnológicos y al hecho de que las plataformas, gobernadas en su mayoría por élites masculinas, reflejan y refuerzan las jerarquías de género. Para profundizar estas cuestiones recomendamos la lectura de la obra de la activista y académica italiana Lilia Giugni, que explica cómo, en lugar de liberar a las mujeres, las tecnologías digitales modernas se utilizan a menudo para oprimirlas, explotarlas y controlarlas.
La idea del tecno-patriarcado podía sonar a abstracción abstrusa, pero la foto de familia de la investidura de Donald Trump, en la que aparecía retratado junto a Zuckerberg, Musk y Bezos, dejó clara la relación entre las grandes empresas tecnológicas y el poder patriarcal autoritario. Lejos de ser innovadores neutrales, estos líderes tecnológicos desempeñan un papel central en la configuración de un mundo digital que favorece los intereses de unos pocos, mientras margina y perjudica a muchos. No es casualidad que desde la investidura de Trump a principios de 2025, hayan cambiado el modelo de gobernanza plataformas como X o Meta, afectando a la (no) protección de los grupos sociales discriminados e infrarrepresentados en redes sociales de estas empresas.
En los últimos años, hemos venido abogando por una colaboración consistente entre gobiernos, organizaciones de la sociedad civil, iniciativas tecnológicas feministas, sector privado, universidades y otros intermediarios tecnológicos. Sin esta colaboración, será difícil dar pasos hacia una democracia digital completa. También está claro que no se puede hacer nada sin aumentar la participación de mujeres y niñas en el diseño y el desarrollo de la vida social digital. Seguir hablando del problema de la moderación de contenido en redes sociales es mirar al árbol que nos impide ver el bosque. Esta es nuestra invitación a dedicar menos tiempo a señalar la incivilidad digital de determinados usuarios y más tiempo a comprender cómo hacen las infraestructuras digitales mayoritarias para priorizar los deseos masculinos, silenciar las voces disidentes y reproducir las desigualdades de género sistémicas.
Relacionadas
Infancia
Infancia La bebé arrancada en Torrejón vuelve con su madre
Granada
Abuso policial Los feminismos de Granada exigen el cese como jefe de estudios del subinspector investigado por el Caso Viogén
Andalucía
Justicia Los juzgados de Andalucía recibieron 40.168 denuncias por violencia machista en 2024
Pues sí, totalmente de acuerdo.
Gracias por explicar y hacer visible lo que a menudo se nos escapa.