Opinión socias
Cuando el “like" premia la hostilidad: así crece la toxicidad de los partidos políticos en X


Durante casi un año mis colegas del Observatorio de Contenidos Audiovisuales (OCA) de la Universidad de Salamanca —William González y Martín Oller— y yo, recogimos, procesamos y analizamos con métodos computacionales los tuits emitidos desde enero de 2015 hasta mayo de 2023 por las cuentas oficiales de los principales partidos políticos en España: PSOE, PP, Vox, Podemos, Más País, Sumar, PNV, EH Bildu, ERC y Junts. Para el análisis empleamos la API Perspective de Google, que asigna a cada texto un nivel de probabilidad de existencia de seis categorías indicadoras de lenguaje hostil: toxicidad, toxicidad severa, insulto, blasfemia, ataque a la identidad y amenaza. Con esas puntuaciones, calculamos medias anuales y por cuenta, y aplicamos pruebas estadísticas robustas para determinar diferencias significativas entre partidos y tendencias temporales, así como posibles relaciones entre el lenguaje violento y las métricas de interacción (likes, RTs, replies), también registradas.
Una escalada silenciosa desde 2015
A nivel temporal, el estudio detecta un incremento prácticamente continuado de los niveles medios en todas las categorías. De 2015 a 2023 las curvas ascienden de forma casi lineal, con dos crestas claras: 2020‑2021, coincidiendo con la crisis sanitaria y la campaña madrileña, y 2023, el año de las elecciones autonómicas y generales. Especialmente acentuado es el incremento que experimentan categorías como la toxicidad y la toxicidad severa, y el ataque a la identidad. Pero no solo han aumentado los indicadores del lenguaje hostil, sino que las interacciones que generan los tuits analizados (“me gusta”, retuits y respuestas) siguen siguen la misma dinámica.
Popularidad de la cólera digital
Al observar esa tendencia ascendente tanto en niveles de toxicidad como en métricas de interacción, cabía comprobar si, efectivamente, ambas variables podrían estar relacionadas. Y, efectivamente, el estudio confirma que, al menos en la muestra analizada, la correlación entre toxicidad y engagement, en términos de interacción, es positiva y estadísticamente significativa: los contenidos más agresivos, que despiertan mayores emociones, generan más reacciones, es decir, más “me gusta”, retuits y respuestas, ya sean estas positivas o negativas. Esto significa, al mismo tiempo, que los mensajes tóxicos no solo ocupan más espacio en la conversación, sino que obtienen premio algorítmico: si reciben mayor interacción y generan más conversación, aparecerán cada vez en más pantallas, reforzando la visibilidad de quien los emite, quien se verá más motivado a seguir emitiéndolos. El “like” actúa como combustible de la ira, y viceversa.
Vox, un caso aparte
Los resultados son inequívocos, y confirman lo que numerosos estudios vienen advirtiendo desde años atrás. Vox es el partido que presenta, de largo, los niveles más altos de lenguaje hostil, alcanzando, en nivel promedio, casi el doble de toxicidad que el segundo partido más nocivo, ERC, y cuadruplicando las cifras de los partidos menos tóxicos, Sumar y PNV. El resto de partidos se sitúan bastante cercanos a la media global, sin presentar diferencias significativas entre ellos. La distancia se mantiene en todas las dimensiones analizadas, siendo especialmente pronunciada en insulto. Pero no solo esto, sino que los datos evidencian que la cuenta de Vox también es en la que el lenguaje hostil más ha crecido en los últimos años, sobre todo a partir de 2020, el año de la pandemia. Esto ratifica una tendencia ya advertida por numerosos investigadores en el área, y es que la extrema derecha internacional ha aprendido a sacar provecho, sino rédito electoral, de la toxicidad y el discurso de odio en línea, aprovechando las dinámicas algorítmicas ya señaladas. Quizás por eso sus estrategias de comunicación cada vez incluyen un lenguaje más hostil.
¿Por qué compensa ser tóxico?
El hallazgo confirma lo que muchos intuíamos: la arquitectura comercial de X, diseñada para maximizar la permanencia del usuario, incentiva el contenido polarizador. Para los partidos resulta una táctica de bajo coste: subir el tono garantiza interacción y, en el mejor de los casos, votos. Quien domina la agenda con consignas simplificadas y sensacionalistas, apelando a emociones básicas como la ira o el miedo, se coloca en el centro del debate y obliga al resto a responder desde su marco.
Que Vox lidere todos los indicadores no es trivial. Su discurso antagonista, sustentado en la deshumanización del adversario, de un enemigo común (ya sea “el inmigrante”, “el feminismo” o “la agenda globalista”), se beneficia de una lógica de plataforma que recompensa la emoción negativa. De ahí que sus mensajes reciban, de promedio, seis veces más retuits y “me gusta” que los del PP o el PSOE. La toxicidad se convierte así en un activo electoral: gana interacciones y presencia (a menudo más allá de la red social), despierta reacciones instintivas (bien por apoyo o por rechazo), aglutina nichos, dinamita la deliberación y desplaza el eje de la conversación pública hacia posiciones extremas y violentas.
Implicaciones políticas y sociales
La tendencia plantea varias consecuencias:
-
Normalización del insulto institucional. Cuando las cuentas oficiales legitiman el lenguaje vejatorio, las barreras sociales contra el abuso se erosionan.
-
Riesgo de contagio discursivo. Para competir en atención, otros partidos pueden verse tentados a endurecer el tono, alimentando una espiral de radicalización.
-
Premio algorítmico = incentivo electoral. Si el “like” y el voto convergen, y los datos sugieren que pueden hacerlo, la toxicidad se vuelve rentable.
A escala europea, se espera que la implantación del Reglamento de Servicios Digitales fuerce a X a revisar la moderación de contenidos dañinos, una tarea más que pendiente en la plataforma desde que Elon Musk decidiera deshacerse de los equipos responsables de la moderación de contenido, así como de las unidades de acoso e incitación al odio. Nuestro análisis indica que la eficacia de esa normativa se evaluará no solo por la eliminación de tuits concretos o el bloqueo puntual de cuentas concretas, lo que se hacía antes de Musk y la nueva era Trump (cuando Twitter incluso se atrevía a suspender la cuenta de Trump por incitación a la violencia), sino por su capacidad de desactivar la lógica de recompensa a la polarización, que cada día parecen fomentar más los algoritmos.
Reflexión final
Observar casi una década de tuits revela una paradoja incómoda: la red social que prometía incentivar la participación cívica y democratizar la voz pública, prioriza hoy la agresividad porque es más adictiva y lucrativa. Medirla es necesario; pero solo es el primer paso. Frenarla, imprescindible si queremos preservar un espacio público que premie la argumentación y el debate deliberativo, y no el griterío y el insulto. Pero revertirla exige voluntad política, responsabilidad tecnológica y una ciudadanía crítica que se pregunte a quién sirve su clic. La toxicidad no es un error del algoritmo, sino su negocio.
La investigación completa ha sido publicada en Frontiers in Political Science y se puede consultar en: https://www.frontiersin.org/articles/10.3389/fpos.2025.1627474/full
--
Sobre el autor:
Javier J. Amores es académico de la Facultad de Comunicaciones de la Universidad Católica de Chile (UC) y miembro del Observatorio de Contenidos Audiovisuales de la Universidad de Salamanca.
Relacionadas
Para comentar en este artículo tienes que estar registrado. Si ya tienes una cuenta, inicia sesión. Si todavía no la tienes, puedes crear una aquí en dos minutos sin coste ni números de cuenta.
Si eres socio/a puedes comentar sin moderación previa y valorar comentarios. El resto de comentarios son moderados y aprobados por la Redacción de El Salto. Para comentar sin moderación, ¡suscríbete!