Opinión
Chatbots para sustituir a tu ex: IA al servicio del amor normativo

Existen varias herramientas de IA que permiten crear un avatar digital de una persona real o imaginaria. Los llamados ‘chatbots emocionales’ entrañan riesgos éticos e implicaciones morales.
Filósofa en la Universidad de Amberes
12 ene 2026 06:00

Abrir Netflix y toparse con la cuenta compartida. Los lugares guardados en la aplicación de mapas que nunca visitaréis. Un resumen de fotografías que el móvil te muestra sin avisar. La expareja presumiendo de nueva vida en las redes. El final del amor duele y la tecnología a veces atormenta después de una ruptura. Pero eso era antes. Ahora, la Inteligencia Artificial promete justo lo contrario: evitar la pena y hacer casi como si nada hubiera sucedido. Es tan sencillo como crear un avatar digital de la expareja que imita su estilo de conversación y conoce la historia compartida.

No es un capítulo de Black Mirror, ni una distopía sacada de la película Her. Porque, a día de hoy, ya existen varias herramientas de IA que permiten crear un avatar digital de una persona real o imaginaria. Los llamados ‘chatbots emocionales’ están diseñados específicamente para eso, y las aplicaciones de IA generativa que muchos usan a diario también se pueden personalizar de esta manera. 

El avatar puede ser más o menos fiel al original, dependiendo de si se dan instrucciones generales (“mi ex es introvertido y lee mucho a Houllebecq”) o si se introducen datos más específicos, como archivos con mensajes de texto y fotografías. También es posible entrenar al avatar evaluando si sus respuestas se parecen a las que daría la persona en cuestión. Así, se puede seguir compartiendo la vida con la expareja, al menos por la pantalla del móvil. 

Las personas que nos dedicamos a la Filosofía estamos en primera línea de resistencia contra el tecno-optimismo vacuo, y muchas ya han dado la voz de alarma sobre los riesgos éticos de algunos chatbots emocionales como, por ejemplo, los que producen avatares de seres queridos que han fallecido. Sin embargo, casi nadie está prestando atención a las implicaciones morales del uso de la IA en las rupturas amorosas.

Las personas que usan chatbots postruptura actúan y sienten como si la relación con sus exparejas no hubiera acabado

Para empezar, tratar de preservar una relación rota con el uso de IA es dañino para el usuario. Las relaciones de pareja son un ejemplo de lo que Susan Wolf llama ‘proyectos valiosos’, que son acciones y planes que dan sentido a la vida. En ese sentido, la interacción con avatares de personas reales no puede ser nunca un proyecto valioso, porque es una forma de autoengaño, de amor mal dirigido. Igual que Roxane pensaba que amaba a Christian pero se enamoró de las palabras de Cyrano, quienes utilizan chatbots postruptura actúan y sienten como si la relación con sus exparejas no hubiera acabado, cuando en realidad están en una relación sin sentido, con un objeto inerte que no es capaz de reciprocar.

Aún más graves son las ideologías de subordinación que se refuerzan y se construyen con el uso de la IA en las rupturas amorosas. Las filósofas feministas siempre han advertido que las relaciones románticas suponen un gran riesgo para la autonomía de las mujeres. Aunque algunos insistan en el posfeminismo, ahí tenemos fenómenos sociales que abogan precisamente por aniquilar esta autonomía, como reflejan los mensajes misóginos de la machosfera o el surgimiento de las tradwives

Los chatbots emocionales son una amenaza mucho más solapada. Y es que las novias IA no rechistan ni esperan que laves los platos, y tienen la personalidad y los gustos que tú les digas. Incluso si le pides a una novia IA que sea más independiente y no te dé siempre la razón, lo hace porque tú lo has decidido: no tiene voluntad propia, ya que existe por y para ti. Es decir, la IA ofrece un espacio de subordinación total, y es dañina incluso sin que el usuario lo intente.

La anulación de este poder de decisión sin consentimiento, aunque sea de manera simbólica, es una forma de abuso, ya que es una deprivación directa de autonomía

El potencial daño en el contexto de las rupturas está en el fomento de estas actitudes subordinadoras, pero sobre todo, en la devaluación del valor de la autonomía. No hace falta que el usuario sea abusador, ni machista, ni hombre, para que los chatbots postruptura sean moralmente nocivos. En nuestro contexto social, la libertad de elección de pareja se considera un derecho, tanto moral como legal. Este derecho se ejercita no solo al empezar una relación con alguien, sino también con la decisión de terminarla. 

La anulación de este poder de decisión sin consentimiento, aunque sea de manera simbólica, es una forma de abuso, ya que es una deprivación directa de autonomía. Pero también es un problema cuando hay permiso de la expareja, ya que conlleva la renuncia a un poder normativo que es inalienable y, por tanto, desvaloriza la propia autonomía. Las mujeres, y otros colectivos en riesgo de sufrir subordinación en las relaciones de pareja (como las personas racializadas o discapacitadas), tienen un mayor riesgo de sufrir las consecuencias, pero devaluar la autonomía amorosa es perjudicial para todo el mundo.

Hay que tener en cuenta, además, que la subordinación no es el único riesgo moral que existe en el contexto de las relaciones amorosas. Dije antes que el final del amor duele, y que las relaciones amorosas pueden darle sentido a la vida. Sin embargo, no hay que entender que el final del amor siempre tenga que doler, ni que las relaciones sean lo único que le da sentido a la vida. 

Las rupturas son uno de los contextos más propicios para cuestionar las tendencias amatonormativas y negarnos a pasar por ese momento es quitarnos una oportunidad de progreso a nosotros mismos

En 2012, la filósofa Elizabeth Brake acuñó el término ‘amatonormatividad’ para referirse al discurso hegemónico que prioriza al amor romántico frente a otras relaciones como la amistad, u otros proyectos valiosos como el activismo o el arte. Las rupturas son uno de los contextos más propicios para cuestionar y desmontar las tendencias amatonormativas que la mayoría tenemos. Negarnos a pasar por ese momento de desorientación y deconstrucción, manteniéndonos en una relación de manera artificial, es quitarnos una oportunidad de progreso a nosotros mismos. Al mismo tiempo, nos convierte en partícipes en la construcción de la narrativa social de que no se puede ser feliz si no es en pareja.

La urgencia de abordar el uso de la IA en las rupturas es doble. Por un lado, muchas de estas tecnologías se comercializan como ayudas emocionales, pero su diseño busca mantener la interacción —y por ende, el beneficio económico— por encima del bienestar del usuario. Por otro, el uso de estas tecnologías puede crear y reforzar injusticias sociales. 

Cada vez que elegimos sostener una relación a través de la IA, contribuimos a normalizar modos de relación que priorizan la continuidad artificial por encima de la autonomía

Los chatbots postruptura contribuyen a mantener un “nicho narrativo opresivo”: un entorno social y tecnológico que consolida expectativas dañinas sobre cómo deben ser las relaciones románticas. Cada vez que elegimos sostener una relación a través de la IA, contribuimos a normalizar modos de relación que priorizan la continuidad artificial por encima de la reconfiguración de la vida afectiva tras una ruptura, y la imposición del criterio propio por encima de la autonomía de nuestras parejas. Esto no solo afecta a quienes usan estas herramientas, sino que convierte al usuario en cocreador de las estructuras sociales que refuerzan ideas perjudiciales sobre la obligatoriedad del vínculo romántico, la percepción de la soltería, y la desigualdad en las relaciones.

La forma en que incorporamos la tecnología en nuestras vidas, por tanto, no es neutra. Al construir nichos narrativos con determinados valores y prácticas, moldeamos la sociedad en la que vivimos y las maneras en que otros podrán narrar sus propias vidas afectivas. Es por ello que exigir regulaciones éticas para el diseño y uso de chatbots postruptura no es una cruzada antitecnológica, sino una resistencia política que nos beneficia a todos. En definitiva, la regulación y supervisión del mercado de chatbots emocionales es una medida necesaria para proteger la autonomía individual y colectiva, y para garantizar que la tecnología no distorsione ni empobrezca nuestras experiencias más íntimas.

Los artículos de opinión no reflejan necesariamente la visión del medio.

Cargando valoraciones...
Comentar
Informar de un error
Es necesario tener cuenta y acceder a ella para poder hacer envíos. Regístrate. Entra na túa conta.
Cargando...
Cargando...
Comentarios

Para comentar en este artículo tienes que estar registrado. Si ya tienes una cuenta, inicia sesión. Si todavía no la tienes, puedes crear una aquí en dos minutos sin coste ni números de cuenta.

Si eres socio/a puedes comentar sin moderación previa y valorar comentarios. El resto de comentarios son moderados y aprobados por la Redacción de El Salto. Para comentar sin moderación, ¡suscríbete!

Cargando comentarios...