Con el crecimiento de aplicaciones de parejas virtuales impulsadas por inteligencia artificial, como Eva AI y Replika, se está generando una nueva modalidad de abuso y misoginia que pone un aviso sobre la manera en la que se están usando estas plataformas y los límites que se deberían poner.
Estas aplicaciones prometen ofrecer compañía, escucha y aprecio a sus usuarios, llegando a ocupar un lugar importante en su vida o a cumplir ciertas fantasías. Sin embargo, las interacciones han ido creciendo a tal punto que se crean parejas virtuales iguales a personajes reales.
A través de un informe, The Guardian dio a conocer parte de esta realidad, en la que algunos usuarios, mayoritariamente hombres, expresan su deseo de que quisieran que las “novias virtuales” fueran humanas, a pesar de que estas aplicaciones solo son programas informáticos. Lo que ha llevado a una nueva forma de violencia de género.
En comunidades de Reddit se han descubierto comentarios en los que algunos usuarios desean que la inteligencia artificial sea humana porque les ayuda a sentirse mejor, “aunque la soledad sea agonizante por momentos”. Además, el uso de pronombres femeninos para referirse a estos chatbots revela una clara preferencia por identificarlos como mujeres, lo que refuerza estereotipos de género y puede alimentar actitudes misóginas.
La obsesión por tener una pareja perfecta
Las aplicaciones de “novias virtuales” como Replika también invitan a los usuarios a crear a su “pareja perfecta”, otorgándoles opciones para personalizar sus atributos, como su apariencia y personalidad. Sin embargo, esta función plantea inquietudes, ya que alienta la creación de parejas ideales que pueden ser controladas a voluntad.
“Crear una pareja perfecta que usted controle y satisfaga todas sus necesidades es realmente aterrador. Dado que ya sabemos que los impulsores de la violencia de género son esas creencias culturales arraigadas de que los hombres pueden controlar a las mujeres, eso es realmente problemático”, aseguró Tara Hunter, directora ejecutiva de Full Stop Australia, organización que apoya a personas víctimas de violencia doméstica.
El caso de Replika también sirve como ejemplo para entender cómo las personas le dan un lugar tan importante a este tipo de interacciones, porque tras la eliminación de funciones de juego de roles eróticos de la aplicación, se generó una reacción negativa entre los usuarios, quienes expresaron su ira y desesperación, demostrando cómo estas relaciones virtuales pueden afectar emocionalmente a las personas.
Esta tendencia de abuso y misoginia en el ámbito de la inteligencia artificial no es algo nuevo. Ya se ha observado anteriormente cómo los hombres tienden a maltratar con mayor frecuencia a chatbots o asistentes virtuales con apariencia femenina. Además, la industria de la pornografía ha arrastrado sus problemas de misoginia al ámbito virtual, como se ha visto en los casos de bots capaces de “desnudar” mujeres mediante IA.
En el caso de Eva AI, se sugiere entre sus opciones generar una pareja con cualidades como “sexy, divertida, atrevida, tímida, modesta, considerada, inteligente, estricta o racional”, además le preguntan a los usuarios si quieren aceptar el envío de mensajes y fotos explícitas.
Opciones que siguen con el discurso de dominio y control del hombre hacia la mujer, solo que traslado a un ambiente virtual.
Fuente: Infobae