El desafío de los videojuegos: ¿pueden las inteligencias artificiales terminar con la toxicidad?

Riot Games y Ubisoft La Forge, la unidad experimental de la empresa de la famosa empresa de videojuegos, anunciaron hace algunos días que unirían sus bases de datos para desarrollar sistemas de Inteligencia Artificial (IA) más eficaces a la hora de combatir la toxicidad entre jugadores en sus juegos. El plan “Zero Harm in Comms”, nombre bajo el cual comenzó el proyecto, es mucho más complejo de lo que parece y no es la primera vez que se intenta algo similar.

Con el estallido de popularización de los esports, las reglas sobre el intercambio de chat entre jugadores han sido sobre las que menos se han encontrado solución. La masificación de juegos como League of Legends obligó a los usuarios de comunicarse como equipo y, con ello, se hicieron más notorias las dificultades que experimentan los sistemas de detección de comportamiento abusivo dentro de los chats de los videojuegos.

Pero, ¿a qué se le llama comportamiento tóxico? La definición no es fija y no siempre es parte de alguna expresión escrita o hablada, sino también de comportamiento utilizando las mecánicas de juego. Si bien no existe alguna legislación que lo determine, sí se está construyendo jurisprudencia sobre el abuso digital y, a partir de ello, qué tipo de actitudes violentas transgreden la “identidad digital” de los usuarios de distintas plataformas.

En 2019, Xbox comprendió que su creciente poder sobre el mercado occidental de juegos online podía ser un arma de doble filo. Phil Spencer, cabeza de la división de videojuegos de Microsoft, tuvo la intención de agarrar el toro por las astas y, bajo un posteo llamado “El gaming es para todos”, habló de la necesidad de proteger a todos los usuarios del ecosistema de videojuegos.

La propuesta de Microsoft era obvia: construir un sistema eficiente para detectar la toxicidad en el gaming que también pudiese solucionar los problemas de manera rápida. Así, actualizaron las reglas de la Comunidad de Xbox sobre la responsabilidad de todos los usuarios de mantener “el juego limpio” e inclusive se pusieron en la letra fina de diferenciar lo que es “el picanteo” dentro de la competencia y el insulto directo.

Junto a esta serie de reglas, también se habló de la implementación de filtros dentro de los chats de la comunidad Xbox, donde los jugadores y jugadoras podían “programar” qué tipo de palabras consideraban abusivas. Estos filtros tenían cuatro tipos: Amistoso, Medio, Maduro y sin Filtro, y su nivel de comunicación afectaba las interacciones de Xbox Live.

Con esta idea, la división de Phil Spencer comentó sobre la programación de una IA para filtrar todos los tipos de contenido en Xbox Live, de manera que no solo el texto fuese filtrado, sino todo tipo de contenido. El objetivo era generar un sistema que detecte las “frases tóxicas” y censurarlas para aquellos que no quisieran escucharlas. Pero desde que se propuso, Xbox no volvió actualizar los avances de este plan.

Intel Gaming se anima a la inteligencia artificial

Quienes sí hicieron la prueba de una Inteligencia Artificial que vigile los discursos de los jugadores, fueron los ingenieros de Intel. Con el sistema de Intel’s Bleep, logrado mediante una alianza con la compañía Spirit AI, se comenzó a desarrollar en 2021 una estructura de reconocimiento de discursos de odio.

La propuesta se inspiró en la televisión: su IA taparía con un silbido (o beep) las palabras que estuvieran relacionadas con insultos. Los jugadores y jugadoras podrían también personalizar el nivel de filtrado, de manera que tuviesen el poder de volver a ganar el poder dentro de los intercambios violentos. “La intención de esto siempre fue poner el control en la mano de los usuarios”, declaró Marcus Kennedy, mánager de la división de gaming de Intel, teniendo en cuenta que a veces los insultos “livianos” son parte de los intercambios entre amigos. Aun así, todavía no hay una actualización sobre la herramienta.