Riot Games ha hecho un balance sobre la toxicidad en VALORANT durante 2021 y ha revelado el refuerzo de medidas. Los desarrolladores del shooter han hablado a través de una publicación en su página web sobre el mal uso de los sistemas de comunicación, tanto de chat como voz. Además, han detallado las distintas estrategias que seguirán para mejorar la experiencia de los jugadores.
Los desarrolladores de VALORANT han desgranado punto por punto cómo han combatido la toxicidad, cuáles han sido las consecuencias de sus medidas y cuáles son los planes de Riot Games para afrontar la problemática. Actualmente el shooter cuenta con los informes de los jugadores y las listas de palabras silenciadas como principales herramientas para paliar las actitudes negativas. Además, para acompañarlas Riot creó un sistema de «puntuaciones» sobre el comportamiento para evaluar los jugadores que cometen infracciones con regularidad. Actualmente está dividida entre los «AFK» y los usuarios tóxicos a través de los sistemas de comunicación.
VALORANT castiga los jugadores tóxicos
Los informes de los jugadores y las listas de palabras silenciadas han tenido impacto durante el último 2021. Durante el último año VALORANT ha superado las 200.000 restricciones en los sistemas de comunicación durante todos los meses. El mayor pico se situó el pasado mes de agosto superando las 400.000 sanciones, una cifra que el shooter ha vuelto a alcanzar durante el último mes de enero. Sin embargo, la situación cambia radicalmente en lo que se refiere a suspensiones de cuenta. Las suspensiones fueron progresivas durante gran parte del último año pero en ningún momento se llegó a las 50.000 cuentas bloqueadas. Agosto y octubre fueron los meses en los que más usuarios vieron prohibido su acceso.
De cara a 2022, Riot Games quiere endurecer su tolerancia a las actitudes tóxicas dentro de VALORANT. Los desarrolladores han asegurado que actualmente están trabajando en sanciones más duras dentro de los sistemas existentes, una moderación de texto más inmediata, mejoras en la moderación del chat de voz y un programa regional de pruebas. Este último consiste en «crear una línea operativa con agentes de asistencia al jugador que revisan los informes entrantes relacionados con el comportamiento de los jugadores y toman medidas siguiendo una guía preestablecida». Actualmente Riot está realizando una prueba de esta medida en el servidor turco.