Durante los últimos 18 meses, el equipo de confianza y seguridad de la plataforma de juegos sociales Rec Room ha logrado resultados sobresalientes en la reducción de la toxicidad. En este informe de VB Spotlight, exploraremos las métricas, herramientas y estrategias utilizadas para hacer que los jugadores estén más felices, aumentar la participación y cambiar el juego.
Rec Room, lanzado en 2016, es una plataforma de juegos sociales con más de 100 millones de usuarios en todo el mundo. Los jugadores interactúan en tiempo real a través de chats de texto y voz en PC, dispositivos móviles, auriculares de realidad virtual y consolas, utilizando avatares para dar vida a la experiencia.
La directora de gestión de cuentas de Modulate, Mark Frumkin, y la jefa de confianza y seguridad de Rec Room, Yasmin Hussain, discutieron en un reciente VB Spotlight sobre la protección de los jugadores contra la toxicidad, a través del trabajo del equipo de confianza y seguridad de Rec Room y su colaboración con ToxMod, una solución proactiva de moderación de chat de voz impulsada por aprendizaje automático.
La tarea de mejorar la experiencia y seguridad de los jugadores debe ser una prioridad para los desarrolladores de juegos. Rec Room se esfuerza por crear un espacio donde la creación de mundos por parte de los jugadores y las interacciones sean positivas y seguras. Sin embargo, las interacciones en tiempo real a través del chat de voz pueden conducir a comportamientos inapropiados. ¿Cómo se puede cambiar el comportamiento de los jugadores que no cumplen con las normas de la comunidad?
Después de un año de experimentación, Rec Room logró reducir las instancias de chat de voz tóxico en un 70%, aunque el proceso no fue instantáneo. El primer paso fue extender la cobertura de moderación de voz continua en todas las salas públicas, lo que ayudó a mantener la coherencia en las expectativas de comportamiento de la plataforma. Luego, identificaron la respuesta más efectiva cuando los jugadores se desviaban de la norma, llegando a la conclusión de que la admonición inmediata tenía un gran impacto en la reducción de comportamientos inapropiados.
Al profundizar en el análisis, descubrieron que un pequeño porcentaje de la base de jugadores era responsable de la mayoría de las violaciones. Esto llevó a la implementación de intervenciones más personalizadas para abordar de manera directa a este grupo específico.
Para llevar a cabo estos experimentos de seguridad y confianza, es crucial seguir métricas específicas que permitan iterar en las estrategias de moderación de jugadores. La claridad en la hipótesis, el comportamiento que se desea cambiar, los resultados esperados y el éxito definido son fundamentales en este proceso de mejora continua.
La moderación por voz es un desafío complejo, especialmente en el ámbito del audio en tiempo real, pero las herramientas impulsadas por inteligencia artificial están teniendo un impacto significativo en las estrategias de moderación de plataformas de juegos. La evolución en este campo permite aumentar las ambiciones y mejorar la experiencia de los jugadores en entornos virtuales.
En definitiva, Rec Room ha logrado reducir la toxicidad en su plataforma y mejorar la seguridad y bienestar de sus usuarios. A través del uso de herramientas de moderación de voz avanzadas y la realización de experimentos continuos, han conseguido que alrededor del 90% de sus jugadores se sientan seguros, bienvenidos y se diviertan en el juego.
Para obtener más información sobre los desafíos de la toxicidad en los juegos, estrategias para cambiar efectivamente el comportamiento de los jugadores y cómo el aprendizaje automático ha transformado esta área, no te pierdas este interesante informe de VB Spotlight totalmente gratuito y disponible a pedido.
GIPHY App Key not set. Please check settings