StarWlog

Xbox introduce nuevas soluciones de IA para proteger a los jugadores de mensajes no deseados en su enfoque de seguridad multifacético

Fifth-Transparency-Report-Hero-Image-ffaa01e7118f7af95edc-92ca7b826f5b689e404f

Xbox publicó su Quinto Informe de Transparencia destacando cómo seguimos combinando soluciones centradas en el jugador con la aplicación responsable de la Inteligencia Artificial para mejorar la experiencia humana en la detección y prevención de comportamientos disruptivos en la plataforma de Xbox y, en última instancia, asegurar que continuamos equilibrando y satisfaciendo las necesidades de nuestra creciente comunidad.

Los puntos clave del informe incluyen un enfoque en equilibrar la seguridad y la autenticidad en los mensajes a través de un nuevo método para detectar e interceptar mensajes dañinos de personas que no son amigos del usuario. Mientras tanto, la seguridad se vio reforzada por los informes de los jugadores, quienes nos ayudaron a identificar y actuar sobre un aumento de cuentas no verificadas a través de la función de reporte. Por último, recientemente implementamos un enfoque dual de IA que incluye dos nuevas herramientas diseñadas para apoyar a nuestros equipos de moderación y detectar spam y publicidad.

Entre las conclusiones clave del informe:

  • Equilibrar la seguridad y la autenticidad en la mensajería: Presentamos un nuevo enfoque para detectar e interceptar mensajes dañinos entre personas que no son amigos, lo que contribuyó a un aumento significativo en el contenido disruptivo evitado. De enero a junio, se impidió que un total de 19 millones de piezas de contenido que violaban los Estándares de la comunidad de Xbox llegaran a los jugadores a través de texto, imágenes y videos. Este nuevo enfoque equilibra dos objetivos: proteger a los jugadores del contenido dañino enviado por personas que no son amigos, al mismo tiempo que se preservan las experiencias de juego en línea auténticas que disfruta nuestra comunidad. Alentamos a los jugadores a usar la nueva Experiencia de amigos y seguidores de Xbox, que brinda más control y flexibilidad al conectarse con otras personas.
  • Seguridad mejorada por los informes de los jugadores: Los informes de los jugadores siguen siendo un componente fundamental en nuestro enfoque de seguridad. Durante este período, los jugadores nos ayudaron a identificar un aumento en el spam y la publicidad en la plataforma. Estamos constantemente evolucionando nuestra estrategia para evitar la creación de cuentas no auténticas en la fuente, limitando su impacto tanto en los jugadores como en el equipo de moderación. En abril, tomamos medidas ante un aumento repentino de cuentas no auténticas (1.7 millones de casos, en comparación con los 320 000 de enero) que afectaban a los jugadores en forma de spam y publicidad. Los jugadores nos ayudaron a identificar este aumento y patrón al proporcionar informes en los mensajes de Buscando grupo (LFG). Los informes de los jugadores se duplicaron a 2 millones para los mensajes LFG y aumentaron 8% a 30 millones en todos los tipos de contenido en comparación con el último período del informe de transparencia.
  • Nuestro enfoque de IA dual: Lanzamos dos nuevas herramientas de IA diseñadas para respaldar a nuestros equipos de moderación. Estas innovaciones no solo evitan la exposición de material disruptivo a los jugadores, sino que también permiten que nuestros moderadores humanos prioricen sus esfuerzos en problemas más complejos y matizados. La primera de estas nuevas soluciones es Xbox AutoMod, un sistema que se lanzó en febrero y ayuda con la moderación del contenido denunciado. Hasta ahora, ha manejado 1.2 millones de casos y ha permitido al equipo eliminar contenido que afecta a los jugadores un 88% más rápido. La segunda solución de IA que presentamos se lanzó en julio y trabaja de manera proactiva para prevenir comunicaciones no deseadas. Hemos dirigido estas soluciones para detectar spam y publicidad y las ampliaremos para prevenir más tipos de daños en el futuro.

La base de todos estos nuevos avances es un sistema de seguridad que se basa tanto en los jugadores como en la experiencia de los moderadores humanos para garantizar la aplicación coherente y justa de nuestros Estándares de la comunidad, al tiempo que mejora nuestro enfoque general a través de un ciclo de retroalimentación continuo.

En Microsoft Gaming, sus esfuerzos por impulsar la innovación en materia de seguridad y mejorar la experiencia de sus jugadores también se extienden más allá del Informe de Transparencia:

Priorizar la seguridad de los jugadores con Minecraft: Mojang Studios cree que cada jugador puede hacer su parte para mantener Minecraft como un lugar seguro y acogedor para todas las personas. Para ayudar con eso, Mojang lanzó una nueva función en Minecraft: Bedrock Edition que envía recordatorios a los jugadores sobre los Estándares de la comunidad del juego cuando se detecta un comportamiento potencialmente inapropiado o dañino en el chat de texto. Esta función tiene como objetivo recordar a los jugadores en los servidores la conducta esperada y crear una oportunidad para que reflexionen y cambien la forma en que se comunican con los demás antes de que se requiera la suspensión o prohibición de una cuenta. Por otra parte, desde que se lanzó la Lista oficial de servidores de Minecraft hace un año, Mojang, en asociación con GamerSafer, ha ayudado a cientos de propietarios de servidores a mejorar la gestión de la comunidad y las medidas de seguridad. Esto ha ayudado a los jugadores, padres y adultos de confianza a encontrar los servidores de Minecraft comprometidos con las prácticas de seguridad que les importan.

Actualizaciones de las herramientas antitoxicidad de Call of Duty: Call of Duty se compromete a combatir la toxicidad y el juego injusto. Para frenar el comportamiento disruptivo que viola el Código de conducta de la franquicia, el equipo implementa tecnología avanzada, incluida la IA, para empoderar a los equipos de moderación y combatir el comportamiento tóxico. Estas herramientas están diseñadas específicamente para ayudar a fomentar una comunidad más inclusiva donde los jugadores sean tratados con respeto y compitan con integridad. Desde noviembre de 2023, se bloquearon más de 45 millones de mensajes de texto en 20 idiomas y la exposición a la toxicidad de la voz se redujo a 43%. Con el lanzamiento de Call of Duty: Black Ops 6, el equipo implementó soporte para moderación de voz en francés y alemán, además del soporte existente para inglés, español y portugués. Como parte de este trabajo continuo, el equipo también realiza investigaciones sobre el comportamiento prosocial en los juegos.

A medida que la industria evoluciona, seguimos construyendo una comunidad de juegos de jugadores apasionados, con ideas afines y reflexivos que vienen a nuestra plataforma para disfrutar de experiencias inmersivas, divertirse y conectarse con otros. Seguimos comprometidos con la seguridad de la plataforma y con la creación de IA responsable por diseño, guiados por el Estándar de IA Responsable de Microsoft y a través de nuestra colaboración y asociación con organizaciones como Tech Coalition. Gracias, como siempre, por contribuir a nuestra vibrante comunidad y por estar presente con nosotros en nuestro viaje.

Algunos recursos adicionales:     

Menu