Xbox publie un deuxième rapport sur la transparence démontrant le rôle indispensable de la modération proactive du contenu

Rate this post

Avec une communauté croissante de plus de 3 milliards de joueurs dans le monde, un investissement continu dans la confiance et la sécurité est essentiel pour créer un environnement en ligne sécurisé et inclusif. La protection des joueurs contre les dommages fait partie intégrante de l’équipe de sécurité Xbox et du travail que nous effectuons. Les joueurs ne voient pas souvent ou ne sont pas conscients de toutes les mesures de modération de contenu exécutées en arrière-plan qui contribuent à rendre leur jeu plus sûr et plus agréable. Aujourd’hui, nous publions le deuxième Rapport de transparence Xboxqui détaille nos efforts continus pour mieux protéger nos joueurs et illustre nos mesures de sécurité en action.

Notre package de sécurité complet comprend la modération active et réactive, les normes communautaires, les contrôles parent et famille tels que l’application Xbox Family Settings et notre travail continu avec les partenaires et les régulateurs de l’industrie. Notre investissement important dans la modération de contenu combine l’intelligence artificielle et la technologie humaine pour détecter et filtrer le contenu avant qu’il n’atteigne et n’affecte les joueurs. Nous utilisons une gamme de mesures qui nous donnent l’échelle, la vitesse et l’étendue nécessaires pour suivre l’interaction et l’activité croissantes de nos joueurs. Comme indiqué dans le rapport sur la transparence, 80 % (8,08 millions) du total des mesures d’application au cours de cette période étaient dues à nos efforts de modération. Les données montrent l’impact de cette approche.


Comme les besoins des joueurs continuent d’évoluer, nos outils aussi. La sécurité de nos joueurs est notre priorité absolue, et pour promouvoir une expérience en ligne sécurisée, nous continuerons d’investir dans l’innovation, de travailler en étroite collaboration avec les partenaires de l’industrie et les régulateurs, et de recueillir les commentaires de la communauté. Nous avons hâte de partager plus.

Parmi les principales conclusions du rapport :

  • Des mesures proactives sont essentielles pour améliorer la sécurité des joueurs. En cette période, 80% Toutes nos mesures d’application ont été rendues à la suite de nos efforts de modération proactive. Notre approche de la modération proactive comprend à la fois des mesures automatisées et humaines qui filtrent le contenu avant qu’il n’atteigne les joueurs. Des outils automatisés tels que Community Sift fonctionnent avec du texte, des vidéos et des images pour détecter le contenu offensant en quelques millisecondes. Au cours de la seule dernière année, Community Sift a estimé à 20 milliards d’interactions humaines sur Xbox. 100% accès non autorisé à un compte, piratage, hameçonnage et comptes frauduleux/inauthentiques.
  • Accent accru sur le contenu inapproprié. Nous comprenons que les besoins de nos joueurs changent constamment et nous continuons à écouter les commentaires des joueurs sur ce qui est et n’est pas acceptable sur la plateforme conformément à nos normes communautaires. Au cours de cette dernière période, nous avons élargi la définition du contenu vulgaire pour inclure les gestes offensants, le contenu sexuel et l’humour grossier. Ce type de contenu est généralement considéré comme odieux et inapproprié, nuisant au gameplay de base pour beaucoup de nos joueurs. Ce changement de politique, combiné aux améliorations apportées à nos classificateurs d’images, a entraîné 450% d’augmentation dans des spectacles au contenu vulgaire, avec 90,2 % sont modérés activement. Ces mesures se traduisent souvent par la simple suppression du contenu répréhensible, ce qui se traduit par 390% d’augmentation dans l’application du « contenu uniquement » pendant cette période.
  • Accent constant sur les comptes inauthentiques. Notre modération active, en hausse 16,5x pour la même période l’année dernière, nous permet d’identifier le contenu négatif et de le gérer avant qu’il n’atteigne les joueurs. L’équipe de sécurité Xbox a publié plus 7,51 millions forces de l’ordre actives contre les faux comptes représentant 74% du nombre total de demandes pour la période de référence (du 57% dernière période de déclaration). Les comptes non authentiques sont généralement des comptes automatisés ou des comptes créés par des bots qui créent un terrain de jeu inégal et peuvent nuire à une expérience de joueur positive. Nous continuons d’investir et d’améliorer notre technologie pour offrir aux joueurs une expérience sûre, positive et engageante.

Partout dans le monde, notre équipe continue de travailler en étroite collaboration avec des partenaires clés de l’industrie pour collaborer sur notre approche de la sécurité, notamment en augmentant les niveaux d’éducation et en améliorant nos pratiques de sécurité pour dépasser les normes :

En savoir plus
  • Tetris The Absolute Grandmaster 2 Plus arrive dans les archives de Hamster Arcade le mois prochain

  • Les jeux PC Xbox seront disponibles pour les acheteurs de Boosteroid le 1er juin

  • Aléatoire: Pokedex non officiel russe présente une alternative hilarante à Pokemon

  • Waouh ! Le film Mario est désormais disponible à l’achat ou à la location numérique au Royaume-Uni

Ensemble, nous créons une communauté où tout le monde peut s’amuser. Chaque personne, qu’elle soit un joueur débutant ou un professionnel chevronné, a un rôle à jouer dans la création d’une communauté plus positive et engageante pour tous. Les commentaires et les rapports des joueurs nous aident à améliorer nos fonctionnalités de sécurité. Si vous voyez quelque chose d’inapproprié, veuillez le signaler – nous n’aurions pas pu le faire sans vous !

Quelques ressources supplémentaires :

HDFever
Logo