Connexion
/ Inscription
Mon espace
Initiatives
ABONNÉS
Partager par Linked-In
Partager par Twitter
Partager par Xing
Partager par Facebook
Partager par email
Suivez-nous sur feedly

[Initiative] E-sport : Bodyguard.ai signe un accord avec Team BDS pour lutter contre la haine en ligne

Fournisseur d’une solution de modération qui protège en temps réel contre les contenus toxiques en ligne dans l’e-sport, Bodyguard.ai annonce un partenariat révolutionnaire avec l’organisation sportive suisse Team BDS.

Team BDS est un acteur majeur de la scène de l’e-sport : son équipe, à la croissance fulgurante, a déjà remporté le Major de Rainbow Six Siegeen Suède et les Rocket League Championship Series, et s’est par ailleurs distinguée en 2022 parmi les finalistes des European Masters de League of Legends.

Sur internet, les comportements et contenus toxiques continuent de poser un problème de taille au sein de la communauté des gamers, qui semble particulièrement perméable à la culture de l’affrontement en ligne. Des insultes aux menaces, la grande majorité des joueurs sont exposés à du contenu haineux lorsqu’ils jouent en ligne.

Une analyse de Unity Games révèle ainsi que 72% des joueurs en ligne subissent du harcèlement pendant la partie, tandis que 92% estiment que des solutions doivent être mises en place afin de réduire les contenus toxiques qui affectent l’expérience des jeux multi-joueurs. D’après Women in Games, une femme sur quatre affirme en outre que ces comportements toxiques les poussent à se détourner des jeux multi-joueurs en ligne.

Dans le monde, l’audience de l’e-sport rassemblera 532 millions de joueurs d’ici la fin de l’année 2022 pour atteindre 640,8 millions en 2025, avec 60% des revenus générés issus du sponsoring. Alors que les audiences de streaming en direct représentaient en tout 810 millions de personnes en 2021, elles devraient s’élever à 1,41 milliard d’ici 2025. Rançon de cette croissance spectaculaire : toujours plus de joueurs et de fans sont exposés aux contenus toxiques en ligne.

Dans le cadre de son partenariat avec Bodyguard.ai, et soucieuse du bien-être de ses joueurs, fans et partenaires, Team BDS prend des mesures fortes contre les contenus toxiques, sous toutes leurs formes, en devenant la première équipe d’e-sport à investir dans une solution de modération automatisée.

Arnaud Chemin, Head of Gaming de Bodyguard.ai, rappelle : « Le secteur du jeu vidéo, et en particulier de l’e-sport, est en plein essor. Nous savons que des millions de personnes, partout dans le monde, adorent jouer et regarder jouer leurs équipes et gamers favoris. Nous nous réjouissons de ce partenariat avec Team BDS, une des équipes d’e-sport à la croissance la plus rapide au monde, afin d’aider à protéger leurs joueurs et fans des contenus haineux véhiculés en ligne. Nous sommes impatients de pouvoir collaborer avec une organisation d’un tel calibre pour sensibiliser à propos des dangers de la toxicité dans le domaine des jeux vidéo et pousser le secteur vers davantage de bienveillance, de sécurité et de liberté pour tous. »

Bodyguard.ai modère les réseaux sociaux de Team BDS depuis avril 2022, notamment Twitch, Instagram et Twitter. Dans la continuité de cette collaboration, ce partenariat à grande échelle offrira à l’équipe la suite complète des services Bodyguard.ai destinés aux jeux vidéo.

Le service de modération automatisée de Bodyguard.ai, qui affiche un taux de réussite de 90%, permet de modérer des millions de commentaires en quelques secondes seulement sur Twitch et YouTube, sur les forums et salons de discussion, dans les jeux et au sein des communautés de fans et autres plateformes sociales.

Les utilisateurs bénéficient d’une solution unique et simple d’utilisation, capable de fournir une analyse détaillée de n’importe quelle communauté de gamers, qui tient compte de l’ensemble des comportements et interactions. Grâce aux analyses exhaustives fournies et aux fonctions de filtrage par catégorie, les organisations sont en mesure de récompenser et promouvoir les comportements positifs, mais aussi d’entreprendre des actions spécifiques contre le partage de contenu toxique.

À l’heure où les contenus malveillants prolifèrent dans la communauté des jeux vidéo, les solutions automatisées agissent à grande échelle pour un résultat radical. Elles contribuent notamment à enrayer l’effet boule de neige tant redouté, lorsque, faute de modération efficace, les comportements toxiques prennent une telle ampleur qu’ils finissent par provoquer le départ de nombreux joueurs, qu’ils soient visés ou non par ces attaques. En plus d’entamer les effectifs des organisations et communautés, ce phénomène a également des conséquences désastreuses sur la réputation et l’image des marques.

Arnaud Chemin conclut : « Il est évident que les gamers sont exposés à des comportements extrêmement virulents, et cela doit changer. Chaque commentaire toxique a potentiellement un impact dévastateur sur la personne visée. Les interactions font cependant partie intégrante de l’expérience de jeu. C’est pourquoi les organisations doivent protéger leurs communautés des comportements négatifs et du harcèlement. Une solution de modération automatisée donne lieu à des conversations plus saines, et garantit la satisfaction et la protection des joueurs : tout le monde y gagne. »

Lire la suite...


Articles en relation