Un jeu vidéo algorithme pour résoudre les abus en ligne

0

Un jeu vidéo algorithme pour résoudre les abus en ligne

Comme beaucoup d’espaces en ligne, League of Legends, le jeu le plus joué en ligne de la vidéo dans le monde d’aujourd’hui, est un terrain fertile pour la langue et de comportement abusif. Favorisée par l’anonymat et amplifié dans le creuset chauffé d’un sport de compétition de l’équipe, cette conduite a été telle un problème pour son fabricant, Riot Games, que l’entreprise emploie aujourd’hui une équipe de scientifiques et de designers à trouver des façons d’améliorer les interactions entre le jeu de joueurs.

Au cours des dernières années, l’équipe a expérimenté avec un radeau de systèmes et de techniques, soutenus par l’apprentissage de la machine, qui sont conçus pour surveiller la communication entre joueurs, de sanctionner les comportements négatifs, et de récompenser les comportements positifs. Les résultats ont été surprenants, dit Jeffrey Lin, concepteur en chef des systèmes sociaux à Riot Games. Le logiciel a surveillé plusieurs millions de cas de comportement abusif présumé. Quatre-vingt-deux pour cent des joueurs qui ont été capturées en utilisant un langage abusif contre d’autres n’a pas récidivé. Lin, qui est un chercheur en neurosciences cognitives, estime que les techniques de l’équipe peuvent être appliquées en dehors du contexte du jeu vidéo. Il pense peut Riot ont créé quelque chose d’un antidote pour la toxicité en ligne, peu importe où il se produit.

Le projet a débuté il ya plusieurs années lorsque l’équipe a introduit un système de gouvernance surnommé, en accord avec le thème de la fantaisie du jeu, le Tribunal. Le jeu serait d’identifier les cas potentiels de langage abusif et de créer un “dossier” de l’interaction. Ces fichiers ont ensuite été présentés à la communauté du jeu de joueurs (environ 67 millions de visiteurs uniques), qui ont été invités à consulter les journaux et vote dans le jeu de chat sur si elles considéraient que le comportement acceptable. Globalement, le système était très précis, dit Lin. En effet, 98 pour cent des verdicts de la communauté correspondaient à celles de l’équipe interne à Riot.

Plusieurs millions de cas ont été traités de cette manière peu de main-d’œuvre. Bientôt Lin et l’équipe a commencé à voir des tendances dans les joueurs toxiques de langue utilisés. Pour aider à optimiser le processus, ils ont décidé d’appliquer des techniques d’apprentissage automatique des données. “Il est avéré être un grand succès dans la segmentation de la langue négatif et positif dans les 15 langues officielles de la Ligue soutient», dit Lin.

cLa nouvelle version du système, désormais contrôlé par des technologies plutôt que par d’autres joueurs, a rendu plus efficace de fournir une rétroaction et d’imposer des conséquences pour le comportement toxique dans le jeu. Il peut maintenant offrir des commentaires aux joueurs dans les cinq minutes, où, auparavant, il pourrait prendre jusqu’à une semaine.

Lin affirme que le système amélioré de façon spectaculaire ce que la société appelle “taux de réforme.” Un joueur qui a déjà reçu une pénalité, comme une suspension de parties avec classement, est considéré comme réformée si il ou elle évite les sanctions subséquentes pour une période de temps. “Lorsque nous avons ajouté une meilleure rétroaction aux punitions et comprenaient des éléments tels que les historiques de conversation pour la punition, les taux de réforme ont bondi de 50 pour cent à 65 pour cent”, dit-il. “Mais lorsque le système d’apprentissage de la machine a commencé à livrer des commentaires beaucoup plus rapidement avec les éléments de preuve, les taux de réforme dopés à un niveau record de 92 pour cent.”

Un défi le système est confronté contexte exigeant. Comme dans tout sport d’équipe, les joueurs construisent souvent grâce à la camaraderie joshing ou le sarcasme que, dans un autre contexte, pourrait être considéré comme méchant ou agressif. Une machine échoue habituellement pour attraper le sarcasme. En fait, qui est peut-être l’obstacle le plus important à la lutte contre les abus en ligne avec l’apprentissage de la machine. “Il est assez juste de dire que les IA qui comprennent la langue exécuter mieux quand l’information contextuelle minimale est nécessaire de calculer la réponse correcte», explique Chris Dyer, professeur adjoint à l’Université Carnegie Mellon qui travaille sur le traitement du langage naturel. “Les problèmes qui nécessitent beaucoup d’informations intégrant du contexte dans lequel un énoncé est fait sont beaucoup plus difficiles à résoudre, et le sarcasme est extrêmement dépendante du contexte.”

Actuellement, Lin et son équipe tentent de résoudre le problème avec les contrôles et de contrepoids supplémentaires. Même lorsque le système identifie un joueur comme ayant affiché un comportement toxique, d’autres systèmes sont vérifiés pour renforcer ou opposer son veto au verdict. Par exemple, il tentera de valider chaque rapport un joueur fichiers afin de déterminer son historique “la précision des rapports.” “Parce que plusieurs systèmes fonctionnent conjointement pour offrir conséquences pour les joueurs, nous sommes en train de voir une saine 1 en 5000 faux- taux positif “, dit Lin.

Pour enrayer vraiment l’abus, Riot conçu punitions et de dissuasion pour convaincre les joueurs à modifier leur comportement. Par exemple, il peut limiter les ressources de chat pour les joueurs qui se comportent de façon abusive, ou demander aux joueurs de compléter des jeux non classées sans incident, avant d’être en mesure de jouer à des jeux haut de classement. La société récompense également les joueurs respectueuses avec le renforcement positif.

Lin croit fermement que les leçons que lui et son équipe ont appris de leur travail ont une signification plus large. “L’une des idées essentielles de la recherche est que les comportements toxiques ne viennent pas nécessairement de gens terribles; cela vient de gens ordinaires ayant une mauvaise journée “, explique Justin Reich, un chercheur du Centre Berkman de Harvard, qui a étudié le travail de Riot. “Cela signifie que nos stratégies pour aborder les comportements toxiques en ligne ne peuvent pas être ciblés juste au trolls endurcis; ils ont besoin pour tenir compte de notre tendance humaine collective pour permettre que le pire de nous-mêmes à émerger sous l’anonymat de l’Internet “.

Néanmoins, Reich considère le travail de Lin démontre que le comportement toxique est pas un appareil du Web, mais un problème qui peut être résolu grâce à une combinaison de l’ingénierie, de l’expérimentation, et l’engagement communautaire. «Les défis auxquels nous sommes confrontés dans League of Legends peuvent être vus sur un jeu en ligne, plate-forme, de la communauté, ou forum, qui est la raison pour laquelle nous croyons que nous sommes à un point crucial dans la ligne de temps de communautés en ligne et les sociétés», dit- Lin. “Pour cette raison, nous avons été très ouverts à partager nos données et les meilleures pratiques avec l’industrie plus large et nous espérons que d’autres studios et les entreprises prennent un oeil à ces résultats et se rendent compte que la toxicité en ligne est pas un problème impossible après tout.” Actuellement, Lin et son équipe tentent de résoudre le problème avec les contrôles et de contrepoids supplémentaires. Même lorsque le système identifie un joueur comme ayant affiché un comportement toxique, d’autres systèmes sont vérifiés pour renforcer ou opposer son veto au verdict. Par exemple, il tentera de valider chaque rapport un joueur fichiers afin de déterminer son historique “la précision des rapports.” “Parce que plusieurs systèmes fonctionnent conjointement pour offrir conséquences pour les joueurs, nous sommes en train de voir une saine 1 en 5000 faux- taux positif “, dit Lin.

Pour enrayer vraiment l’abus, Riot conçu punitions et de dissuasion pour convaincre les joueurs à modifier leur comportement. Par exemple, il peut limiter les ressources de chat pour les joueurs qui se comportent de façon abusive, ou demander aux joueurs de compléter des jeux non classées sans incident, avant d’être en mesure de jouer à des jeux haut de classement. La société récompense également les joueurs respectueuses avec le renforcement positif.

Lin croit fermement que les leçons que lui et son équipe ont appris de leur travail ont une signification plus large. “L’une des idées essentielles de la recherche est que les comportements toxiques ne viennent pas nécessairement de gens terribles; cela vient de gens ordinaires ayant une mauvaise journée “, explique Justin Reich, un chercheur du Centre Berkman de Harvard, qui a étudié le travail de Riot. “Cela signifie que nos stratégies pour aborder les comportements toxiques en ligne ne peuvent pas être ciblés juste au trolls endurcis; ils ont besoin pour tenir compte de notre tendance humaine collective pour permettre que le pire de nous-mêmes à émerger sous l’anonymat de l’Internet “.

Néanmoins, Reich considère le travail de Lin démontre que le comportement toxique est pas un appareil du Web, mais un problème qui peut être résolu grâce à une combinaison de l’ingénierie, de l’expérimentation, et l’engagement communautaire. «Les défis auxquels nous sommes confrontés dans League of Legends peuvent être vus sur un jeu en ligne, plate-forme, de la communauté, ou forum, qui est la raison pour laquelle nous croyons que nous sommes à un point crucial dans la ligne de temps de communautés en ligne et les sociétés», dit- Lin. “Pour cette raison, nous avons été très ouverts à partager nos données et les meilleures pratiques avec l’industrie plus large et nous espérons que d’autres studios et les entreprises prennent un oeil à ces résultats et se rendent compte que la toxicité en ligne est pas un problème impossible après tout.”

Share.

About Author

Comments are closed.