« Call of Duty » utilise des outils de modération vocale IA pour lutter contre les discours de haine
L’outil basé sur l’IA, appelé ToxMod, écoutera les discussions vocales des joueurs.
Le chat vocal de Call of Duty n’est pas génial. Activision espère que l’IA pourra résoudre ce problème.
Selon un article du blog de l’entreprise publié mercredi, la prochaine version majeure de COD utilisera l’IA pour observer et signaler les discussions vocales toxiques dans les matchs multijoueurs. Plus précisément, Activision déploie ToxMod, une technologie d’IA développée par une société appelée Modulate, pour s’assurer que les gens ne sont pas super racistes lorsqu’ils s’affrontent lors d’un match à mort en équipe.
Pour ce que ça vaut, ToxMod est intéressant à tout le moins. Comme l’a remarqué PCGamer, Modulate affirme que ToxMod peut écouter le contexte d’une conversation pour déterminer si quelque chose est véritablement un discours de haine.
ToxMod prétend également être capable de détecter un langage de toilettage pour les groupes suprémacistes blancs. Modern Warfare III sera de loin le plus gros jeu dans lequel ToxMod a été déployé jusqu’à présent, ce sera donc tout un test. Une chose à noter, cependant, est que le logiciel lui-même ne punit pas les joueurs pour discours haineux. Au lieu de cela, il signale simplement les violations du code de conduite de Call of Duty et les humains d’Activision prennent des mesures supplémentaires.
Parmi toutes les différentes utilisations potentielles de l’IA, celle-ci est peut-être moins offensante que la plupart des autres. Après tout, il ne s’agit pas de reproduire ou même de remplacer la créativité humaine ; au lieu de cela, cela pourrait potentiellement empêcher les gens d’être obligés d’écouter des discours de haine. Mais cela signifie également qu’il pourrait y avoir de réelles limites à la technologie ou des moyens de contourner ses filtres.
Nous le saurons tous au cours des prochains mois, car chaque joueur de Call of Duty deviendra un cobaye.