Avec son IA, Modulate veut nettoyer les messages toxiques du chat vocal des jeux vidéo

&#xD ;

Le harcèlement des femmes et les insultes sexistes dans les jeux en ligne et les esports sont une longue histoire. Les gamers masculins ne sont pas non plus épargnés par les comportements toxiques des internautes. Pour aider les plateformes à améliorer leur modération, la start-up Modulate a développé un outil de modération des messages vocaux basé sur un algorithme d’intelligence artificielle qui scanne le contenu des chats de jeux en ligne. La société a annoncé un tour de financement de 30 millions de dollars en série A le 16 août. Le tour est dirigé par Lakestar et complété par Hyperplane Ventures, Everblue et Galaxy.

Comprendre le contenu et le contexte


	Comprendre le contenu et le contexte

&#xD ;

&#xD ;

La solution d’IA in Moderate, ToxMod, est entraînée sur dix millions d’heures de contenu audio. Il est dédié à la détection des expressions violentes, inappropriées, pédophiles, de radicalisation et suicidaires.