Verge, 30/08/2023
Por Monica Chin
A tecnologia, fornecida pela Modulate, irá verificar as conversas em busca de falas que violem o código de conduta do jogo.
Jogos de tiro em primeira pessoa como Call of Duty são famosos pela toxicidade de seus lobbies e chats de voz. As pesquisas classificaram a base de fãs da franquia como a mais negativa em todos os jogos; uma rivalidade entre dois jogadores certa vez resultou na convocação de uma equipe da SWAT. A Activision vem tentando reprimir esse comportamento há anos, e parte da solução pode envolver inteligência artificial.
A Activision fez parceria com uma empresa chamada Modulate para trazer “moderação de chat de voz no jogo” para seus títulos. O novo sistema de moderação, usando uma tecnologia de IA chamada ToxMod, funcionará para identificar comportamentos como discurso de ódio, discriminação e assédio em tempo real.
O lançamento beta inicial do ToxMod na América do Norte começa hoje. Está ativo em Call of Duty: Modern Warfare II e Call of Duty: Warzone. Um “lançamento mundial completo” (não inclui a Ásia, observa o comunicado à imprensa) seguirá em 10 de novembro com o lançamento de Call of Duty: Modern Warfare III, a nova sequência para este ano da franquia.
O comunicado de imprensa do Modulate não inclui muitos detalhes sobre como exatamente o ToxMod funciona. Seu site observa que a ferramenta “faz a triagem do chat de voz para sinalizar mau comportamento, analisa as nuances de cada conversa para determinar a toxicidade e permite que os moderadores respondam rapidamente a cada incidente, fornecendo um contexto relevante e preciso”. O CEO da empresa disse em entrevista recente que a ferramenta pretende ir além da mera transcrição; leva também fatores como as emoções e o volume do jogador ao contexto para diferenciar declarações prejudiciais de declarações divertidas.
Vale ressaltar que a ferramenta (pelo menos por enquanto) não irá de fato tomar medidas contra os jogadores com base em seus dados, mas apenas enviará relatórios aos moderadores da Activision. O envolvimento humano continuará provavelmente a ser uma salvaguarda importante, uma vez que a investigação demonstrou que os sistemas de reconhecimento de voz podem apresentar preconceitos na forma como respondem a utilizadores com diferentes identidades raciais e sotaques.
Artigos recomendados: Microsoft e Doutrinação
Nenhum comentário:
Postar um comentário