Páginas

31 de ago. de 2023

O multiplayer de Call of Duty usará IA politicamente correta para "moderar" (censurar) chats de voz




Verge, 30/08/2023 



Por Monica Chin 



A tecnologia, fornecida pela Modulate, irá verificar as conversas em busca de falas que violem o código de conduta do jogo.

Jogos de tiro em primeira pessoa como Call of Duty são famosos pela toxicidade de seus lobbies e chats de voz. As pesquisas classificaram a base de fãs da franquia como a mais negativa em todos os jogos; uma rivalidade entre dois jogadores certa vez resultou na convocação de uma equipe da SWAT. A Activision vem tentando reprimir esse comportamento há anos, e parte da solução pode envolver inteligência artificial.

A Activision fez parceria com uma empresa chamada Modulate para trazer “moderação de chat de voz no jogo” para seus títulos. O novo sistema de moderação, usando uma tecnologia de IA chamada ToxMod, funcionará para identificar comportamentos como discurso de ódio, discriminação e assédio em tempo real.

O lançamento beta inicial do ToxMod na América do Norte começa hoje. Está ativo em Call of Duty: Modern Warfare II e Call of Duty: Warzone. Um “lançamento mundial completo” (não inclui a Ásia, observa o comunicado à imprensa) seguirá em 10 de novembro com o lançamento de Call of Duty: Modern Warfare III, a nova sequência para este ano da franquia.

O comunicado de imprensa do Modulate não inclui muitos detalhes sobre como exatamente o ToxMod funciona. Seu site observa que a ferramenta “faz a triagem do chat de voz para sinalizar mau comportamento, analisa as nuances de cada conversa para determinar a toxicidade e permite que os moderadores respondam rapidamente a cada incidente, fornecendo um contexto relevante e preciso”. O CEO da empresa disse em entrevista recente que a ferramenta pretende ir além da mera transcrição; leva também fatores como as emoções e o volume do jogador ao contexto para diferenciar declarações prejudiciais de declarações divertidas.

Vale ressaltar que a ferramenta (pelo menos por enquanto) não irá de fato tomar medidas contra os jogadores com base em seus dados, mas apenas enviará relatórios aos moderadores da Activision. O envolvimento humano continuará provavelmente a ser uma salvaguarda importante, uma vez que a investigação demonstrou que os sistemas de reconhecimento de voz podem apresentar preconceitos na forma como respondem a utilizadores com diferentes identidades raciais e sotaques.

Artigos recomendados: Microsoft e Doutrinação


Fonte:https://www.theverge.com/2023/8/30/23852652/call-of-duty-activision-modulate-toxmod-artificial-intelligence-voice-moderation 

Nenhum comentário:

Postar um comentário