Páginas

8 de dez. de 2023

Pesquisadores desenvolvem método que aumenta desempenho de censura em plataformas ao vivo




TX, 07/12/2023 



Twitch. Alguns o veem como uma divertida comunidade online de jogadores e fãs bem-humorados de esportes eletrônicos. Para outros, é um fluxo perigoso de conteúdo potencialmente tóxico e discurso de ódio.

No cenário em constante evolução da comunicação digital, a natureza em tempo real das mensagens em plataformas de transmissão ao vivo como Twitch e YouTube Live traz consigo desafios únicos para a moderação de conteúdo. Atualmente, faltam ferramentas eficazes para moderar conteúdo em transmissões ao vivo, porque os modelos existentes foram treinados em plataformas de mídia social que não funcionam em tempo real, como Facebook ou Twitter.

O assistente de pesquisa Dong-Ho Lee e o cientista principal Jay Pujara, ambos do Instituto de Ciências da Informação (ISI) da USC Viterbi, decidiram mudar isso. Eles desenvolveram um método inovador que aumenta em 35% o desempenho dos modelos de moderação em plataformas ao vivo.

Entrando em sincronia

Pujara disse: "Se eu postar algo no Twitter ou Reddit, alguém pode responder horas ou dias depois. Mas se olharmos para o Twitch, é um ambiente muito diferente. As pessoas enviam mensagens a cada segundo."

Tudo se resume ao tempo. Twitter, Facebook e Reddit são assíncronos – onde os usuários postam suas ideias, mas as respostas não são imediatas. Por outro lado, Twitch, YouTube Live e outras plataformas de transmissão ao vivo são síncronas – o que equivale a estar em uma conversa ao vivo.

Em conversas em plataformas assíncronas, os pensamentos são normalmente agrupados em uma estrutura de threads que permite o contexto conversacional. E os usuários não têm restrições de tempo, então podem comentar com respostas mais bem pensadas. Já nas plataformas síncronas, os pensamentos são apresentados em tempo real, de forma consecutiva, sem estrutura que indique o contexto. A natureza acelerada incentiva respostas rápidas e vários comentários curtos.

Uma abordagem inédita

Vendo essa lacuna na pesquisa, Lee e Pujara conduziram o primeiro estudo de PNL para detectar violações de normas em chats de transmissão ao vivo.

Violações de normas” referem-se a casos em que os usuários em plataformas online violam as regras ou diretrizes estabelecidas para um comportamento aceitável. Pujara explicou: "Normalmente, haverá um conjunto de regras que serão publicadas quando você entrar [em uma transmissão ao vivo], e há moderadores que estão tentando descobrir se as pessoas estão violando essas regras. Você está assediando alguém? Você está tentando mudar de assunto? Você está enviando mensagens de spam?"

A equipe de autores, incluindo ISI Ph.D. os alunos Justin Cho e Woojeong Jin, e Jonathan May, professor associado de pesquisa do Departamento de Ciência da Computação da USC Viterbi Thomas Lord, usaram um conjunto de dados de 4.583 comentários que violam as normas no Twitch, moderados por moderadores humanos do canal.

Eles reuniram regras de bate-papo de cada streamer do Twitch, realizaram reuniões iterativas para categorizar os tipos de violações das normas, e gerenciaram anotadores na rotulagem de várias sessões de transmissão ao vivo para analisar as violações das normas no Twitch”, disse Lee, que continuou: “Isso envolveu um esforço conjunto significativo entre vários parceiros da indústria e instituições acadêmicas para o primeiro estudo de violações de normas em bate-papo ao vivo."

Traga os humanos… e os detalhes

Pujara disse: "Uma coisa interessante sobre a maneira como fizemos isso é que, para obter o rótulo dos dados, fizemos crowdsourcing. Pedimos a humanos que os rotulassem e então esses humanos obteriam basicamente três níveis de detalhe. Então, estávamos dando a eles progressivamente mais informações para poder avaliar o que está acontecendo."

Que tipo de detalhes foram fornecidos? A equipe projetou um processo que determinaria o impacto dos diversos níveis de contexto em torno do comentário moderado. Por exemplo, o histórico do bate-papo teve algum impacto – seja a última mensagem do comentarista antes do conteúdo moderado ou o bate-papo mais amplo próximo ao momento do comentário moderado? O que estava acontecendo no vídeo quando o comentário foi postado? E houve algum conhecimento externo relacionado ao conteúdo específico do comentário (ou seja, determinados emojis ou gírias dentro do canal).

O contexto é crucial

Acontece que, quando se trata de moderar transmissões ao vivo, o contexto conta.

Pujara explica: "Você pode melhorar a qualidade da moderação usando diferentes quantidades de informações. E assim, se estiver projetando um sistema de moderação automatizado para Twitch, você realmente precisa pensar sobre qual é o contexto certo para interpretar o que as pessoas estão ditando."

A equipe utilizou essas informações, identificou o contexto informativo que melhor ajudou os moderadores humanos e treinou modelos para identificar violações das normas, aproveitando essas informações contextuais. Os resultados mostraram que as informações contextuais podem aumentar o desempenho da moderação do modelo em 35%.

Artigos recomendados: Jogos e 2025


Fonte:https://techxplore.com/news/2023-12-method-boosts-moderation-platforms.html 

Nenhum comentário:

Postar um comentário