15 de out. de 2024

Modelo de aprendizado multitarefa aprimora a identificação de "discurso de ódio"





TX, 14/10/2024 



Pesquisadores desenvolveram uma nova maneira de detectar automaticamente o discurso de ódio nas plataformas de mídia social de forma mais precisa e consistente, utilizando um novo modelo de aprendizado multitarefa (MTL); um tipo de modelo de aprendizado de máquina que trabalha com vários conjuntos de dados.

A disseminação de discurso de ódio abusivo online pode aprofundar divisões políticas, marginalizar grupos vulneráveis, enfraquecer a democracia e causar danos no mundo real, incluindo um aumento no risco de terrorismo doméstico.

O professor associado Marian-Andrei Rizoiu, chefe do Laboratório de Ciência de Dados Comportamentais da Universidade de Tecnologia de Sydney (UTS), está na linha de frente no combate à desinformação online e ao discurso de ódio. Sua pesquisa interdisciplinar combina ciências da computação e ciências sociais para entender e prever melhor a atenção humana no ambiente online, incluindo os tipos de discurso que influenciam e polarizam opiniões nos canais digitais.

"À medida que as mídias sociais se tornam uma parte significativa de nossas vidas diárias, a identificação automática de conteúdo odioso e abusivo é vital para combater a disseminação de conteúdo prejudicial e prevenir seus efeitos danosos", disse o professor associado Rizoiu.

"Projetar uma detecção automática eficaz de discurso de ódio é um grande desafio. Os modelos atuais não são muito eficazes em identificar todos os diferentes tipos de discurso de ódio, incluindo racismo, sexismo, assédio, incitação à violência e extremismo.

"Isto ocorre porque os modelos atuais são treinados em apenas uma parte de um conjunto de dados e testados no mesmo conjunto. Isso significa que, quando são confrontados com dados novos ou diferentes, eles podem ter dificuldades e não apresentam um desempenho consistente."

O professor associado Rizoiu descreve o novo modelo no artigo, "Generalizando a Detecção de Discurso de Ódio Usando Aprendizado Multitarefa: Um Estudo de Caso com Figuras Públicas Políticas", publicado na revista Computer Speech & Language, com coautoria da doutoranda da UTS Lanqin Yuan.

Um modelo de aprendizado multitarefa é capaz de realizar várias tarefas ao mesmo tempo e compartilhar informações entre conjuntos de dados. Neste caso, ele foi treinado em oito conjuntos de dados de discurso de ódio de plataformas como Twitter (agora X), Reddit, Gab e o fórum neonazista Stormfront.

O modelo MTL foi então testado em um conjunto de dados único de 300.000 tuítes de 15 figuras públicas americanas — como ex-presidentes, políticos conservadores, teóricos da conspiração de extrema direita, comentaristas de mídia (independentes) e representantes de esquerda percebidos como muito progressistas.

A análise revelou que tweets abusivos e cheios de ódio, frequentemente com misoginia e islamofobia, originam-se principalmente de indivíduos de direita. Especificamente, de 5.299 postagens abusivas, 5.093 foram geradas por figuras de direita.

"O discurso de ódio não é facilmente quantificável como um conceito. Ele está em um continuum com discurso ofensivo e outros conteúdos abusivos, como bullying e assédio", disse Rizoiu.

As Nações Unidas definem o discurso de ódio como "qualquer tipo de comunicação em fala, escrita ou comportamento que ataque ou use linguagem pejorativa ou discriminatória em relação a uma pessoa ou grupo com base em quem eles são", incluindo sua religião, raça, gênero ou outro fator de identidade.

O modelo MTL foi capaz de separar discurso abusivo de discurso de ódio e identificar tópicos específicos, como Islã, mulheres, etnia e imigrantes.

Artigos recomendados: Algorítmo e Vigilância


Fonte:https://techxplore.com/news/2024-10-multi-task-speech-identification.html 

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...