24 de jan. de 2024

Conselho de Supervisão da Meta expressa preocupação pela ineficiência da censura automatizada por IA




EDT, 23/01/2024 



Por Kris Holt 



A decisão automática da empresa de rejeitar um recurso, após não remover uma postagem de negação do Holocausto no Instagram, levantou preocupações no Conselho de Supervisão do Meta.

O Conselho de Supervisão do Meta expressou preocupações sobre a moderação automatizada, ao anular a decisão da empresa de manter uma postagem de negação do Holocausto no Instagram. A negação do Holocausto é considerada discurso de ódio de acordo com as políticas do Meta. A postagem em questão retratava Squidward, de Bob Esponja, e alegava conter fatos verdadeiros sobre o Holocausto. No entanto, o Conselho de Supervisão afirmou que as alegações "eram flagrantemente falsas ou distorciam fatos históricos".

Usuários denunciaram a postagem seis vezes depois de ela ter aparecido pela primeira vez em setembro de 2020, mas em quatro instâncias, os sistemas do Meta determinaram que o conteúdo não violava as regras ou fecharam automaticamente o caso. No início de 2020, conforme a pandemia de COVID-19 se intensificava, o Meta começou a fechar automaticamente revisões de conteúdo para aliviar a carga de trabalho dos revisores humanos, e liberar largura de banda para a revisão manual de relatórios de alto risco. Mesmo assim, dois relatórios da postagem do Squidward também foram considerados não violatórios por revisores humanos.

Em maio passado, um usuário apelou contra a decisão do Meta de deixar o conteúdo ofensivo no Instagram. No entanto, esse apelo foi novamente encerrado automaticamente pelo Meta devido às políticas de automação relacionadas à COVID-19, de acordo com o Conselho de Supervisão. O usuário então apelou para o conselho, que assumiu o caso.

O conselho conduziu uma avaliação do conteúdo de negação do Holocausto em todas as plataformas do Meta, e constatou que o meme do Squidward era usado para disseminar vários tipos de narrativas antissemitas. Ele observa que alguns usuários tentam evitar a detecção, e continuam a espalhar conteúdo de negação do Holocausto usando grafias alternativas de palavras (substituindo letras por símbolos) e utilizando desenhos animados e memes.

O Conselho de Supervisão afirmou estar preocupado com o fato de o Meta continuar a aplicar suas políticas de automação relacionadas à COVID-19 até maio passado, "muito tempo após as circunstâncias justificarem razoavelmente". Também expressou inquietação sobre "a eficácia e precisão dos sistemas de moderação do Meta na remoção de conteúdo de negação do Holocausto de suas plataformas". Destacou que revisores humanos não conseguem rotular de maneira granular o conteúdo ofensivo como "negação do Holocausto" (tais postagens são filtradas como "discurso de ódio"). O conselho também deseja saber mais sobre a capacidade da empresa de "priorizar a aplicação precisa de discurso de ódio em um nível de política granular", à medida que confia mais na IA para a moderação de conteúdo.

O conselho recomendou que o Meta "adote medidas técnicas" para garantir que mensure sistematicamente e de forma suficiente a precisão na aplicação de conteúdo de negação do Holocausto. Isso inclui a coleta de informações mais granulares. O conselho também pediu ao Meta que confirme publicamente se encerrou todas as políticas de automação relacionadas à COVID-19 estabelecidas durante o início da pandemia.

Ao ser solicitado a comentar, o Meta direcionou o Engadget para sua resposta formal à decisão do conselho em seu site de transparência. A empresa concorda que deixou a postagem ofensiva no Instagram por engano e, no momento em que o conselho assumiu o caso, o Meta afirmou ter removido o conteúdo. Após a decisão do conselho, o Meta diz que "iniciará uma revisão de conteúdo idêntico com contexto paralelo. Se determinarmos que temos a capacidade técnica e operacional de agir sobre esse conteúdo também, o faremos prontamente." Ele planeja revisar outras recomendações do conselho e emitir uma atualização posteriormente.

Artigos recomendados: Meta e Vigilante


Fonte:https://www.engadget.com/metas-oversight-board-raises-concerns-over-automated-moderation-of-hate-speech-154359848.html 

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...