RTN, 25/05/2023
Por Cindy Harper
A Big Tech quer que os desenvolvedores a integrem em suas plataformas.
A Microsoft lançou uma nova ferramenta de censura alimentada por IA para detectar conteúdo impróprio em textos e imagens. Batizada de "Segurança de Conteúdo do Azure", a ferramenta foi treinada para entender diferentes idiomas, inglês, francês, espanhol, italiano, português, chinês e japonês.
A ferramenta dá ao conteúdo sinalizado uma pontuação de gravidade de um a cem, o que ajudará os moderadores a saber qual conteúdo abordar.
Durante uma demonstração na conferência Build da Microsoft, a chefe de IA responsável da Microsoft, Sarah Bird, explicou que o Azure AI Content Safety é uma versão comercializada do sistema que alimenta o chatbot Bing e o gerador de código alimentado por IA Copilot do Github. Os preços das novas ferramentas começam em US$ 0,75 para 1.000 textos e US$ 1,5 para 1.000 imagens.
O objetivo da ferramenta é dar aos desenvolvedores a capacidade de introduzi-la em suas plataformas.
"Agora estamos lançando como um produto que clientes terceirizados podem usar", disse Bird em um comunicado.
Em um comunicado ao TechCrunch, um porta-voz da Microsoft disse: "A Microsoft tem trabalhado em soluções em resposta ao desafio de conteúdo prejudicial aparecer em comunidades online há mais de dois anos. Reconhecemos que os sistemas existentes não estavam efetivamente levando em conta o contexto ou eram capazes de trabalhar em vários idiomas".
"Novos modelos [de IA] são capazes de entender muito melhor o conteúdo e o contexto cultural. São multilingues desde o início... e fornecem explicações claras e compreensíveis, permitindo que os usuários entendam por que o conteúdo foi sinalizado ou removido."
A Microsoft afirma que a nova ferramenta foi treinada para entender o contexto.
Fonte:https://reclaimthenet.org/microsoft-unveils-new-censorship-tool
Nenhum comentário:
Postar um comentário