EDT, 13/01/2024
Por Mariella Moon
A empresa alterou o texto de sua página de políticas de uso.
Apenas alguns dias atrás, a página de políticas de uso da OpenAI afirma explicitamente que a empresa proíbe o uso de sua tecnologia para fins “militares e de guerra”. Essa linha já foi excluída. Conforme notado pela primeira vez pelo The Intercept, a empresa atualizou a página em 10 de janeiro “para ser mais clara e fornecer orientações mais específicas do serviço”, conforme afirma o changelog. Ainda proíbe a utilização dos seus grandes modelos de linguagem (LLMs) para qualquer coisa que possa causar danos e alerta as pessoas contra a utilização dos seus serviços para “desenvolver ou utilizar armas”. No entanto, a empresa removeu a linguagem relativa a “militares e guerra”.
Embora ainda não tenhamos visto as suas implicações na vida real, esta mudança na redação ocorre no momento em que agências militares em todo o mundo mostram interesse em usar a IA. “Dado o uso de sistemas de IA para atingir civis em Gaza, é um momento notável para tomar a decisão de remover as palavras ‘militar e de guerra’ da política de uso permitido da OpenAI”, disse Sarah Myers West, diretora administrativa da AI Now Instituto, à publicação.
A menção explícita de “militar e de guerra” na lista de usos proibidos indicava que a OpenAI não poderia trabalhar com agências governamentais como o Departamento de Defesa, que normalmente oferece negócios lucrativos a empreiteiros. No momento, a empresa não possui um produto que possa matar ou causar danos físicos diretamente a ninguém. Mas, como disse o The Intercept, sua tecnologia poderia ser usada para tarefas como escrever códigos e processar pedidos de aquisição de coisas que poderiam ser usadas para matar pessoas.
Quando questionado sobre a mudança na redação de sua política, o porta-voz da OpenAI, Niko Felix, disse à publicação que a empresa “pretendia criar um conjunto de princípios universais que fossem fáceis de lembrar e aplicar, especialmente porque nossas ferramentas agora são usadas globalmente por usuários comuns que agora também pode construir GPTs." Felix explicou que “um princípio como ‘Não prejudique os outros’ é amplo, mas facilmente compreendido e relevante em vários contextos”, acrescentando que a OpenAI “citou especificamente armas e ferimentos a terceiros como exemplos claros”. No entanto, o porta-voz recusou-se a esclarecer se a proibição do uso da sua tecnologia para “prejudicar” outros incluía todos os tipos de uso militar fora do desenvolvimento de armas.
Artigos recomendados: Tech e Militar
Nenhum comentário:
Postar um comentário