TX, 30/03/2024
A OpenAI revelou na sexta-feira uma ferramenta de clonagem de voz que planeja manter estritamente controlada, até que medidas de segurança estejam em vigor para impedir falsificações de áudio destinadas a enganar os ouvintes.
Um modelo chamado "Voice Engine" pode essencialmente duplicar a fala de alguém com base em uma amostra de áudio de 15 segundos, de acordo com uma postagem no blog da OpenAI compartilhando resultados de um teste em pequena escala da ferramenta.
"Reconhecemos que gerar fala que se assemelha à voz das pessoas tem sérios riscos, que estão especialmente em foco em um ano eleitoral", disse a empresa sediada em São Francisco.
"Estamos interagindo com parceiros dos EUA e internacionais de diversos setores, incluindo governo, mídia, entretenimento, educação, sociedade civil e outros, para garantir que estejamos incorporando seus comentários enquanto construímos."
Pesquisadores de desinformação temem o uso desenfreado de aplicativos alimentados por IA em um ano eleitoral crucial, graças à proliferação de ferramentas de clonagem de voz, que são baratas, fáceis de usar e difíceis de rastrear.
Reconhecendo esses problemas, a OpenAI disse que estava "adotando uma abordagem cautelosa e informada para um lançamento mais amplo devido ao potencial de uso indevido da voz sintética."
A revelação cautelosa ocorreu alguns meses depois que um consultor político trabalhando na campanha presidencial de um concorrente democrata de Joe Biden, admitiu estar por trás de uma chamada robô que imitava o líder dos EUA.
A chamada gerada por IA, idealizada por um operador do congressista de Minnesota, Dean Phillips, apresentava o que parecia ser a voz de Biden pedindo às pessoas que não votassem na primária de New Hampshire de janeiro.
O incidente causou alarme entre os especialistas, que temem uma enxurrada de desinformação alimentada por deepfakes de IA na corrida presidencial de 2024, bem como em outras eleições-chave ao redor do mundo este ano.
A OpenAI disse que os parceiros que testam o Voice Engine concordaram com regras, incluindo a exigência de consentimento explícito e informado de qualquer pessoa cuja voz seja duplicada usando a ferramenta.
Também deve ficar claro para o público quando as vozes que estão ouvindo são geradas por IA, acrescentou a empresa.
"Implementamos um conjunto de medidas de segurança, incluindo marca d'água para rastrear a origem de qualquer áudio gerado pelo Voice Engine, bem como monitoramento proativo de como está sendo usado", disse a OpenAI.
Artigos recomendados: Deepfake e OpenAI
Fonte:https://techxplore.com/news/2024-03-openai-unveils-voice-cloning-tool.html
Nenhum comentário:
Postar um comentário