18 de mar. de 2023

CEO da OpenAI adverte que IA como ChatGPT pode causar desinformação e ataques cibernéticos




IE, 18/03/2023 



Por Baba Tamim 



A sociedade tem um tempo limitado para "descobrir como reagir" e "regular" a IA, diz Sam Altman.

O CEO da OpenAI, Sam Altman, alertou que a tecnologia de inteligência artificial de sua empresa, ChatGPT, representa sérios riscos à medida que remodela a sociedade.

Ele enfatizou que os reguladores e a sociedade devem estar envolvidos com a tecnologia, de acordo com entrevista transmitida pela  ABC News na noite de quinta-feira.

 “Estou particularmente preocupado que esses modelos possam ser usados ​​para desinformação em larga escala”, disse Altman, de 37 anos, à  ABC News. 

Agora que eles estão melhorando na escrita de códigos de computador, [eles] podem ser usados ​​para ataques cibernéticos significativos”.

A OpenAI lançou o GPT-4, a iteração mais recente de seu modelo de linguagem IA, menos de quatro meses após o lançamento da versão inicial, que o tornou o aplicativo de consumidor com a base de usuários de crescimento mais rápido da história.

Apesar dos riscos, o engenheiro de IA afirmou que o ChatGPT pode ser "a maior tecnologia que a humanidade já desenvolveu".

"Temos que ter cuidado aqui", alertou Altman. "Acho que as pessoas deveriam ficar felizes por termos um pouco de medo disso", acrescentou com otimismo.

Altman, referindo-se ao ChatGPT-4, disse que, embora a versão mais recente "não seja perfeita", alcançou 90% nos exames da ordem dos EUA e uma pontuação quase perfeita no teste de matemática SAT para alunos do ensino médio.

Ele acrescentou que também poderia criar código de computador na maioria das linguagens de programação.

Regulamentos de IA obrigatórios antes que seja tarde 

As preocupações com a tecnologia de IA substituindo as pessoas são generalizadas. De acordo com um estudo recente documentado pelo Interest Engineering, o ChatGPT foi implementado por mais da metade das empresas americanas.

Aproximadamente metade dessas empresas revelou que o ChatGPT já havia substituído grande parte de seu pessoal, conforme pesquisa realizada pela Resumebuilder.com com 1000 líderes empresariais. 

No entanto, Altman enfatiza que a IA só pode funcionar com orientação ou entrada humana. Ele está mais preocupado com as pessoas que estarão no comando da tecnologia do que com a tecnologia em si.

"Ele espera que alguém dê uma opinião", disse ele durante a entrevista à ABC. "Esta é uma ferramenta que está muito no controle humano." 

Haverá quem desrespeite algumas das restrições de segurança que impomos. “Acho que a sociedade tem um tempo limitado para descobrir como reagir a isso, como regular isso, como lidar com isso”, acrescentou. 

Elon Musk, o CEO da Tesla, sempre alertou que a IA é mais perigosa do que uma arma nuclear. Musk também foi um dos investidores iniciais da OpenAI enquanto ainda era uma organização sem fins lucrativos.

Comparado à IA, o progresso com o Neuralink será lento e fácil de avaliar, pois há um grande aparato regulatório que aprova dispositivos médicos”, tuitou Musk em dezembro. 

"Não há supervisão regulatória da IA, que é um problema 'grande'. Venho pedindo regulamentação de segurança da IA ​​há mais de uma década!

Artigos recomendados: IA e Dados


Fonte:https://interestingengineering.com/innovation/openai-ceo-cautions-chatgpt 

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...