Páginas

18 de fev. de 2023

A última vez que a Microsoft lançou uma IA, ela perdeu o controle e teve de matá-la




TB, 17/02/2023 



Por Noor Al-Sibai 



Seria bom se a Microsoft repetisse essa parte de sua história de IA

Ah! Deixa quieto

Com o novo Bing AI da Microsoft e outros softwares de inteligência artificial se tornando a maior notícia de 2023 até agora, é fácil esquecer que os chatbots AI já existem há muito tempo – e o antigo modelo da Microsoft, Tay, é literalmente o algoritmo que saiu do controle.

Era março de 2016, quando a presidência de Donald Trump ainda parecia impossível e o conceito de uma pandemia global causando o confinamento da sociedade ainda parecia ficção científica. No final daquele mês, a Microsoft revelou "Tay", abreviação de "pensando em você", como um chatbot do Twitter com voz jovem sob o nome de usuário @Tayandyou.

A lenda de Tay segue um padrão agora familiar e foi de fato um dos exemplos arquetípicos de uma empresa perdendo o controle da IA ​​de ponta. Como o chatbot interagia abertamente com os usuários do Twitter, os trolls conseguiram manipulá-lo para espalhar fanatismo em velocidade recorde. Apenas 16 horas após seu lançamento, a Microsoft teve que desligar Tay, embora sua história viva na infâmia:

"Tay" passou de "humanos são super legais" para nazista completo em <24 horas e não estou nem um pouco preocupado com o futuro da IA ​​pic.twitter.com/xuGi1u9S1A

— gerry (@geraldmellor) 24 de março de 2016

De novo não

Comparados aos chatbots de IA de hoje, os tuitets de Tay são basicamente pinturas em cavernas. Mas talvez a maior diferença entre Tay e Bing Chat – ou Sydney, dependendo para quem você pergunta – o mais recente modelo de linguagem expansivo da empresa, que já ganhou muitas manchetes sobre o quão bizarras são suas respostas, esteja mais na resposta da Microsoft do que nos recursos da tecnologia.

Para ser claro, Bing/Sydney ainda não parece ter se tornado um admirador de Hitler completo, mas em sua vida de uma semana, já provou que pode vomitar uma gama de calúnias étnicas, ameaçar usuários e agir de forma errática. Não é difícil imaginar que, se a Microsoft não estivesse tão ansiosa para mergulhar no mercado de IA, também teria descartado essa IA.

Por alguma razão, no entanto, Bing ainda está vivo e ainda se comportando de maneira muito, muito estranha – e por pior que Tay tenha se tornado, pelo menos ela foi sacrificada rapidamente.

Artigos recomendados: Microsoft e IoT


Fonte:https://futurism.com/the-byte/microsoft-bing-tay-bigotry

Nenhum comentário:

Postar um comentário