14 de set. de 2024

A versão mais recente do ChatGPT tem um recurso que você vai adorar — e isso é preocupante




TX, 12/09/2024 


Por Rob Brooks 



Se você é um assinante pago do ChatGPT, pode ter notado que o modelo de linguagem de inteligência artificial (IA) recentemente começou a soar mais humano quando você tem interações de áudio com ele.

Isso acontece porque a empresa por trás do modelo de linguagem, a OpenAI, está atualmente realizando um piloto limitado de um novo recurso conhecido como "modo de voz avançado".

A OpenAI diz que esse novo modo "apresenta conversas mais naturais e em tempo real, que captam e respondem com emoção e sinais não verbais". A empresa planeja disponibilizar o modo de voz avançado para todos os assinantes pagos do ChatGPT nos próximos meses.

O modo de voz avançado soa surpreendentemente humano. Não há as pausas desconfortáveis a que estamos acostumados com assistentes de voz; em vez disso, ele parece respirar como um humano faria. Também não se abala com interrupções, transmite sinais emocionais adequados e parece inferir o estado emocional do usuário a partir dos sinais vocais.

Mas ao mesmo tempo em que torna o ChatGPT mais humano, a OpenAI expressou preocupação de que os usuários possam responder ao chatbot como se ele fosse humano — desenvolvendo um relacionamento íntimo com ele.

Isso não é hipotético. Por exemplo, uma influenciadora de mídia social chamada Lisa Li programou o ChatGPT para ser seu "namorado". Mas por que exatamente algumas pessoas desenvolvem relacionamentos íntimos com um chatbot?

A evolução da intimidade 

Os humanos têm uma capacidade notável para amizade e intimidade. Isso é uma extensão da forma como os primatas fisicamente se cuidam para construir alianças que podem ser acionadas em momentos de conflito.

Mas nossos ancestrais também evoluíram uma capacidade notável para "cuidar" uns dos outros verbalmente. Isso impulsionou o ciclo evolutivo no qual os centros de linguagem em nossos cérebros se tornaram maiores e o que fazíamos com a linguagem ficou mais complexo.

Uma linguagem mais complexa, por sua vez, possibilitou uma socialização mais complexa com redes maiores de parentes, amigos e aliados. Também ampliou as partes sociais de nossos cérebros.

A linguagem evoluiu ao lado do comportamento social humano. A maneira como transformamos uma conhecida em amiga ou uma amiga em uma relação íntima é em grande parte através da conversa.

Experimentos na década de 1990 revelaram que o diálogo de vai-e-vem, especialmente quando envolve a revelação de detalhes pessoais, cria a sensação íntima de que nossa parceira de conversa é de alguma forma parte de nós.

Por isso, não me surpreende que tentativas de replicar esse processo de "auto-revelação escalada" entre humanos e chatbots resultem em humanos se sentindo íntimos com os chatbots.

E isso apenas com entrada de texto. Quando a principal experiência sensorial da conversa — a voz — se envolve, o efeito é amplificado. Até mesmo assistentes baseados em voz que não soam humanos, como Siri e Alexa, ainda recebem uma avalanche de propostas de casamento.

O alerta estava no quadro negro do laboratório Se a OpenAI me perguntasse como garantir que os usuários não formem relacionamentos sociais com o ChatGPT, eu teria algumas recomendações simples.

Primeiro, não dê uma voz a ele. Segundo, não o torne capaz de sustentar uma conversa aparente. Basicamente, não faça o produto que você fez.

O produto é tão poderoso justamente porque faz um excelente trabalho em imitar os traços que usamos para formar relacionamentos sociais.

O alerta estava no quadro negro do laboratório desde que os primeiros chatbots surgiram há quase 60 anos. Computadores são reconhecidos como atores sociais há pelo menos 30 anos. O modo de voz avançado do ChatGPT é apenas o próximo incremento impressionante, não o que a indústria de tecnologia chamaria entusiasticamente de "game changer".

Que os usuários não apenas formem relacionamentos com chatbots, mas desenvolvam sentimentos pessoais muito próximos, ficou claro no início do ano passado, quando os usuários da plataforma de amigos virtuais Replika AI se viram inesperadamente cortados das funções mais avançadas de seus chatbots.

O Replika era menos avançado que a nova versão do ChatGPT. E, mesmo assim, as interações eram de tal qualidade que os usuários formaram vínculos surpreendentemente profundos.

Os riscos são reais

Muitas pessoas, carentes de companhia que escute de forma não-julgadora, vão aproveitar muito essa nova geração de chatbots. Elas podem se sentir menos solitárias e isoladas. Esses tipos de benefícios da tecnologia nunca podem ser ignorados.

Mas os perigos potenciais do modo de voz avançado do ChatGPT também são muito reais.

O tempo gasto conversando com qualquer bot é tempo que não pode ser gasto interagindo com amigos e familiares. E as pessoas que passam muito tempo com a tecnologia correm maior risco de substituir relacionamentos com outros humanos.

Como a OpenAI identifica, conversar com bots também pode contaminar os relacionamentos existentes que as pessoas têm com outras pessoas. Elas podem começar a esperar que seus parceiros ou amigos se comportem como chatbots educados, submissos e deferentes.

Esses maiores efeitos das máquinas na cultura vão se tornar mais proeminentes. Por outro lado, eles também podem fornecer percepções profundas sobre como a cultura funciona.

Artigos recomendados: Chatbot e AGI


Fonte:https://techxplore.com/news/2024-09-latest-version-chatgpt-feature-youll.html 

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...