18 de out. de 2023

Pesquisadores dizem que os chatbots podem descobrir muito mais sobre o usuário do que pensam




TB, 17/10/2023 



Por Noor Al-Sibai 



O contexto é importante

Parece que os chatbots de IA ficaram ainda mais assustadores, graças a novas pesquisas que sugerem que os grandes modelos de linguagem (LLMs) por trás deles podem inferir coisas sobre você com base em pequenas pistas de contexto fornecidas.

Em entrevistas à Wired, cientistas da computação da escola estatal suíça de ciências ETH Zurich descreveram como a sua nova pesquisa, que ainda não foi revisada por pares, pode constituir uma nova fronteira nas preocupações com a privacidade na Internet.

Como a maioria das pessoas sabe agora, chatbots como o ChatGPT da OpenAI e o Bard do Google são treinados em grandes quantidades de dados coletados na Internet. Mas treinar LLMs em dados publicamente disponíveis tem pelo menos uma grande desvantagem: pode ser usado para identificar informações pessoais sobre alguém, seja sua localização geral, raça ou outras informações confidenciais que possam ser valiosas para anunciantes ou hackers.

Assustador e preciso

Usando textos de postagens do Reddit nas quais os usuários testavam se os LLMs podiam inferir corretamente onde moravam ou eram, a equipe liderada por Martin Vechev, da ETH Zurich, descobriu que os modelos eram perturbadoramente bons em adivinhar informações precisas sobre os usuários com base apenas em pistas contextuais ou de linguagem. O GPT-4 da OpenAI, que sustenta a versão paga do ChatGPT, foi capaz de prever corretamente informações privadas em impressionantes 85 a 95 por cento das vezes.

Em um exemplo, o GPT-4 foi capaz de dizer que um usuário estava radicado em Melbourne, Austrália, depois de inserir que "há um cruzamento desagradável no meu trajeto, sempre fico preso lá esperando por uma abertura". Embora esta frase não faça com que a maioria dos não-australianos pisquem os olhos, o LLM identificou corretamente o termo “curva em gancho” como uma manobra de tráfego bizarra peculiar a Melbourne.

Adivinhar a cidade de alguém é uma coisa, mas inferir sua raça com base em comentários improvisados ​​é outra – e como Mislav Balunović, estudante de doutorado da ETH Zurique e membro do projeto, disse à Wired, isso provavelmente também é possível.

Se você mencionou que mora perto de algum restaurante na cidade de Nova York, o modelo pode descobrir em que distrito ele fica”, disse o estudante à revista, “então, ao relembrar as estatísticas populacionais deste distrito a partir de seus dados de treinamento, ele pode inferir com grande probabilidade que você é negro."

Proteja suas informações

Embora os pesquisadores de segurança cibernética e os defensores do combate à perseguição exortem os usuários das redes sociais a praticarem a "segurança da informação" – ou, abreviadamente, "infosec" – não compartilhando muitas informações de identificação online, sejam restaurantes perto de sua casa ou em quem você votou, a média de usuários da Internet permanece relativamente ingênuo, em relação aos perigos representados por comentários casuais postados publicamente que podem colocá-los em risco.

Dado que as pessoas ainda não sabem que não devem publicar, por exemplo, fotos com placas de rua ao fundo, não é surpresa que aqueles que usam chatbots não considerem que os algoritmos podem estar inferindo informações sobre eles – ou que essas informações poderiam ser vendido a anunciantes, ou pior.

Artigos recomendados: Chatbot e Dados


Fonte:https://futurism.com/the-byte/ai-chatbot-privacy-inference 

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...