VB, 04/02/2023
Por Louis Rosenberg
Quando os pesquisadores contemplam os riscos que a IA representa para a civilização humana, frequentemente fazemos referência ao “problema de controle”. Isso se refere à possibilidade de que uma superinteligência artificial possa surgir e seja tão mais inteligente que os humanos que rapidamente perdemos o controle sobre ela. O medo é que uma IA senciente com um intelecto sobre-humano possa perseguir objetivos e interesses conflitantes com os nossos, tornando-se um rival perigoso para a humanidade.
Embora essa seja uma preocupação válida contra a qual devemos trabalhar duro para nos proteger, é realmente a maior ameaça que a IA representa para a sociedade? Provavelmente não. Uma pesquisa recente com mais de 700 especialistas em IA descobriu que a maioria acredita que a inteligência de máquina em nível humano (HLMI) está a pelo menos 30 anos de distância.
Por outro lado, estou profundamente preocupado com um tipo diferente de problema de controle que já está ao nosso alcance e pode representar uma grande ameaça à sociedade, a menos que os formuladores de políticas tomem medidas rápidas. Estou me referindo à possibilidade crescente de que as tecnologias de IA atualmente disponíveis possam ser usadas para direcionar e manipular usuários individuais com extrema precisão e eficiência. Pior ainda, essa nova forma de manipulação personalizada pode ser implantada em grande escala por interesses corporativos, atores estatais ou mesmo déspotas desonestos para influenciar populações amplas.
O 'problema da manipulação'
Para contrastar essa ameaça com o problema de controle tradicional descrito acima, refiro-me a esse risco emergente de IA como o “Problema de manipulação”. É um perigo que venho rastreando há quase duas décadas, mas nos últimos 18 meses ele se transformou de um risco teórico de longo prazo em uma ameaça urgente de curto prazo.
Isso ocorre porque o mecanismo de implantação mais eficiente e eficaz para a manipulação humana orientada por IA é por meio da IA de conversação. E, no ano passado, uma notável tecnologia de IA chamada Large Language Models (LLMs) atingiu rapidamente um nível de maturidade. De repente, isso tornou as interações de conversação naturais entre usuários-alvo e software orientado por IA um meio viável de persuasão, coerção e manipulação.
É claro que as tecnologias de IA já estão sendo usadas para gerar campanhas de influência em plataformas de mídia social, mas isso é primitivo em comparação com o rumo que a tecnologia está tomando. Isso porque as campanhas atuais, embora descritas como “direcionadas”, são mais análogas a atirar chumbo grosso em bandos de pássaros. Essa tática direciona uma enxurrada de propaganda ou desinformação a grupos amplamente definidos na esperança de que algumas peças de influência penetrem na comunidade, ressoem entre seus membros e se espalhem pelas redes sociais.
Essa tática é extremamente perigosa e tem causado danos reais à sociedade, polarizando comunidades, espalhando falsidades e reduzindo a confiança em instituições "legítimas". Mas parecerá lento e ineficiente em comparação com a próxima geração de métodos de influência baseados em IA que estão prestes a ser lançados na sociedade.
Sistemas de IA em tempo real
Estou me referindo a sistemas de IA em tempo real projetados para engajar usuários-alvo em interações de conversação e perseguir habilmente metas de influência com precisão personalizada. Esses sistemas serão implantados usando termos eufemísticos como Publicidade Conversacional, Marketing Interativo, Porta-vozes Virtuais, Humanos Digitais ou simplesmente AI Chatbots [ChatGPT].
Mas como quer que os chamemos, esses sistemas têm vetores aterrorizantes para uso indevido e abuso. Não estou falando sobre o perigo óbvio de que consumidores desavisados possam confiar no resultado de chatbots que foram treinados em dados crivados de erros e vieses. Não, estou falando de algo muito mais nefasto – a manipulação deliberada de indivíduos por meio da implantação direcionada de sistemas de IA de conversação orientados por agenda que convencem os usuários por meio de um diálogo interativo convincente.
Em vez de disparar chumbo grosso em populações amplas, esses novos métodos de IA funcionarão mais como “mísseis de busca de calor” que marcam os usuários como alvos individuais e adaptam suas táticas de conversação em tempo real, ajustando-se a cada indivíduo pessoalmente enquanto trabalham para maximizar seu impacto persuasivo.
No centro dessas táticas está a tecnologia relativamente nova dos LLMs, que pode produzir um diálogo humano interativo em tempo real, ao mesmo tempo em que acompanha o fluxo e o contexto da conversa. Conforme popularizado pelo lançamento do ChatGPT em 2022, esses sistemas de IA são treinados em conjuntos de dados tão massivos que não são apenas hábeis em emular a linguagem humana, mas também possuem vastos estoques de conhecimento factual, podem fazer inferências lógicas impressionantes e fornecer a ilusão de senso comum humano.
Quando combinadas com geração de voz em tempo real, essas tecnologias permitirão interações faladas naturais entre humanos e máquinas que são altamente convincentes, aparentemente racionais e surpreendentemente autoritárias.
Surgimento de humanos digitais
Claro, não estaremos interagindo com vozes desencarnadas, mas com personas geradas por IA que são visualmente realistas. Isso me leva à segunda tecnologia de avanço rápido que contribuirá para o problema de manipulação de IA: humanos digitais. Este é o ramo do software de computador destinado a implantar pessoas simuladas fotorrealistas que parecem, soam, se movem e fazem expressões tão autênticas que podem se passar por humanos reais.
- Leiam também: O futuro da voz da IA está aqui: a nova IA tem fala sintética emocionalmente inteligente
Essas simulações podem ser implantadas como porta-vozes interativos que visam os consumidores por meio da computação 2D tradicional por meio de videoconferência e outros layouts planos. Ou, eles podem ser implantados em mundos imersivos tridimensionais usando óculos de realidade misturada (MR).
Embora a geração em tempo real de humanos fotorrealistas parecesse fora de alcance apenas alguns anos atrás, os rápidos avanços no poder de computação, mecanismos gráficos e técnicas de modelagem de IA tornaram os humanos digitais uma tecnologia viável a curto prazo. Na verdade, os principais fornecedores de software já estão fornecendo ferramentas para tornar esse recurso amplamente difundido.
Por exemplo, a Unreal lançou recentemente uma ferramenta fácil de usar chamada Metahuman Creator. Isso foi projetado especificamente para permitir a criação de humanos digitais convincentes que podem ser animados em tempo real para interação interativa com os consumidores. Outros fornecedores estão desenvolvendo ferramentas semelhantes.
Disfarçados de humanos autênticos
Quando combinados, humanos digitais e LLMs permitirão um mundo no qual interagimos regularmente com porta-vozes virtuais (VSPs) que parecem, soam e agem como pessoas autênticas.
De fato, um estudo de 2022 realizado por pesquisadores da Lancaster University e da UC Berkeley demonstrou que os usuários agora não conseguem distinguir entre rostos humanos autênticos e rostos gerados por IA. Ainda mais preocupante, eles determinaram que os usuários percebiam os rostos gerados pela IA como “mais confiáveis” do que as pessoas reais.
Isso sugere duas tendências muito perigosas para o futuro próximo. Primeiro, podemos esperar envolver sistemas orientados por IA para serem disfarçados de humanos autênticos, e logo não teremos a capacidade de perceber a diferença. Em segundo lugar, é provável que confiemos mais em sistemas disfarçados de IA do que em representantes humanos reais.
Conversas personalizadas com IA
Isso é muito perigoso, pois logo nos encontraremos em conversas personalizadas com porta-vozes orientados por IA que são (a) indistinguíveis de humanos autênticos, (b) inspiram mais confiança do que pessoas reais e (c) podem ser implantados por corporações ou estados atores a perseguir uma agenda de conversação específica, seja para convencer as pessoas a comprar um determinado produto ou acreditar em uma determinada desinformação.
E, se não forem regulados agressivamente, esses sistemas orientados por IA também analisarão emoções em tempo real usando feeds de webcam para processar expressões faciais, movimentos oculares e dilatação da pupila – tudo o que pode ser usado para inferir reações emocionais durante a conversa.
Ao mesmo tempo, esses sistemas de IA processarão inflexões vocais, inferindo mudanças de sentimentos ao longo de uma conversa. Isso significa que um porta-voz virtual implantado para envolver as pessoas em uma conversa influenciada será capaz de adaptar suas táticas com base em como elas respondem a cada palavra falada, detectando quais estratégias de influência estão funcionando e quais não estão. O potencial de manipulação predatória por meio da IA conversacional é extremo.
IA conversacional: perceptiva e invasiva
Ao longo dos anos, as pessoas rejeitaram minhas preocupações sobre a IA conversacional, dizendo-me que os vendedores humanos fazem a mesma coisa lendo emoções e ajustando táticas – portanto, isso não deve ser considerado uma nova ameaça.
Isso é incorreto por vários motivos. Primeiro, esses sistemas de IA detectarão reações que nenhum vendedor humano poderia perceber. Por exemplo, os sistemas de IA podem detectar não apenas expressões faciais, mas “micro-expressões” que são muito rápidas ou muito sutis para um observador humano perceber, mas que indicam reações emocionais – incluindo reações que o usuário não tem consciência de expressar ou mesmo sentir.
Da mesma forma, os sistemas de IA podem ler mudanças sutis na aparência conhecidas como “padrões de fluxo sanguíneo” em rostos que indicam mudanças emocionais que nenhum ser humano poderia detectar. E, finalmente, os sistemas de IA podem rastrear mudanças sutis no tamanho da pupila e nos movimentos dos olhos e extrair pistas sobre envolvimento, excitação e outros sentimentos internos privados. A menos que seja protegido por regulamentação, interagir com a IA Conversacional será muito mais perspicaz e invasivo do que interagir com qualquer representante humano.
Conversas adaptáveis e personalizadas
A IA conversacional também será muito mais estratégica na elaboração de um discurso verbal personalizado. Isso porque esses sistemas provavelmente serão implantados por grandes plataformas online que possuem perfis de dados extensos sobre os interesses, pontos de vista, antecedentes e quaisquer outros detalhes de uma pessoa que foram compilados ao longo do tempo.
Isso significa que, quando engajadas por um sistema de IA conversacional que parece, soa e age como um representante humano, as pessoas estão interagindo com uma plataforma que as conhece melhor do que qualquer humano faria. Além disso, ele irá compilar um banco de dados de como eles reagiram durante interações de conversação anteriores, rastreando quais táticas persuasivas foram eficazes neles e quais táticas não foram.
Em outras palavras, os sistemas de IA conversacional não se adaptarão apenas às reações emocionais imediatas, mas também aos traços comportamentais ao longo de dias, semanas e anos. Eles podem aprender como atraí-lo para uma conversa, orientá-lo a aceitar novas ideias, apertar seus botões (gatilhos emocionais) para irritá-lo e, finalmente, levá-lo a comprar produtos de que não precisa e serviços que não deseja. Eles também podem encorajá-lo a acreditar em desinformações que você normalmente perceberia serem absurdas. Isso é extremamente perigoso.
Manipulação humana, em escala
Na verdade, o perigo interativo da IA conversacional pode ser muito pior do que qualquer coisa com a qual lidamos no mundo da promoção, propaganda ou persuasão usando a mídia tradicional ou social. Por esse motivo, acredito que os reguladores devem se concentrar nessa questão imediatamente, pois a implantação de sistemas perigosos pode ocorrer em breve.
Não se trata apenas de espalhar conteúdo perigoso – trata-se de permitir a manipulação humana personalizada em grande escala. Precisamos de proteções legais que defendam nossa liberdade cognitiva contra essa ameaça.
Afinal, os sistemas de IA já podem derrotar os melhores jogadores de xadrez e pôquer do mundo. Que chance uma pessoa comum tem de resistir a ser manipulada por uma campanha de influência conversacional que tem acesso à sua história pessoal, processa suas emoções em tempo real e ajusta suas táticas com precisão orientada por IA? Sem chance alguma.
Louis Rosenberg é o fundador da Unanimous AI e recebeu mais de 300 patentes para tecnologias de VR, AR e AI.
Artigos recomendados: IA e Controle
Fonte:https://venturebeat.com/ai/the-profound-danger-of-conversational-ai/
Nenhum comentário:
Postar um comentário