SCTD, 19/04/2024
Uma nova técnica pode ser usada para prever as ações de agentes humanos ou de IA que se comportam de forma subótima, enquanto trabalham em direção a objetivos desconhecidos.
Pesquisadores do MIT e de outras instituições desenvolveram um framework que modela o comportamento irracional ou subótimo de um agente humano ou de IA, com base em suas limitações computacionais. Sua técnica pode ajudar a prever as ações futuras de um agente, por exemplo, em partidas de xadrez.
Para construir sistemas de IA que possam colaborar efetivamente com humanos, é útil ter um bom modelo de comportamento humano como ponto de partida. Mas os humanos tendem a se comportar de forma subótima ao tomar decisões.
Essa irracionalidade, que é especialmente difícil de modelar, muitas vezes se resume a limitações computacionais. Um humano não pode passar décadas pensando na solução ideal para um único problema.
Desenvolvimento de uma Nova Abordagem de Modelagem
Pesquisadores do MIT e da Universidade de Washington desenvolveram uma maneira de modelar o comportamento de um agente, seja humano ou máquina, levando em conta as limitações computacionais desconhecidas que podem prejudicar as habilidades de resolução de problemas do agente.
Seu modelo pode inferir automaticamente as limitações computacionais de um agente ao ver apenas alguns rastros de suas ações anteriores. O resultado, chamado de "orçamento de inferência" de um agente, pode ser usado para prever o comportamento futuro desse agente.
Aplicações Práticas e Validação do Modelo
Em um novo artigo, os pesquisadores demonstram como seu método pode ser usado para inferir os objetivos de navegação de alguém a partir de rotas anteriores, e prever os movimentos subsequentes dos jogadores em partidas de xadrez. Sua técnica corresponde ou supera outro método popular para modelar esse tipo de tomada de decisão.
Em última análise, esse trabalho poderia ajudar os cientistas a ensinar sistemas de IA como os humanos se comportam, o que poderia permitir que esses sistemas respondessem melhor aos seus colaboradores humanos. Ser capaz de entender o comportamento humano e, em seguida, inferir seus objetivos a partir desse comportamento, poderia tornar um assistente de IA muito mais útil, diz Athul Paul Jacob, estudante de pós-graduação em engenharia elétrica e ciência da computação (EECS), e autor principal de um artigo sobre essa técnica.
"Se sabemos que um humano está prestes a cometer um erro, tendo visto como eles se comportaram antes, o agente de IA poderia intervir e oferecer uma maneira melhor de fazê-lo. Ou o agente poderia se adaptar às fraquezas de seus colaboradores humanos. Ser capaz de modelar o comportamento humano é um passo importante para construir um agente de IA que realmente possa ajudar esse humano", diz ele.
Jacob escreveu o artigo com Abhishek Gupta, professor assistente da Universidade de Washington, e Jacob Andreas, professor associado em EECS e membro do Laboratório de Ciência da Computação e Inteligência Artificial (CSAIL). A pesquisa será apresentada na Conferência Internacional sobre Representações de Aprendizado.
Modelando Comportamento
Os pesquisadores vêm construindo modelos computacionais de comportamento humano há décadas. Muitas abordagens anteriores tentam explicar a tomada de decisões subótimas adicionando ruído ao modelo. Em vez do agente sempre escolher a opção correta, o modelo pode fazer com que o agente faça a escolha correta 95 por cento do tempo.
No entanto, esses métodos podem falhar em capturar o fato de que os humanos nem sempre se comportam de forma subótima da mesma maneira.
Outros no MIT também estudaram maneiras mais eficazes de planejar e inferir objetivos diante da tomada de decisões subótima.
Para construir seu modelo, Jacob e seus colaboradores se inspiraram em estudos anteriores de jogadores de xadrez. Eles notaram que os jogadores levavam menos tempo para pensar antes de agir ao fazer movimentos simples, e que os jogadores mais fortes tendiam a passar mais tempo planejando do que os mais fracos em partidas desafiadoras.
"No final do dia, vimos que a profundidade do planejamento, ou quanto tempo alguém pensa sobre o problema, é um bom indicador de como os humanos se comportam", diz Jacob.
Eles construíram um framework que poderia inferir a profundidade do planejamento de um agente a partir de ações anteriores, e usar essas informações para modelar o processo de tomada de decisão do agente.
O primeiro passo em seu método envolve executar um algoritmo por um determinado período de tempo para resolver o problema em estudo. Por exemplo, se estiverem estudando uma partida de xadrez, eles podem deixar o algoritmo de xadrez funcionar por um certo número de passos. No final, os pesquisadores podem ver as decisões que o algoritmo tomou em cada etapa.
Seu modelo compara essas decisões com os comportamentos de um agente resolvendo o mesmo problema. Ele alinha as decisões do agente com as decisões do algoritmo e identifica o passo em que o agente parou de planejar.
A partir disso, o modelo pode determinar o orçamento de inferência do agente, ou quanto tempo aquele agente planejará para esse problema. Ele pode usar o orçamento de inferência para prever como aquele agente reagiria ao resolver um problema semelhante.
Uma Solução Interpretável
Este método pode ser muito eficiente, porque os pesquisadores podem acessar o conjunto completo de decisões tomadas pelo algoritmo de resolução de problemas sem fazer nenhum trabalho extra. Este framework também poderia ser aplicado a qualquer problema que possa ser resolvido com uma determinada classe de algoritmos.
"Para mim, a coisa mais marcante foi o fato de que esse orçamento de inferência é muito interpretável. Ele está dizendo que problemas mais difíceis exigem mais planejamento ou ser um jogador forte significa planejar por mais tempo. Quando começamos a fazer isso, não pensamos que nosso algoritmo seria capaz de captar esses comportamentos naturalmente", diz Jacob.
Os pesquisadores testaram sua abordagem em três tarefas de modelagem diferentes: inferir objetivos de navegação a partir de rotas anteriores, adivinhar a intenção comunicativa de alguém a partir de suas pistas verbais e prever movimentos subsequentes em partidas de xadrez humano-humano.
Seu método correspondeu ou superou uma alternativa popular em cada experimento. Além disso, os pesquisadores viram que seu modelo de comportamento humano se alinhava bem com medidas de habilidade do jogador (em partidas de xadrez) e dificuldade da tarefa.
No futuro, os pesquisadores desejam usar essa abordagem para modelar o processo de planejamento em outros domínios, como aprendizado por reforço (um método de tentativa e erro comumente usado em robótica). A longo prazo, eles pretendem continuar construindo sobre este trabalho em direção ao objetivo maior de desenvolver colaboradores de IA mais eficazes.
Artigos recomendados: Traços e SCS
Fonte:https://scitechdaily.com/mits-new-ai-model-predicts-human-behavior-with-uncanny-accuracy/
Nenhum comentário:
Postar um comentário