Páginas

20 de jul. de 2023

Futuros algoritmos de IA têm potencial para aprender como humanos, dizem pesquisadores




TX, 20/07/2023 



Por Tatyana Woodall 



As memórias podem ser tão difíceis de manter para as máquinas quanto para os humanos. Para ajudar a entender por que os agentes artificiais desenvolvem buracos em seus próprios processos cognitivos, engenheiros elétricos da Ohio State University analisaram o quanto um processo chamado "aprendizado contínuo" afeta seu desempenho geral.

Aprendizagem contínua é quando um computador é treinado para aprender continuamente uma sequência de tarefas, usando seu conhecimento acumulado de tarefas antigas para aprender melhor novas tarefas.

No entanto, um grande obstáculo que os cientistas ainda precisam superar para alcançar tais alturas é aprender a contornar o equivalente ao aprendizado de máquina da perda de memória - um processo que em agentes de IA é conhecido como "esquecimento catastrófico". À medida que as redes neurais artificiais são treinadas em uma nova tarefa após a outra, elas tendem a perder as informações obtidas nas tarefas anteriores, uma questão que pode se tornar problemática à medida que a sociedade passa a depender cada vez mais dos sistemas de IA, disse Ness Shroff, um eminente estudioso de Ohio e professor de ciência da computação e engenharia na The Ohio State University.

"À medida que aplicativos de direção automatizada ou outros sistemas robóticos aprendem coisas novas, é importante que eles não esqueçam as lições que já aprenderam para nossa segurança e a deles", disse Shroff. “Nossa pesquisa investiga as complexidades do aprendizado contínuo nessas redes neurais artificiais, e o que descobrimos são insights que começam a preencher a lacuna entre como uma máquina aprende e como um humano aprende”.

Os pesquisadores descobriram que, da mesma forma que as pessoas podem se esforçar para lembrar fatos contrastantes sobre cenários semelhantes, mas se lembram de situações inerentemente diferentes com facilidade, as redes neurais artificiais podem se lembrar melhor de informações quando confrontadas com diversas tarefas em sucessão, em vez de tarefas que compartilham características semelhantes, Shroff disse.

A equipe, incluindo os pesquisadores de pós-doutorado do estado de Ohio, Sen Lin e Peizhong Ju, e os professores Yingbin Liang e Shroff, apresentarão suas pesquisas no final deste mês na 40ª Conferência Internacional Anual sobre Aprendizado de Máquina em Honolulu, Havaí, uma conferência emblemática em aprendizado de máquina.

Embora possa ser desafiador ensinar sistemas autônomos a exibir esse tipo de aprendizado dinâmico e vitalício, possuir tais recursos permitiria aos cientistas ampliar os algoritmos de aprendizado de máquina em um ritmo mais rápido, bem como adaptá-los facilmente para lidar com ambientes em evolução e situações inesperadas. Essencialmente, o objetivo desses sistemas seria um dia imitar as capacidades de aprendizado dos humanos.

Os algoritmos tradicionais de aprendizado de máquina são treinados com dados de uma só vez, mas as descobertas dessa equipe mostraram que fatores como similaridade de tarefas, correlações negativas e positivas e até mesmo a ordem em que um algoritmo é ensinado a uma tarefa importam no tempo que uma rede artificial retém determinado conhecimento.

Por exemplo, para otimizar a memória de um algoritmo, disse Shroff, tarefas diferentes devem ser ensinadas no início do processo de aprendizado contínuo. Esse método expande a capacidade da rede para novas informações e melhora sua capacidade de aprender subseqüentemente tarefas mais semelhantes ao longo da linha.

O trabalho deles é particularmente importante, pois entender as semelhanças entre as máquinas e o cérebro humano pode abrir caminho para uma compreensão mais profunda da IA, disse Shroff.

Nosso trabalho anuncia uma nova era de máquinas inteligentes que podem aprender e se adaptar como suas contrapartes humanas”, disse ele.

Artigos recomendados: H+ e AGI


Fonte:https://techxplore.com/news/2023-07-future-ai-algorithms-potential-humans.html 

Nenhum comentário:

Postar um comentário