Páginas

17 de set. de 2022

Perceptron: IA que ilumina a lua, improvisa gramática e ensina robôs a andar como humanos






YF, 14/09/2022 - Com TechCrunch 



Por Devin Coldewey e Kyle Wiggers 



A pesquisa no campo de aprendizado de máquina e IA, agora uma tecnologia-chave em praticamente todos os setores e empresas, é volumosa demais para que qualquer um leia tudo. Esta coluna,  Perceptron, tem como objetivo coletar algumas das descobertas e artigos recentes mais relevantes – particularmente, mas não se limitado a, inteligência artificial – e explicar por que eles são importantes.

Nas últimas semanas, os cientistas desenvolveram um algoritmo para descobrir detalhes fascinantes sobre as crateras de asteróides mal iluminadas - e em alguns casos escuras como breu. Em outros lugares, pesquisadores do MIT treinaram um modelo de IA em livros didáticos para ver se ele poderia descobrir de forma independente as regras de um idioma específico. E equipes da DeepMind e da Microsoft investigaram se os dados de captura de movimento poderiam ser usados ​​para ensinar robôs a realizar tarefas específicas, como caminhar.

Com o lançamento pendente (e previsivelmente atrasado) do Artemis I, a ciência lunar está novamente no centro das atenções. Ironicamente, no entanto, são as regiões mais escuras da lua que são potencialmente as mais interessantes, pois podem abrigar gelo de água que pode ser usado para inúmeras finalidades. É fácil identificar a escuridão, mas o que há lá? Uma equipe internacional de especialistas em imagem aplicou o ML ao problema com algum sucesso.

Embora as crateras estejam na escuridão mais profunda, o Lunar Reconnaissance Orbiter ainda captura o fóton ocasional de dentro, e a equipe reuniu anos dessas exposições subexpostas (mas não totalmente pretas) com um "ferramenta de pós-processamento baseada na física e orientada para o aprendizado profundo" descrito em Geophysical Research Letters. O resultado é que "rotas visíveis para as regiões permanentemente sombreadas podem agora ser projetadas, reduzindo bastante os riscos para os astronautas da Artemis e robôs exploradores", de acordo com David Kring, do Instituto Lunar e Planetário.

Eles terão lanternas, imaginamos, mas é bom ter uma ideia geral de para onde ir de antemão, e é claro que isso pode afetar onde a exploração robótica ou os aterrissadores concentram seus esforços.

Por mais útil que seja, não há nada de misterioso em transformar dados esparsos em uma imagem. Mas no mundo da lingüística, a IA está fazendo incursões fascinantes em como e se os modelos lingüísticos realmente sabem o que sabem. No caso da aprendizagem da gramática de uma língua, uma experiência do MIT descobriu que um modelo treinado em vários livros didáticos foi capaz de construir seu próprio modelo de como uma determinada língua funcionava, ao ponto de sua gramática para o polonês, digamos, poder responder com sucesso a problemas de livros didáticos sobre ela.

"Os linguistas pensaram que, para realmente entender as regras de uma linguagem humana, para ter empatia com o que faz o sistema funcionar, você tem que ser humano. Queríamos ver se podemos emular os tipos de conhecimento e raciocínio que humanos (linguistas) trazem para a tarefa", disse Adam Albright, do MIT, em um comunicado à imprensa. É uma pesquisa muito inicial nessa frente, mas promissora, pois mostra que regras sutis ou ocultas podem ser "compreendidas" por modelos de IA sem instrução explícita nelas.

Mas o experimento não abordou diretamente uma questão chave e aberta na pesquisa de IA: como evitar que modelos de linguagem produzam linguagem tóxica, discriminatória ou enganosa. Novos trabalhos do DeepMind abordam isso, adotando uma abordagem filosófica do problema de alinhar modelos de linguagem com valores humanos.

Pesquisadores do laboratório afirmam que não há um caminho "tamanho único" para melhores modelos de linguagem, porque os modelos precisam incorporar características diferentes, dependendo dos contextos em que são implantados. Por exemplo, um modelo projetado para auxiliar no estudo científico idealmente faria apenas declarações verdadeiras, enquanto um agente desempenhando o papel de moderador em um debate público exerceria valores como tolerância, civilidade e respeito.

Então, como esses valores podem ser incutidos em um modelo de linguagem? Os coautores do DeepMind não sugerem uma maneira específica. Em vez disso, eles implicam que os modelos podem cultivar conversas mais "robustas" e "respeitosas" ao longo do tempo por meio de processos que eles chamam de construção e  elucidação de contexto. Como explicam os coautores: “Mesmo quando uma pessoa não está ciente dos valores que regem uma determinada prática conversacional, o agente ainda pode ajudar o humano a entender esses valores prefigurando-os na conversa, tornando o curso da comunicação mais profundo e proveitoso. para o falante humano."

Descobrir os métodos mais promissores para alinhar modelos de linguagem leva imenso tempo e recursos - financeiros e outros. Mas em domínios além da linguagem, particularmente domínios científicos, isso pode não ser o caso por muito mais tempo, graças a uma doação de US$ 3,5 milhões da National Science Foundation (NSF) concedida a uma equipe de cientistas da Universidade de Chicago, Argonne National Laboratory e MIT.

Com a doação da NSF, os beneficiários planejam construir o que descrevem como "jardins modelo", ou repositórios de modelos de IA projetados para resolver problemas em áreas como física, matemática e química. Os repositórios vincularão os modelos a dados e recursos de computação, bem como testes e telas automatizados para validar sua precisão, idealmente tornando mais simples para pesquisadores científicos testar e implantar as ferramentas em seus próprios estudos.

"Um usuário pode vir ao jardim [modelo] e ver todas essas informações num relance", disse Ben Blaiszik, pesquisador de ciência de dados do Globus Labs envolvido com o projeto, em um comunicado à imprensa. "Eles podem citar o modelo, podem aprender sobre o modelo, podem entrar em contato com os autores e podem invocar eles mesmos o modelo em um ambiente web em instalações de computação de liderança ou em seu próprio computador".

Enquanto isso, no domínio da robótica, os pesquisadores estão construindo uma plataforma para modelos de IA não com software, mas com hardware – hardware neuromórfico para ser exato. A Intel afirma que a última geração de seu chip experimental Loihi pode permitir que um modelo de reconhecimento de objetos "aprenda" a identificar um objeto que nunca viu antes usando até 175 vezes menos energia do que se o modelo estivesse rodando em uma CPU.

Os sistemas neuromórficos tentam imitar as estruturas biológicas do sistema nervoso. Enquanto os sistemas tradicionais de aprendizado de máquina são rápidos ou eficientes em termos de energia, os sistemas neuromórficos alcançam velocidade e eficiência usando nós para processar informações e conexões entre os nós para transferir sinais elétricos usando circuitos analógicos. Os sistemas podem modular a quantidade de energia que flui entre os nós, permitindo que cada nó realize o processamento - mas apenas quando necessário.

A Intel e outros acreditam que a computação neuromórfica tem aplicações em logística, por exemplo, a alimentação de um robô construído para ajudar nos processos de fabricação. É teórico neste ponto -- a computação neuromórfica tem seus pontos negativos -- mas talvez um dia, essa visão venha a acontecer.

Mais próximo da realidade está o trabalho recente da DeepMind em "inteligência incorporada", ou usando movimentos humanos e animais para ensinar robôs a driblar uma bola, carregar caixas e até jogar futebol. Pesquisadores do laboratório criaram uma configuração para registrar dados de rastreadores de movimento usados ​​por humanos e animais, a partir dos quais um sistema de IA aprendeu a inferir como concluir novas ações, como andar em um movimento circular. Os pesquisadores afirmam que essa abordagem se traduziu bem em robôs do mundo real, por exemplo, permitindo que um robô de quatro patas andasse como um cachorro enquanto driblava uma bola simultaneamente.

Coincidentemente, a Microsoft lançou no início deste verão uma biblioteca de dados de captura de movimento destinada a estimular a pesquisa de robôs que podem andar como humanos. Chamada de MoCapAct, a biblioteca contém clipes de captura de movimento que, quando usados ​​com outros dados, podem ser usados ​​para criar robôs bípedes ágeis – pelo menos em simulação.

[Criar este conjunto de dados] levaria o equivalente a 50 anos em muitos [servidores] equipados com GPU… um testemunho do obstáculo computacional que o MoCapAct remove para outros pesquisadores”, escreveram os coautores do trabalho em um post no blog. “Esperamos que a comunidade possa construir a partir de nosso conjunto de dados e trabalhar para fazer pesquisas incríveis no controle de robôs humanóides”.

A revisão por pares de artigos científicos é um trabalho humano inestimável, e é improvável que a IA assuma o controle, mas pode realmente ajudar a garantir que as revisões por pares sejam realmente úteis. Um grupo de pesquisa suíço está analisando a avaliação baseada em modelos de revisões por pares, e seus primeiros resultados são mistos – no bom sentido. Não havia um método ou tendência óbvio bom ou ruim, e a classificação do impacto da publicação não parecia prever se uma revisão era completa ou útil. Tudo bem, porém, porque embora a qualidade das revisões seja diferente, você não gostaria que houvesse uma falta sistemática de boas revisões em todos os lugares, exceto nos principais periódicos, por exemplo. O trabalho deles está em andamento.

Por último, para qualquer pessoa preocupada com a criatividade neste domínio, aqui está um projeto pessoal de Karen X. Cheng que mostra como um pouco de engenhosidade e trabalho duro podem ser combinados com IA para produzir algo verdadeiramente original.

Artigos recomendados: IA e ML


Fonte:https://finance.yahoo.com/news/perceptron-ai-lights-moon-improvises-212756205.html

Nenhum comentário:

Postar um comentário