Páginas

20 de mar. de 2023

Bots de IA podem ver como humanos, mas podem exigir uma sensação de 'pressão'




IE, 20/03/2023 



Por Sade Agard 



Como um computador reagiria a um leão que se aproximasse?

Em menos de 100 milissegundos (ou aproximadamente um décimo de segundo), o cérebro humano pode detectar um rosto familiar ou um carro que se aproxima. Porém, mais significativamente, pode colocar os dados no contexto adequado, permitindo que as pessoas respondam adequadamente.

Sem dúvida, os computadores seriam mais rápidos em fazer isso, mas a questão é: quão precisas são suas respostas em um caso da vida real? Ou melhor ainda, em uma situação de lutar ou fugir? Aparentemente, os computadores não conseguem reproduzir essa visão humana – e é preocupante – de acordo com um novo estudo publicado na JNeurosci.

Os computadores podem reagir ao perigo?

O estudo demonstra que as redes neurais profundas não podem ser totalmente responsáveis ​​pelas respostas neurais medidas em observadores humanos e tem implicações significativas para o uso de modelos de aprendizado profundo em configurações do mundo real, como carros autônomos

Redes neurais profundas, também chamadas de redes de aprendizado profundo, são um tipo de inteligência artificial que pode ser usada para ensinar computadores a analisar dados recebidos, como reconhecer rostos e carros. Esse método de aprendizado de máquina usa nós ou neurônios interconectados em uma estrutura em camadas, como o cérebro humano.

No entanto, apesar de sua força e promessa de aprendizado profundo, os computadores ainda não dominam os cálculos humanos e, mais importante, a ligação e a comunicação entre o corpo e o cérebro, principalmente no que diz respeito ao reconhecimento visual.

Embora promissoras, as redes neurais profundas estão longe de serem modelos computacionais perfeitos da visão humana”, disse a líder do estudo Marieke Mur em um comunicado à imprensa.

Poucos estudos tentaram determinar características específicas da visão humana que o aprendizado profundo não consegue replicar, apesar dos anteriores mostrarem que o aprendizado profundo não pode replicar com precisão o reconhecimento visual humano.

A equipe empregou a magnetoencefalografia (MEG), um procedimento médico não invasivo que avalia os campos magnéticos gerados por correntes elétricas no cérebro. 

Mur e sua equipe descobriram que partes facilmente nomeáveis ​​de objetos, como 'olho', 'roda' e 'rosto', podem explicar a variação na dinâmica neural humana além do que o aprendizado profundo pode oferecer.

Esta descoberta fornece pistas sobre o que as redes neurais não conseguem entender nas imagens, ou seja, características visuais que são indicativas de categorias de objetos ecologicamente relevantes, como rostos e animais”, disse Mur. 

Sugerimos que as redes neurais podem ser melhoradas como modelos do cérebro, dando-lhes uma experiência de aprendizagem mais semelhante à humana, como um regime de treinamento que enfatiza mais fortemente as pressões comportamentais às quais os humanos são submetidos durante o desenvolvimento”.

Por exemplo, é fundamental para os humanos determinar rapidamente se um objeto é um animal que se aproxima ou não e, se for, prever seus possíveis próximos passos. A eficácia das técnicas de aprendizado profundo para simular a visão humana pode ser melhorada incorporando essas pressões durante o treinamento.

O estudo completo foi publicado no  JNeurosci em 8 de março e pode ser encontrado aqui.

Resumo do estudo:

Redes neurais profundas (DNNs) são modelos promissores dos cálculos corticais que suportam o reconhecimento de objetos humanos. No entanto, apesar de sua capacidade de explicar uma parcela significativa da variação nos dados neurais, a concordância entre os modelos e a dinâmica representacional do cérebro está longe de ser perfeita. Abordamos esse problema perguntando quais características representacionais estão atualmente desaparecidas em dados de séries temporais neurais, estimados para várias áreas do fluxo ventral por meio de dados de magnetoencefalografia reconstruídos na fonte adquiridos em participantes humanos (nove mulheres, seis homens) durante a visualização do objeto. Nós nos concentramos na capacidade dos modelos visuo-semânticos, que consistem em rótulos gerados por humanos de recursos e categorias de objetos, para explicar a variação além do poder explicativo dos DNNs sozinhos. Relatamos uma reversão gradual na importância relativa de DNN versus recursos visuo-semânticos à medida que as representações de objetos de fluxo ventral se desdobram no espaço e no tempo. Embora as áreas visuais de nível inferior sejam melhor explicadas pelos recursos DNN que começam no início do tempo (66 ms após o início do estímulo), as dinâmicas corticais de nível superior são melhor explicadas pelos recursos visuo-semânticos que começam mais tarde no tempo (146 ms após o início do estímulo). Entre as características visuo-semânticas, partes de objetos e categorias básicas conduzem a vantagem sobre DNNs. Esses resultados mostram que um componente significativo da variação não explicada por DNNs na dinâmica cortical de nível superior é estruturado e pode ser explicado por aspectos facilmente identificáveis ​​dos objetos.

Artigos recomendados: DL e ML


Fonte:https://interestingengineering.com/science/ai-bots-see-humans-pressure 

Nenhum comentário:

Postar um comentário