Páginas

19 de out. de 2023

Meta recria imagens mentais de varreduras cerebrais usando IA




VB, 18/10/2023 



Por Carl Franzen 



As interfaces de computação de um futuro não muito distante poderão ir além das telas sensíveis ao toque e dos teclados – até mesmo dos olhos e dos gestos das mãos, até o interior de nossas próprias mentes.

A sociedade ainda não chegou lá, mas estamos nos aproximando. Pesquisadores da Meta Platforms, Inc., controladora do Facebook, Instagram, WhatsApp e Oculus VR, anunciaram hoje o Image Decoder, um novo aplicativo de aprendizagem profunda baseado no modelo DINOv2 de código aberto da Meta, que traduz a atividade cerebral em imagens altamente precisas do assunto. olhando ou pensando quase em tempo real.

Em outras palavras, se um metapesquisador estivesse sentado em uma sala e impedido de ver o sujeito, mesmo que o sujeito estivesse do outro lado do mundo, o decodificador de imagens permitiria ao metapesquisador ver o que o sujeito estava olhando ou imaginando, com base em sua atividade cerebral – desde que o sujeito estivesse em uma instalação de neuroimagem e fosse submetido a varredura em uma máquina MEG.

Os pesquisadores, que trabalham no laboratório de pesquisa de inteligência artificial do Facebook (FAIR) e na Universidade PSL em Paris, descrevem seu trabalho e o sistema decodificador de imagens com mais detalhes em um novo artigo.

Em notas fornecidas por e-mail para VentureBeat por um porta-voz, Meta escreveu que “sua pesquisa fortalece a iniciativa de pesquisa de longo prazo da Meta para compreender os fundamentos da inteligência humana, identificar suas semelhanças, bem como diferenças em comparação com os algoritmos atuais de aprendizado de máquina e, em última análise, ajudar a construir sistemas de IA com potencial para aprender e raciocinar como os humanos”.

Como funciona o decodificador de imagens do Meta

Em seu artigo, os pesquisadores da Meta descrevem a tecnologia subjacente ao Image Decoder.

Ele está essencialmente combinando dois campos, até então bastante díspares: aprendizado de máquina – especificamente aprendizado profundo, em que um computador aprende analisando dados rotulados e depois inspecionando novos dados e tentando rotulá-los corretamente – e magnetoencefalologia (MEG), um sistema que mede e registra a atividade cerebral de forma não invasiva, fora da cabeça, usando instrumentos que captam as pequenas mudanças nos campos magnéticos do cérebro conforme a pessoa pensa.

Meta-pesquisadores treinaram um algoritmo de aprendizagem profunda em 63.000 resultados anteriores de MEG de quatro pacientes (duas mulheres e duas com média de idade de 23 anos), em 12 sessões, nas quais os pacientes viram 22.448 imagens únicas e 200 imagens repetidas daquele pool original.

A equipe Meta usou DINOv2, um modelo de aprendizagem auto-supervisionado projetado para treinar outros modelos e que foi treinado em cenários de florestas da América do Norte, e que Meta lançou publicamente em abril de 2023.

Os pesquisadores instruíram o algoritmo Image Decoder a analisar esses dados brutos e uma imagem do que a pessoa estava realmente vendo, quando seu cérebro estava produzindo aquela atividade MEG.

Dessa forma, ao comparar os dados MEG com a imagem de origem real, o algoritmo aprendeu a decifrar quais formas e cores específicas eram representadas no cérebro e como.

Resultados promissores e considerações éticas

Embora o sistema Image Decoder esteja longe de ser perfeito, os pesquisadores ficaram encorajados com os resultados, pois atingiu níveis de precisão de 70% em seus casos de maior desempenho em termos de recuperação ou recriação precisa de uma imagem com base nos dados MEG, sete vezes melhor do que métodos existentes.

Algumas das imagens que o decodificador de imagens recuperou com sucesso de um conjunto de imagens potenciais incluíam imagens de brócolis, lagartas e gabinetes de alto-falantes de áudio. Teve menos sucesso na decodificação de imagens mais complexas e variadas, incluindo tacos, guacamole e feijão.




No geral, nossas descobertas traçam um caminho promissor para a decodificação em tempo real de representações visuais no laboratório e na clínica”, escrevem os pesquisadores.

No entanto, observaram que a tecnologia apresenta “várias considerações éticas”, uma vez que ser capaz de olhar para dentro da mente de uma pessoa é um novo nível de invasão que a tecnologia ainda não atingiu em grande escala.

Mais notavelmente”, entre as considerações éticas apresentadas pelos investigadores está “a necessidade de preservar a privacidade mental”, embora não afirmem exatamente como isso seria conseguido.

O fato de este trabalho ser financiado por uma empresa-mãe que já foi multada em milhares de milhões por violar a privacidade do consumidor com os seus produtos, também é uma preocupação notável, embora os investigadores não abordem diretamente este elefante na sala.

Mas existem limitações tecnológicas que impediriam que esta técnica fosse, por enquanto, usada para ler os pensamentos de uma pessoa sem o seu consentimento. Ou seja, o decodificador de imagens funciona melhor em imagens concretas de objetos físicos e paisagens que uma pessoa viu.

Por outro lado, a precisão da decodificação diminui consideravelmente quando os indivíduos são encarregados de imaginar representações”, observam os pesquisadores.

Além disso, “o desempenho da decodificação parece ser gravemente comprometido quando os participantes estão envolvidos em tarefas disruptivas, como a contagem regressiva (Tang et al., 2023). Por outras palavras, o consentimento dos sujeitos não é apenas um requisito legal, mas também e principalmente um requisito técnico para a descodificação cerebral.

Assim, uma pessoa que foi submetida a uma decodificação de imagem de sua atividade cerebral sem o seu consentimento, poderia tomar a iniciativa de interrompê-la recorrendo a uma técnica como a contagem regressiva – se estivesse ciente dessa opção e das circunstâncias em que se encontrava.

Artigos recomendados: Meta e Cérebro


Fonte:https://venturebeat.com/ai/meta-recreates-mental-imagery-from-brain-scans-using-ai/ 

Nenhum comentário:

Postar um comentário