AI, 27/09/2022
Por Sirisha
“Para alguns, as interfaces cérebro-computador podem ser a chave para restaurar a comunicação”
A Inteligência Artificial, sem dúvida, é uma campeã dos desfavorecidos e deficientes. Se os muitos casos de uso médico não forem suficientes, aqui está mais um para você. Recentemente, a Meta anunciou um aplicativo de interface cérebro-computador para escrever palavras na tela para pessoas com deficiência auditiva. Interface cérebro-computador do Meta que pode interpretar ondas cerebrais por meio de sua tecnologia não invasiva começou a se desenvolver em 2017 e foi descrito como um experimento para digitar mais de 100 palavras por minuto sem precisar digitar manualmente as palavras ou usar serviços de transcrição de fala para texto. Conforme relatado pelo TechCrunch, o experimento começou com uma pergunta: “E se você pudesse digitar diretamente do seu cérebro?” Agora está em um momento interessante de estender essa tecnologia para decifrar os sons que se ouve. Jean-Remi King, cientista pesquisador da Meta falando à TIME, disse: “Há uma série de coisas ruins que podem roubar a capacidade de falar de alguém – mas para alguns, as interfaces cérebro-computador podem ser a chave para restaurar a comunicação”.
Ler ondas cerebrais não é um conceito novo, apenas a diferença é que foi alcançado usando implantes cerebrais. A neuroprótese experimental, uma tecnologia médica rara que pode decodificar a atividade cerebral de uma pessoa paralisada, foi desenvolvida com sucesso pelo neurocirurgião da UCSF Edward Chang, da UC San Francisco. No entanto, isso foi alcançado por meio de implantes cerebrais, um procedimento doloroso que poucos podem suportar. A Meta em seu blog escreve: “Esses dispositivos fornecem sinais mais claros do que os métodos não invasivos, mas requerem intervenções neurocirúrgicas. Embora os resultados desse trabalho sugiram que a decodificação da fala a partir de gravações da atividade cerebral seja viável, a decodificação da fala com abordagens não invasivas forneceria uma solução mais segura e escalável”. O modelo é avaliado usando EEG e MEG registrando a atividade magnética de 169 voluntários saudáveis, feito para ouvir audiolivros em holandês e inglês por mais de 150 horas. De acordo com o estudo publicado pela equipe como uma pré-impressão, a equipe usou um algoritmo de código aberto que foi criado para analisar dados já existentes.
Comparado com os dispositivos de interface cérebro-computador, a relação sinal-ruído dos BCIs não invasivos é bem pior. A tecnologia BCI usa sensores que são plantados longe do crânio com pele no meio, a saída é corrompida em grande medida e apenas algum tipo de tecnologia super avançada pode captar os sinais como eles são. Além disso, como o cérebro representa uma determinada língua é um fenômeno amplamente inexplicável. Meta visa quebrar os dois obstáculos acima, atribuindo o trabalho a um sistema de IA que podem aprender a alinhar as representações da fala e as representações da atividade cerebral em resposta à fala. Apesar de obter resultados animadores em termos de decodificação de fala a partir de gravações não invasivas, ainda não está pronto para aplicação prática. Além disso, o BCI da Meta terá que trabalhar para estendê-lo para trabalhar na produção de fala para permitir que os pacientes se comuniquem.
Artigos recomendados: Meta e BCI
Nenhum comentário:
Postar um comentário