Páginas

27 de jul. de 2023

Brain2Music explora pensamentos para reproduzir música




TX, 27/07/2023 



Por Peter Grad 



O lendário guitarrista dos Stones, Keith Richards, disse certa vez: "A música é uma linguagem que não fala em palavras específicas. Fala com emoções e, se está nos ossos, está nos ossos."

Keith conhece sobre música, mas pesquisadores do Google e da Universidade de Osaka, no Japão, conhecem a atividade cerebral e relataram progressos na reconstrução da música, não a partir de ossos, mas de ondas cerebrais humanas observadas em laboratório. O artigo da equipe, "Brain2Music: Reconstruindo a Música da Atividade do Cérebro Humano", foi publicado no servidor de pré-impressão arXiv em 20 de julho.




Amostras de música abrangendo 10 gêneros, incluindo rock, clássico, metal, hip-hop, pop e jazz, foram tocadas por cinco sujeitos enquanto os pesquisadores observavam sua atividade cerebral. As leituras de ressonância magnética funcional (fMRI) foram gravadas enquanto eles ouviam. (As leituras de fMRI, ao contrário das leituras de MRI, registram a atividade metabólica ao longo do tempo).

As leituras foram usadas para treinar uma rede neural profunda que identificou atividades ligadas a várias características da música, como gênero, humor e instrumentação.

Uma etapa intermediária trouxe o MusicLM para o estudo. Este modelo, desenvolvido pelo Google, gera música com base em descrições de texto. Ele, como os fMRIs, mede fatores como instrumentação, ritmo e emoções. Um exemplo de entrada de texto é: "Música meditativa, calmante e reconfortante, com flautas e violões. A música é lenta, com foco em criar uma sensação de paz e tranquilidade."

Os pesquisadores vincularam o banco de dados MusicLM às leituras de fMRI, permitindo que seu modelo de IA reconstruísse a música que os participantes ouviram. Em vez de instruções de texto, a atividade cerebral fornecia contexto para a produção musical.

"Nossa avaliação indica que a música reconstruída semanticamente se assemelha ao estímulo musical original", disse Timo Denk, do Google, um dos vários autores do recente artigo.

Eles batizaram apropriadamente seu modelo de IA de Brain2Music.

"A música gerada se assemelha aos estímulos musicais que os seres humanos experimentaram, no que diz respeito às propriedades semânticas como gênero, instrumentação e humor", disse ele. Eles identificaram ainda regiões do cérebro que refletem informações provenientes de descrições de texto de música.

Os exemplos fornecidos pela equipe demonstram trechos de música com sons notavelmente semelhantes interpretados pelo Brain2Music com base nas ondas cerebrais dos sujeitos.

Uma das canções amostradas foi um dos primeiros sucessos do Top 10 do ano 2000, "Oops!… I Did It Again", de Britney Spears. Vários elementos musicais da música, como o som dos instrumentos e a batida, combinavam, embora as letras fossem ininteligíveis. O Brain2Go se concentra na instrumentação e no estilo, não nas letras, explicaram os pesquisadores.

"Este estudo é o primeiro a fornecer uma interpretação quantitativa de uma perspectiva biológica", disse Denk. Mas ele reconheceu que, apesar dos avanços nos modelos de conversão de texto em música, "seus processos internos ainda são mal compreendidos".

A IA ainda não está pronta para explorar nossos cérebros e escrever melodias perfeitamente orquestradas – mas esse dia pode não estar muito longe.

O trabalho futuro em modelos de geração de música trará melhorias para "o alinhamento temporal entre reconstrução e estímulo", disse Denk. Ele especulou que reproduções cada vez mais fiéis de composições musicais "de pura imaginação" estão por vir.

Talvez os futuros compositores precisem apenas imaginar o refrão de uma música enquanto uma impressora conectada sem fio ao córtex auditivo imprime a partitura. Beethoven, que começou a ficar surdo aos 20 anos, arruinou pianos batendo nas teclas para poder ouvir melhor a música. Ele se divertiria — e pouparia mais do que alguns pianos — com Brain2Music.

E Paul McCartney, autor de "Yesterday", que a teve em uma pesquisa da BBC em 1999 escolhida como a melhor música do século 20, explicou que a ideia da música veio a ele em um sonho, mas levou um ano e meio para ele preenchesse todas as partes que faltavam. Se um futuro McCartney surgir com um potencial sucesso global em um sonho da meia-noite, um modelo do tipo Brain2Go provavelmente garantiria uma renderização completa, rápida e precisa aguardando o autor na mesa do café da manhã.

Artigos recomendados: Cérebro e Tech


Fonte:https://techxplore.com/news/2023-07-brain2music-thoughts-music.html?utm_source=twitter.com&utm_medium=social&utm_campaign=v2 

Nenhum comentário:

Postar um comentário