Pesquisadores do Google e da Universidade de Osaka, no Japão, desenvolveram uma ferramenta alimentada por inteligência artificial que pode recriar a música que as pessoas estão ouvindo durante exames cerebrais. O experimento é o primeiro do seu tipo e já intriga pessoas sobre o quão longe a IA poderá chegar. Saiba mais sobre o experimento logo abaixo.
Inovação que assusta
Em parceria com profissionais da Universidade de Osaka, no Japão, pesquisadores do Google anunciaram recentemente terem desenvolvido uma ferramenta que, através da tecnologia de inteligência artificial, torna possível recriar a música que as pessoas estão ouvindo durante exames cerebrais.
As descobertas do grupo científico foram compartilhadas em um novo artigo publicado na base de dados arXiv que ainda não foi revisado por pares. Segundo o documento, o experimento é o primeiro do seu tipo já realizado.
Leia mais: Pesquisa revela atitude que protege o cérebro de pessoas aposentadas
Como funciona?
Cientistas afirmaram que a ferramenta de IA, chamada Brain2Music, funciona analisando os dados de imagens cerebrais de pessoas que estão ouvindo música. Após examinar a atividade cerebral de uma pessoa, a Inteligência Artificial produz uma música que combina com o gênero, ritmo, humor e instrumentação da canção que o indivíduo estava ouvindo.
Os dados de imagem cerebral que foram alimentados no fluxo de trabalho de Inteligência Artificial foram coletados por meio de uma técnica chamada imagem por ressonância magnética funcional. Este é um tipo de método de imagem que pode mostrar mudanças regionais e variáveis no tempo no cérebro. Em outras palavras, a fMRI pode identificar quais partes do cérebro estão ativadas enquanto uma pessoa está ouvindo música e quando está.
O experimento
No experimento, os participantes ouviram trechos de 15 segundos de músicas blues, clássicas, country, disco, hip-hop, jazz e pop. Após a coleta de dados, o programa de Inteligência Artificial foi treinado para identificar conexões entre elementos da música e os sinais cerebrais dos participantes.
A IA então converteria os dados de imagem em uma forma que emula a música dos trechos das músicas originais. Os pesquisadores então inseriram esses dados em um modelo de Inteligência Artificial desenvolvido pelo Google, chamado MusicLM. A ferramenta experimental de IA, anunciada pelo Google no início deste ano, funciona transformando suas descrições em texto em música.
“O acordo, em termos de clima da música reconstruída e da música original, foi de cerca de 60 por cento”, disse Timo Denk, co-autor do estudo e engenheiro de software do Google na Suíça, à Live Science.
Denk afirmou, ainda: “O método é bastante robusto entre os cinco homens que avaliamos”, disse Denk. “Se você pegar uma pessoa nova e treinar um modelo para ela, é provável que ele também funcione bem”, concluiu o engenheiro.
Leia também: Final de Game of Thrones é revelado por inteligência artificial
*Com informações do The Sun