Empresa cria IA capaz de reconhecer músicas nas quais você pensou a partir de ondas cerebrais
Pesquisadores da Universidade de Osaka e do Google desenvolvem IA capaz de criar músicas semelhantes às ouvidas pelo usuário através da leitura dos sinais cerebrais.
Nos últimos anos, temos presenciado uma evolução tecnológica exponencial, especialmente causada pelo atual uso e criação de inteligências artificiais que atingem as mais diversas áreas da sociedade, abrindo novas possibilidades para coisas que antes eram inimagináveis.
Mesmo com o crescente uso de IAs, os limites do seu potencial continuam desconhecidos, podendo chegar a um alcance extraordinário.
Tal potencial se mostra ainda mais notável com uma nova ferramenta criada pela gigante tecnológica, Google, que ultrapassa fronteiras da realidade e assemelha-se com uma obra de ficção científica, no qual uma IA consegue ler e reproduzir pensamentos humanos.
Google cria IA capaz de identificar música com base em ondas cerebrais
Foto: Freepik/Reprodução
Imagine escutar uma música, isoladamente e, com apenas suas respostas cerebrais ao estímulo dessa música, uma inteligência artificial conseguir reproduzir com fidelidade os sons ouvidos somente por você!
Pois é isso que o Google, em parceria com cientista da Universidade de Osaka, no Japão, conseguiram desenvolver.
Nomeado de Brain2Music, o sistema é capaz de reproduzir um som correspondente a dado tipo de gênero musical, humor, ritmo e instrumentos da música que ouvida por uma pessoa no momento da leitura de suas ondas do cérebro, feita com o uso de ressonância magnética funcional (fMRI).
No dia 20 de julho, o artigo produzido foi publicado, mas ainda não houve validações pela revisão por pares. Mesmo assim, o software se mostra impressionante, uma vez que conseguiu reproduzir um som com 60% de concordância com a música ouvida pelo participante do estudo, como afirmou Timo Denk, co-autor do estudo e cientista do Google na Suíça.
Como a IA funciona?
Os participantes do estudo foram submetidos à leitura de fluxo sanguíneo no cérebro para identificar quais regiões trabalhavam conforme o estímulo musical dado por trechos de 15 segundos que variavam entre diversos estilos.
Alguns critérios foram estabelecidos, como a aprendizagem da máquina para cada participante, usando uma espécie de linkagem entre as imagens obtidas pela ressonância e as definições padronizadas das músicas, narradas pelos cientistas.
Esse modelo de IA foi alimentado com outro sistema anteriormente criado pela empresa, o MusicLM, que reproduz músicas baseando-se em descrições em texto.
Além disso, a inteligência se mostrou eficaz pela leitura dos dados e identificou, com maior êxito, a música clássica. Timo Denk revelou sua empolgação e positivismo com os resultados:
“O método é bastante robusto […] Se você pegar uma nova pessoa e treinar um modelo para ela, é provável que também funcione bem.”
Os pesquisadores puderam concluir que a música atinge regiões do córtex auditivo primário e o córtex pré-frontal lateral, sendo este segundo o possível responsável por identificar o significado da música. Contudo, para uma conclusão mais sólida, serão necessários mais estudos na área.
Segundo os autores da publicação, o Brain2Music deve ser desenvolvido para compreender músicas criadas na mente sem a necessidade de sons externos apresentados aos participantes. Isso demonstra um avanço significativo na ciência, que atinge novos níveis a cada dia!