Trata-se de um sistema informático bimodal inovador que junta informação textual e acústica, obtida através de tecnologias de inteligência artificial, machine learning, processamento de sinal áudio e processamento de linguagem natural, para classificar as músicas com base no seu conteúdo emocional, ou seja, detetar e entender as emoções contidas na música.
Este sistema bimodal foi desenvolvido no âmbito de um projeto financiado pela Fundação para a Ciência e a Tecnologia (FCT) do qual resultaram as teses de doutoramento de Renato Panda e Ricardo Malheiro, sob orientação do professor Rui Pedro Paiva.
Tendo em conta que identificar a emoção é um processo extremamente complexo e subjetivo, os investigadores tiveram de superar vários desafios até chegarem a um protótipo fiável, que permitissem juntar num único sistema informático duas abordagens distintas: a análise do som e a análise da letra.
Renato Panda focou-se no reconhecimento de emoções musicais com base em sinais de áudio. Com recurso a técnicas de análise da onda sonora, em que é possível extrair caraterísticas musicais com relevância emocional, como, por exemplo, a tonalidade ou o tempo, o investigador criou descritores acústicos explorando oito dimensões musicais: melodia, harmonia, ritmo, dinâmica, tom, expressividade, textura e forma musical.
Em seguida, para testar e validar a eficácia desta abordagem no reconhecimento de emoções, foi construída uma base de dados pública (disponível em mir.dei.uc.pt, que pode e deve ser usada por outros investigadores da área) contendo 900 músicas. Os algoritmos inteligentes desenvolvidos mapearam as músicas e classificaram as emoções presentes em cada uma delas.
Por seu lado, Ricardo Malheiro explorou a informação textual das letras das canções. Usando técnicas de processamento de linguagem natural, criou atributos estilísticos, semânticos, etc., com relevância emocional que possibilitassem o estudo da relação entre as letras e as emoções. Foi possível encontrar combinações de palavras que correspondem a uma música triste, romântica ou alegre.
Ambos os estudos foram desenvolvidos a partir do modelo circumplexo da emoção de Russell, um modelo psicológico que assenta em dois eixos: horizontal (valência) e vertical (ativação) - a valência relaciona-se com o tipo de emoção, positiva ou negativa, e a ativação com a energia presente na música.
"Se pensarmos que a música tem um impacto socioeconómico muito relevante, este tipo de sistemas é muito vantajoso, já que permite pesquisas automáticas avançadas adequadas às exigências dos utilizadores", destaca Rui Pedro Paiva.
Serviços como o Spotify (serviço de streaming de música, podcast e vídeo) ou Pandora (serviço de rádio streaming) "terão muito a ganhar com sistemas de reconhecimento automático de emoções na música, permitindo gerar rapidamente playlists adequadas a cada contexto emocional desejado, por exemplo, uma festa ou prática de exercício físico", especifica o especialista em reconhecimento de emoções musicais da FCTUC. Mas não só. "Este sistema poderá ser aplicado no cinema ou na publicidade, tornando muito mais fácil a elaboração de uma banda sonora adequada ao tema de um filme ou a procura de músicas específicas para captar os clientes desejados", acrescenta.
Outra aplicação possível é na área da saúde. Sabendo-se que a música tem o potencial de induzir emoções em quem a ouve, este sistema poderá ser aplicado, por exemplo, na musicoterapia.
A classificação de emoções em música através do computador é uma área de investigação muito recente, com várias possibilidades em aberto e espaço para melhorias. Nesse sentido, Rui Pedro Paiva esclarece que o sistema desenvolvido «ainda carece de melhorias, nomeadamente ao nível de precisão, para que possa entrar no mercado real. Queremos realizar mais testes e explorar outras possibilidades como, por exemplo, avaliar a variação das emoções ao longo de uma música».
Comentários