Actu

Deezer développe une IA capable de détecter « l’humeur » qui se rapporte à une chanson

24 septembre 2018
Par Thomas Estimbre
Deezer développe une IA capable de détecter "l'humeur" qui se rapporte à une chanson

Les chercheurs de Deezer ont mis au point un système d’intelligence artificielle capable d’associer des chansons à des humeurs et ambiances. Une avancée dans un domaine où les machines ont souvent rencontré des difficultés.

L’oreille humaine n’a aucune difficulté à faire le tri entre les chansons « tristes » et les chansons « qui rendent heureux ». Les paroles sont souvent un bon indicateur, mais pas seulement, le rythme du morceau permet aussi de définir l’humeur musicale d’une chanson, qu’elle soit mélancolique et calme ou rythmée et passionnée. Pour les machines, l’exercice est nettement plus difficile, même pour l’intelligence artificielle.

 © Deezer
© Deezer

Des chercheurs de Deezer ont travaillé sur la question et ont mis au point un système d’IA capable d’associer certaines chansons à des humeurs et ambiances, rapporte le site The Verge. Ils ont publié l’avancée de leurs travaux dans un article intitulé Music Mood Detection Based on Audio Lyrics With Deep Neural Nets et récemment publié sur Arxiv.org (PDF).

« La détection automatique de l’humeur musicale est un domaine de recherche actif… depuis une vingtaine d’années », précisent-ils. « Elle consiste à déterminer automatiquement l’émotion ressentie à l’écoute d’un titre. Dans ce travail, nous nous concentrons sur la détection multimodale de l’humeur basée sur le signal audio et les paroles de la piste ».

Pour leur projet, ils ont introduit des signaux audio dans un réseau neuronal, ainsi que des modèles qui reconstruisent les contextes linguistiques des mots. Ensuite, ils ont utilisé le Million Song Dataset (MSD), une immense base de métadonnées comprenant plus d’un million de chansons contemporaines, pour apprendre à l’IA à déterminer l’humeur d’une chanson. Les chercheurs ont notamment utilisé les tags de Last.fm dont certains sont associés à l’humeur ainsi que 14 000 mots anglais permettant de définir une chanson. Ces derniers étaient classés comme « négatifs » ou « positifs » et définis en fonction de leur humeur, de « calme » à « énergique ». En tenant compte du fait que cette base ne contient que les métadonnées pour les chansons – et non les chansons elles-mêmes – l’équipe a couplé ces informations au catalogue de Deezer. Ils ont alors utilisé le titre des chansons, le nom de l’artiste ainsi que le titre de l’album.

Les émotions musicales, un défi pour l’IA

Environ 60 % des données obtenues, soit 18 644 pistes au total, ont été utilisées pour former le modèle, tandis que les 40 % restants ont été réservés à la validation et aux essais. Les chercheurs expliquent que l’IA (deep learning ou apprentissage profond) s’est montrée plus efficace pour définir à quel point une chanson était calme ou énergique que les systèmes classiques s’appuyant sur des lexiques liés à l’émotion. En revanche, le système a montré quelques limites concernant sa capacité à définir si une chanson était positive ou négative avec des résultats à peu près équivalents, mais une tendance encore trop marquée à donner de mauvais résultats.

« Il semble que ce gain de performance soit le résultat de la capacité de notre modèle à dévoiler et à utiliser des corrélations de niveau intermédiaire entre l’audio et les paroles, en particulier lorsqu’il s’agit de prédire la valence« , expliquent les chercheurs. Ces derniers croient que ce genre de travail pourra à l’avenir permettre d’analyser le lien entre la musique, les paroles et l’humeur. Cela permettra ainsi de développer des modèles d’apprentissage capable de trouver et trier des données en grand volume.

Article rédigé par
Thomas Estimbre
Thomas Estimbre
Journaliste
Pour aller plus loin