
L’objectif de cet article est de rebondir sur l’article d’une étudiante du MBA DMB. Son sujet concerne l’utilisation de l’IA au service du streaming musical.
Dans un premier temps, nous découvrirons l’IA utilisée pour la création de la playlist Spotify « Découverte de la Semaine » et son fonctionnement.
Dans un second temps, j’exposerai les ambitions d’Ircam Amplify, société française créée par l’Institut de recherche nommé Ircam. Cette entreprise travaille actuellement sur le futur de l’intelligence artificielle. Son but est de réinventer notre expérience de streaming musical.
De la playlist « Flow » de Deezer aux « Découvertes de la semaine » sur Spotify jusqu’au « Mix de Découverte » d’Apple Music, l’intelligence artificielle et le « machine learning » constituent la base de ces playlists personnalisées.
L’objectif des plateformes de streaming : apprendre à connaître tes goûts musicaux de manière continue. Leur but ? Te proposer du contenu toujours plus personnalisé et donc, améliorer ton expérience d’écoute.
La récolte de données :
La plateforme de musique récolte tes données de streaming de manière continue afin de connaître le plus possible tes goûts. Elle va être en mesure d’identifier les styles de musique que tu affectionnes et ceux que tu écoutes actuellement.
Prenons l’exemple de Spotify. C’est une entreprise dite « Data Driven ». Elle examine et interprète ses données de manière à mieux les organiser, ce qui lui permet d’avoir une meilleure connaissance de ses utilisateurs. Ses algorithmes de recommandation sont donc « entrainés » et constamment alimentés pour une personnalisation optimale.
La création de la playlist « Découverte de la semaine » :
Pour te proposer chaque semaine cette playlist de découverte comprenant 50 morceaux, Spotify ne se contente pas d’analyser uniquement la musique que tu écoutes.
La plateforme de streaming n°1 utilisée par plus de 380 millions d’utilisateurs, analyse en continu les playlists de l’ensemble de ses abonnés et les compare aux musiques que tu écoutes. Ainsi, Spotify identifie des similitudes d’écoute avec d’autres utilisateurs (en terme d’artistes écoutés, de style, de rythme de musiques…) et te propose des artistes que tu n’aurais jamais « streamé » et susceptibles de te plaire.
Voici les 3 principales intelligences artificielles utilisées par Spotify pour garantir la meilleure personnalisation possible :
- Le Collaborative Filtering : Système intelligent (utilisé aussi par Netflix, Amazon…) qui suggère du contenu pertinent en se basant sur tes écoutes et recherches, le tout en les comparant à celles des autres utilisateurs.
Exemple :
Si tu écoutes Cardi B, l’outil va interpréter que tu aimes le rap US de type « banger ». Ensuite, il analyse les playlists des autres utilisateurs écoutant eux aussi cet artiste, de manière à te proposer des artistes similaires comme Nicky Minaj, Megan Thee Stallion ou encore Migos.
- Le Natural Langage Processing (NLP) : Outil servant à faire des recommandations en se basant sur 2 éléments : les métadonnées (donnée servant à décrire une autre donnée) issues d’un morceau/artiste, et la popularité d’un morceau. En clair, l’outil collecte ces métadonnées au travers d’articles ou blogs présents sur internet et associe à ces morceaux ou artistes des mots clés. L’objectif est de recommander des musiques ayant des mots clés associés au morceau joué précédemment. Le NLP garantit donc une cohérence d’écoute aléatoire.
Exemple :
- Le NLP collecte de la métadonnée sur le groupe ABBA au travers d’articles sur internet
- Cette collecte fait remonter des mots clés associés au groupe ABBA tel que « Disco Era », « Dancing Queen », « Mamma Mia » …
- Lorsque vous jouerez une chanson de ABBA en aléatoire, le titre Dancing Queen peut apparaitre dans vos recommandations
– L’Audio Model :
L’Audio Model est une technologie principalement utilisée pour la reconnaissance faciale. Rien à voir avec la musique au premier abord, mais analyser un visage permet d’analyser des formes. Et c’est ce que fait cet outil. Il analyse et décortique la forme de chaque musique, mais pas seulement. L’Audio Model transforme chaque fichier audio en onde comme ci dessous :

En l’analysant, l’outil fera ressortir bon nombre d’informations tel que le BPM (battement par minute/rythme) de chaque musique, la tonalité utilisée (tonalité majeure considérée comme joyeuse/tonique ou mineure plutôt mélancolique/sentimentale), le type d’instruments utilisés ou tout simplement le volume sonore de la chanson.
Exemple :
Si tu écoutes régulièrement de la Salsa aux rythmes entrainants (environ 100 BPM) et généralement composé dans une tonalité majeure, alors l’Audio Model te proposera des morceaux disposant de critères similaires afin de te satisfaire.
La personnalisation de la playlist « Découverte de la semaine » de Spotify repose sur une récolte et une classification continue de tes données. Le tout lié à une analyse basée sur tes écoutes et celle des autres (Collaborative Filtering), sur les informations issues d’articles présents sur internet (pour le NLP) et sur la composition des musiques que tu écoutes (Audio Model).
VERS UNE PERSONNALISATION DES PLAYLISTS PLUS OPTIMALE
Nous venons de nous pencher sur le fonctionnement de la playlist « Découverte de la Semaine » de Spotify. Si vous utilisez une plateforme de streaming, vous n’êtes pas sans savoir que ce n’est pas la seule playlist que l’on vous propose. Je pense à ces playlists de « mood », qui vous accompagnent dans vos moments de vie comme votre séance de sport, en voiture ou encore lors d’une séance de travail.

Des playlists plus performantes en terme de découverte
Ces personnalisations de playlists et ces recommandations ne sont pas au goût de tous, et notamment au goût de Frédéric Amadu. Il est l’actuel Directeur des Nouvelles Technologies et Garant de l’Innovation (CTO) d’Ircam Amplify.
Comme énoncé en début d’article, Ircam Amplify est une société française créée par l’Institut de recherche nommé Ircam. Cette dernière oeuvre actuellement sur le futur de l’intelligence artificielle dans le but de réinventer notre expérience de streaming musical.
Selon Mr. Amadu, ces recommandations de playlists seraient trop automatisées et impersonnelles. En d’autres termes, ces playlists créées grâce aux algorithmes font face à deux problèmes :
- Les recommandations que nous recevons ne font que nous conforter dans nos goûts musicaux sans nous pousser réellement de véritables découvertes musicales.
- La classification des morceaux par les algorithmes et autres intelligences artificielles actuelles n’est pas suffisamment précise pour que la personnalisation soit optimale.
Son collègue, Nicolas Pingnelain, responsable commercial chez Ircam Amplify, nous explique :
« Nous avons aujourd’hui un flux de production pléthorique et donc une multitude de choix. Pourtant, nous n’avons jamais autant écouté les mêmes choses ».
Pour mettre en oeuvre leur ambition d’améliorer la personnalisation et la découverte musicale, Ircam Amplify a lancé en mars 2021 le projet Metasound.
Avec Metasound, ils souhaitent mettre en place une solution qui accompagne les distributeurs et les diffuseurs musicaux afin d’anticiper l’avenir de notre consommation musicale, le tout, grâce à une utilisation de la data et de l’intelligence artificielle plus sophistiquée.
Les 2 objectifs principaux de Metasound sont les suivants :
- Favoriser la découverte de nouveaux artistes dans la recommandation musicale grâce à de nouveaux ponts créés entre des titres de genres et d’univers différents ;
- Créer des playlists intelligentes et évolutives en allant au delà des playlists linéaires (comme celles pour faire du sport ou étudier).
Pour ce faire, Ircam Amplify est épaulé par la maison de disques française Believe, avec laquelle ils travaillent sur la classification et la qualification des catalogues musicaux. Ils analysent en profondeur une multitudes de morceaux avec des paramètres prédéfinis et leur attribuent un mood ou une perception particulière bien précise.
Chaque morceau sera comme doté d’une sorte de « carte d’identité » reprenant son style émotionnel, son intensité ou encore son ambiance musicale.
Ils se basent sur une expertise de plus de 40 ans de savoir faire et de recherches de l’Ircam. Ils disposent donc d’outils d’analyse et d’algorithmes développés. Ces outils sont capables d’extraire des musiques des informations encore inexploitées aujourd’hui.
L’AVENIR DE LA PERSONNALISATION DE L’EXPÉRIENCE DE STREAMING MUSICAL ?
Ircam Amplify se projette déjà sur nos futures habitudes de consommation de la musique. Notre monde étant en constante évolution grâce aux innovations et nouvelles technologies, ils souhaitent prendre part à cette évolution et ambitionnent de pousser la personnalisation à son maximum. Voici leurs projections et projets dans les années à venir :
2023 – 2026 : Une expérience musicale en symbiose avec notre environnement
Pour garantir une expérience toujours plus personnalisée et en adéquation avec notre environnement, Ircam Amplify aspire à ce que la musique nous accompagne de manière toujours plus fluide et personnalisée dans notre quotidien. Voyons un exemple de leurs travaux en cours pour 2023 avec le « Descripteur en temps réel » :
Le descripteur en temps réel est une technologie qui analyse en direct aussi bien la musique que nous écoutons que l’ambiance sonore du lieu dans lequel nous sommes. Le DTR est donc en mesure d’identifier les conditions dans lesquelles nous écoutons notre musique. Il identifiera si nous écoutons de la musique seul ou à plusieurs, si l’endroit est plus ou moins bruyant ou encore l’énergie de la pièce dans laquelle nous nous trouvons.
Son objectif étant d’épouser du mieux possible le moment que nous vivons et de l’accompagner de bout en bout en adaptant par exemple le volume sonore ou encore les propositions musicales.
C’est la quête « du bon contenu, au bon moment, pour un usage donné ».
C’est en liant cette technologie au « machine learning » que l’expérience d’écoute s’enrichira aussi bien en termes de découvertes que d’expériences vécues.
Leur ambition pour 2026 serait d’assurer aussi bien une fluidité d’écoute lors des changements de supports audio, qu’une personnalisation musicale en fonction de notre géolocalisation.
L’objectif final serait que la musique nous accompagne naturellement lorsque l’on quitte notre maison pour se déclencher automatiquement une fois dans notre voiture, puis qu’elle s’active par la suite dans nos écouteurs une fois dans la rue. Le tout agrémenté d’une personnalisation en fonction de notre localisation.
La course à la personnalisation fait rage dans beaucoup de domaines, aussi bien dans le streaming musical comme nous l’avons vu, que le streaming vidéo et autres plateformes de e-commerce. La clé de cette personnalisation réside dans la connaissance de ses utilisateurs par le biais d’une récolte de données permanente et d’intelligences artificielles toujours plus sophistiquées.
La mise en oeuvre de tels projets peut sembler compliqué ou même faire peur. Le degré de personnalisation étant poussé au maximum, une question subsiste :
Comment garantir la protection de nos données personnelles lorsque les entreprises aspirent à personnaliser toujours plus nos expériences ?