L'avenir des musiciens et compositeurs ? Intelligence Artificielle

close
FILTRES DE LA RECHERCHE

webmaster

God of Partoch
Tabber motivé
Tab à donf !
1 photo
9204 messages
Modérateur
Administrateur
Salut tout le monde.

Je suis rentré de vecances, je lis la presse musicale, et il s'est passé des trucs cet été.
Depuis quelques temps les intelligences artificielles s'imposent un peu partout.
Dans l'image, avec Midjourney ou Stable Diffusion, dans le texte/langage avec ChatGpt par exemple, et dans la musique avec des IA beaucoup moins connues comme MousAI, moins connues car clairement de mauvaise qualité. En zic, le résultat ne correspondait généralement pas à ce que l'on demandait, et la qualité du son était généralement mauvaise. C'était pas vraiment utilisable.

Mais voilà, comme dans les autres domaines, ça évolue. Et les IA dans le son commencent à être assez bluffantes. Cet été sont sorties "Audiocraft", une suite de logiciels audio développée par Meta (Facebook), et "JEN-1", qui est clairement le début d'une grosse évolution dans la musique.

Avec ces AI, on peut générer tout ce qu'on veut, en le demandant simplement (une simple phrase), ou de façon plus détaillée en spécifiant par exemple le tempo, la gamme, etc...
Ecoutez les exemples sur cette page : https://www.futureverse.com/research/jen/demos/jen1
Dans le tableau, la colonne "prompt" c'est la phrase en anglais qu'on a donné aux IA, et les résultats à écouter pour chaque IA de la plus récente à gauche à la plus ancienne à droite. On est encore loin de la qualité studio, mais ce que balance JEN-1 pour une simple phrase est très au dessus des IA précédentes, et à un niveau qui commence à être exploitable pour le zicos lambda.

Ces IA ne font pas que générer des morceaux : elles peuvent modifier à la demande une partie d'un morceau existant, ou même inventer la suite/le début.
Un truc intéressant pour un zicos : on peut leur balancer un son pour les aider à générer un morceau. Clairement : vous avez une mélodie en tête, vous la sifflez au micro de votre pc, ou vous lui jouer les quelques notes sur votre gratte (au micro ou vous lui balancez un mp3), et elle vous génére un morceau complet...
Vous avez pondu un truc et vous trouvez que c'est moyen, qu'il y a quelque chose qui cloche ? Donnez lui le mp3, elle travaillera pour vous en proposer d'autres versions.

Voir cette vidéo assez ludique qui explique ce que proposera Jen-1, et qui montre l'install et l'utilisation sur son pc d'audioCraft:




My2cents, la vitesse à laquelle des IA se développe est impressionnante. Aux US, des tas d'articles prévoient l'arrivée de la musique générée à la demande pour tous, dans moins de 5 ans. En gros, la qualité et la vitesse de génération seront déjà tellement avancés, que vous pourrez demander un style de musique à votre téléphone/Pc, et il débutera une "radio" en très haute qualité, dans le style demandé, générée en temps réel, suffisamment pointue pour qu'un utilisateur lambda soit incapable de savoir si c'est de l'IA ou des enregistrements studio "réels".
Les prévisions c'est que dans moins de 10 ans, s'ajoutera à cela les chanteurs virtuels sur la musique. Les meilleurs IA de languages sont déjà capables de générer de bonnes chansons, restent à perfectionner les IA de voix/chant (JEN-1 propose déjà des voix sur la musique, mais pas réaliste pour l'instant).

Il y a aussi des IA d'analyses audio sont en cours de dev. Elles sont déjà capables d'identifier sur les 40 dernières années, les spécificités qui font que certains morceaux deviennent des tubes, et pas d'autres. Elles sont inversement capables de donner des % de chances qu'un morceau perce, ou pas, avant même son lancement. Couplées à une une IA de génération audio/text, le morceau et ses paroles pourront être corrigés 10 000 fois s'il faut, pour atteindre un % de popularité potentielle maximum : Le rêve des producteurs...
Pour info, il se passe déjà la même chose pour les scripts de séries dans le domaine de la production vidéo : en quelques minutes des IA pondent des scripts complets d'épisodes avec des calculs de satisfaction calculés à partir des millions de notes déjà donnés par les internautes sur les séries existantes. C'est l'une des raisons de la grève des auteurs aux US.


Du coup, vous voyez comment l'avenir de la musique ?
Les IA vont booster les musiciens, on va avoir une montée en qualité, les artistes sortiront plus d'albums plus vite car les IA vont leur rendre le boulot plus facile. On va avoir encore plus de diversité musicale parce que les zicos auront plus de temps et parce que les IA vont proposer des styles pas/peu exploités aujourd'hui?
Ou au contraire, les musiciens vont devenir ringards, inutiles, et on va être inodé de morceaux tous plus ou moins identiques, générés et optimisés pour booster le nombre d'écoutes et la rentabilité du secteur ?
Autre possibilité : la musique ne sera plus le domaine des artistes, ou des producteurs, les radios et streaming qui passent les artistes "connus" vont disparaitre peu à peu, et il n'y aura plus de modes musicales ou de stars, puisque chacun générera à la demande ce qu'il a envie d'entendre, ou ce que l'IA considérera le plus adapté pour ce que l'utilisateur fait à un moment donné. Au final plus personne n'écoutera la même chose mais tout le monde écoutera toujours un morceau adapté à ce qu'il vit à chaque instant.

A votre avis ?

Webby



>> Plan du Forum Compositions | suivi de la discussion | Tags : les, des, plus, musique, morceau, qualit, vont, moins, jen



+