perspective | AI prend des cours de musique. Ils ne vont pas très bien.

Commentaire

J’ai entendu l’avenir et cela semble confus. Une explosion cubiste d’un souvenir de musique swing. Du reggae amorphe au charabia dépolitisé. Une chanson de Stevie Wonder coincée dans un satellite. Un jazz doux si doux que vous pouvez à peine dire que vous l’écoutez.

Ce ne sont là que quelques-unes de mes notes après avoir passé du temps à écouter la sortie des nouvelles plates-formes musicales AI. (Je n’appelle pas ça de la musique pour l’instant.)

Si vous avez été en ligne au cours des six derniers mois, vous avez probablement connu le boom de l’intelligence artificielle (IA) sous ses nombreuses formes : des générateurs d’images qui transforment des selfies banals en scènes d’anime héroïques ou en somptueuses peintures à l’huile ; des vidéos deepfake qui renversent la situation sur la personnalité de la télévision Simon Cowell ; des chatbots qui vous font flipper avec leur nouvel acte de sensibilité étrange.

Je dirais que les robots viennent pour ta musique, mais ils sont déjà là. Le concept d’ordinateurs en tant que compositeurs est brusquement passé de la fantaisie durable à la réalité virtuelle.

La musique de l’IA a trouvé sa place dans le courant dominant, vous en avez probablement entendu quelques secondes encore aujourd’hui : bandes sonores publicitaires sur YouTube et Facebook, ou fourniture du contexte émotionnel d’une vidéo TikTok.

La technologie fait rapidement partie de la texture de la culture populaire : en 2019, la société mère de TikTok, ByteDance, a acheté la plate-forme de musique AI Jukedeck, qui a créé des outils permettant aux utilisateurs de modifier la musique pour qu’elle corresponde aux vidéos. En 2020, Shutterstock a acquis certains actifs d’Amper, une autre plate-forme musicale IA qui générait automatiquement de la musique en fonction de paramètres sélectionnés tels que l’ambiance, la durée, le tempo et l’instrumentation.

D’autres services de musique IA, notamment AIVA et Beatoven, offrent aux développeurs de jeux, aux podcasteurs et aux créateurs de contenu des arrière-plans musicaux simples, pratiques et sans redevance pour leurs produits.

Et bien assez tôt, la musique générée automatiquement ne sera peut-être pas automatiquement reléguée à l’arrière-plan : en 2019, Endel, une application algorithmique de génération de musique qui, selon son site Web, prend en compte diverses entrées internes et externes et crée un environnement optimal pour votre contexte actuel, votre état, et le but est devenu le tout premier algorithme à signer [a] accord avec un label majeur, selon un communiqué de presse.

Ce n’est pas de la musique pour tout le monde.

Cette technologie génère une musique infinie qui n’est en fait composée par personne, et c’est une façon terrible, effrayante et affreuse de penser à où la musique pourrait aller, déclare le compositeur Tod Machover. Je veux dire, vraiment, c’est le pire genre de musique d’ascenseur.

La touche humaine est importante pour Machover. Musicien, compositeur, inventeur et professeur, Machover dirige le groupe Opera of the Future du Massachusetts Institute of Technologys Media Lab. Machover travaille beaucoup avec l’IA dans son travail et dans le test bêta des idées de ses étudiants. Le groupe de recherche se concentre sur l’exploration de concepts et de techniques pour aider à faire progresser l’avenir de la composition musicale, de la performance, de l’apprentissage et de l’expression et l’intelligence artificielle est dans l’esprit de tout le monde.

Pour Machover, l’IA représente un moyen d’augmenter de manière exponentielle l’accès à la musique et aux outils créatifs pour la créer. Depuis 1986, il a travaillé sur le développement d’hyperinstruments, qui utilisent des capteurs, le traitement du signal et des logiciels non seulement pour donner un coup de pouce musical aux interprètes virtuoses (comme le violoncelliste Yo-Yo Ma), mais aussi pour construire des instruments de musique interactifs pour les non-professionnels. musiciens, étudiants, mélomanes et public. Il a également développé Hyperscore, décrit par Machover comme un langage de composition graphique pour les jeunes.

Récemment, Machover a créé une version 2.0 de son Brain Opera de 1996, basé sur les idées du regretté théoricien Marvin Minsky, mathématicien du XXe siècle, psychologue, pianiste de toujours et l’un des esprits fondateurs de l’intelligence artificielle. Minsky, décédé en 2016, a exploré toutes ces fascinations dans ses écrits, notamment Music, Mind and Meaning de 1981, pour lequel Machover a récemment écrit un postlude.

La série en cours de Machovers City Symphonies utilise l’IA pour organiser des milliers de sons provenant de résidents de différentes villes. Les sons sont accessibles via une application spéciale, mélangés (ou agités) d’un simple glissement de doigt.

Et avec des étudiants du MIT Media Lab, il a supervisé des projets tels qu’une station de radio expérimentale qui ne diffuse que des chansons générées par l’IA, et un cadre de composition par le doctorant Manaswi Mishra qui peut être utilisé avec sa voix.

Le 7 mars à New York, Machover créera Overstory Overture, sa première œuvre lyrique depuis Schoenberg en 2018 à Hollywood. La mezzo-soprano Joyce DiDonato chantera la pièce de 30 minutes, commandée et interprétée par l’ensemble de chambre Sejong Soloists. Il s’agit du premier mouvement d’une œuvre plus longue que Machover compose sur la base du roman The Overstory, lauréat du prix Pulitzer de Richard Powers en 2018, un livre densément stratifié sur la vie étroitement interconnectée des arbres et des humains.

Les couleurs riches des romans et les évocations détaillées du monde naturel ont inspiré Machover à évoquer le plus fidèlement possible les sons d’une forêt. Il a donc utilisé l’IA pour créer un langage des arbres, une musique grave qui évoque les systèmes racinaires ainsi que des sons plus particulaires (pensez au pollen) et a alimenté le système d’IA avec sa propre palette de sons électroniques et d’enregistrements d’un violoncelle désaccordé.

J’essaie de faire des modèles productifs et utiles et intéressants et beaux, dit le compositeur, et je crois personnellement en une sorte de collaboration entre les gens et la technologie.

Depuis que les humains font de la musique, nous essayons de trouver des moyens pour que la musique se fasse d’elle-même.

Au début, nous nous sommes tournés vers la nature : les harpes éoliennes présentes dans les civilisations anciennes ne nécessitaient que l’intervention du vent pour partager leur chant. Des millénaires plus tard, les orgues mécaniques du XVIe siècle utiliseront la force de l’eau qui coule pour aspirer le souffle dans leur soufflet.

Puis nous avons commencé à jouer à Dieu : En 1736, l’inventeur français Jacques de Vaucanson présenta à l’Académie des sciences de Paris deux automates musicaux (un joueur de flûte mécanique et un joueur de tambourin) et un décidément non (un canard en cuivre doré capable de cancaner, de grignoter et disons simplement digérer).

Puis nous avons traversé notre phase industrielle : Le calliope est apparu au sommet d’un panache de vapeur sous pression au début des années 1850. Et les horlogers, c’est-à-dire les horlogers, ont supervisé un siècle d’innovations dans les boîtes à musique domestiques, les orgues à rouleaux, les pianos mécaniques et autres divertissements musicaux maladroits à manivelle, à disque ou pneumatiques : symphonions, polyphons, orchestrions, pour n’en nommer que quelques-uns.

Puis nous sommes devenus futuristes : l’avènement de la synthèse et des séquences analogiques au milieu du XXe siècle a inauguré une vague de musique automatisée et programmable. Il s’agit notamment des premières expériences de boucles sur bande d’artistes tels que liane Radigue, Terry Riley, Karlheinz Stockhausen et surtout Brian Eno, dont les techniques musicales autogénératrices sur son album de 1975 Discreet Music ont contribué à définir le genre de musique ambiante.

Mais le dernier véritable changement de paradigme est arrivé en 1983, lorsque le premier câble à cinq broches a été utilisé pour transmettre le MIDI, c’est-à-dire l’interface numérique des instruments de musique, un langage musical numérique qui a révolutionné la façon dont la musique est conceptualisée, composée, enregistrée et interprétée.

Le début des années 80 voit aussi les premières expérimentations de composition assistée par ordinateur. Le compositeur David Cope s’est lancé dans ses Experiments in Music Intelligence en 1981 pour lutter contre un bloc de compositeurs et a fini par créer des évocations algorithmiques de divers compositeurs classiques qui, selon son site Web, ont ravi, irrité, provoqué et terrifié ceux qui les ont entendus. Le travail de Copes fait l’objet d’une nouvelle écoute via le documentaire Jae Shims 2022 Opus Cope: An Algorithmic Opera (qui a également contribué à informer le développement de Machovers sur Hyperscore.)

La journaliste Danielle Abril teste le chroniqueur Geoffrey A. Fowler pour voir s’il peut faire la différence entre un e-mail écrit par elle ou ChatGPT. (Vidéo : Monica Rodman/The Washington Post)

Les systèmes musicaux d’aujourd’hui alimentés par l’IA fonctionnent comme des extensions à grande échelle du travail de Copes utilisant l’apprentissage automatique pour passer au crible d’énormes quantités de données afin de discerner les modèles, les textures et les complexités. Comme les générateurs d’images et de vidéos populaires en ligne, ces systèmes peuvent répondre aux invites et générer (pardonnez les guillemets effrayants) de la musique originale.

Mais comme ces autres générateurs, la sortie de ces systèmes peut ressembler à de la musique à certains égards et diverger d’une manière que je ne peux décrire que comme l’équivalent musical d’un septième doigt ou d’une rangée supplémentaire de dents étrangement souriantes.

Un problème est que ces systèmes ne connaissent pas grand-chose à la musique, dit Machover. La seconde est que nous pouvons assez bien décrire une image. Nous pouvons utiliser quelque chose qui est purement textuel. Mais que signifie décrire la musique avec des mots ?

OpenAI, la société à l’origine des moteurs d’IA très populaires, en développement rapide et profondément préoccupants ChatGPT et DALL-E 2, a récemment introduit Jukebox, un réseau neuronal générateur de musique qui peut produire de la musique à partir de zéro une fois formé ou conditionné avec diverses entrées : audio, genre, même les paroles (l’équivalent au 21e siècle de peut-être si vous fredonnez quelques mesures).

Cela signifie que 12 secondes d’un hit de Stevie Wonder peuvent conditionner le système pour terminer la chanson comme il le suppose. Si vous avez déjà écouté quelqu’un qui n’a aucune mémoire pour une mélodie et aucun talent pour fredonner, vous avez une idée de ce à quoi cela pourrait ressembler.

Exemple de bloc HTML

Il existe également MusicLM, un produit en cours de développement d’une équipe de recherche Google qui, selon la société, peut générer de la musique haute fidélité à partir de descriptions textuelles. Il peut s’agir d’une simple mélodie de violon apaisante soutenue par un riff de guitare déformé ou d’une chanson reggae relativement complexe à tempo lent, basse et batterie. Guitare électrique soutenue. Bongos aigus avec sonneries. Les voix sont détendues avec une sensation décontractée, très expressive. La musique est agressivement indescriptible, mais la plupart pourraient parfaitement s’intégrer à une fête sans trop faire de scène.

Mais aussi proches que certains sons se rapprochent d’idées musicales que j’écoute volontiers, rien de ce que j’ai entendu des robots n’approche quelque chose qui ressemble à un bop.

Plus vous faites quelque chose de synthétique, plus il essaie de ressembler à quelque chose de réel, plus il est inconfortable, dit Machover à propos de l’étrange ambiance de vallée générée par cette musique de robotroïde. Plus c’est proche de l’humain, plus je peux faire la différence et plus j’aime, beurk ! Cela me dérange vraiment.

C’est peut-être pour cette raison que la musique que j’ai entendue des générateurs d’IA me laisse si froid et effrayé. L’absence d’une main humaine rendue flagrante et inconfortable par les plus infimes défaillances de l’intuition approximative peut faire de l’expérience d’écoute un échange sans valeur, de la musique une monnaie d’échange.

Quand nous savons qu’il y a une personne de l’autre côté d’une chanson, d’une phrase ou d’un geste, il reste le sens d’une connexion, une compréhension capable d’effondrer le temps et la distance même si cette personne est morte depuis des siècles, même si cette phrase n’existe que comme une égratignure sur du papier ou de la cire.

Mais il n’y a pas de message dans la bouteille proverbiale de l’IA. L’IA n’a aucune intention artistique, aucun esprit créatif, rien à sortir du coffre qu’elle n’a pas. Toute réponse émotionnelle que vous pourriez avoir est une projection à 100 %, et ça ne fait pas du bien. Pour le moment, l’IA reste un modèle qui s’affine, pas un artiste qui vous tend la main. Son objectif est une performance optimale, pas une libération extatique.

Les morceaux de musique ne sont pas que des morceaux de son, dit Machover. Ils sont parce qu’un être humain pensait que quelque chose était important à communiquer et à exprimer.

D’autre part et pour pirater une phrase d’Aretha Franklin, les systèmes le font pour eux-mêmes.

Ouverture de l’histoire de Tod Machovers premières le 7 mars à Alice Tully Hall, 1941 Broadway, New York. lincolncenter.org.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite