Entre l'idée et l'oeuvre: Parcours de l'informatique musicale

Marc Battier

 


 

Entre l'idée et l'oeuvre : Parcours de l'informatique musicale est publié cette année
dans: Esthétique des arts médiatiques sous la direction de Louise Poissant, Presses de
l'Université du Québec, 1995. Nous en publions ici un large extrait grâce à l'aimable
autorisation de Mme Poissant.

Introduction

Si l'informatique musicale nous importe tant aujourd'hui, c'est qu'elle a progressivement créé
des outils qui sont en train de modifier radicalement la manière de penser la musique. Pourtant,
son histoire est courte. Elle se confond avec le développement des technologies numériques: des
ordinateurs, d'abord, accompagnés par la création des langages symboliques destinés à la
programmation, puis avec toute une cohorte d'inventions en technologie numérique. Assez tôt
dans son histoire, l'informatique se montrera suffisamment mûre pour accueillir des
préoccupations de toutes sortes, allant de la comptabilité à la recherche scientifique, en passant
naturellement par ce qui nous intéresse, la création artistique. Et les musiciens s'enorgueillissent
d'avoir été les premiers parmi les artistes à s'approprier l'ordinateur.

Et c'est sans doute là qu'il faut distinguer ce qui ressort de l'informatique proprement dite, et ce
qui appartient plutôt au monde plus large de la technologie numérique. La musique puise
amplement dans ces deux domaines ses nouvelles ressources. Toutefois, puisque le domaine du
son est aujourd'hui converti en audionumérique, la distinction s'impose. L'informatique
musicale naît de la rencontre des préoccupations musicales et de l'environnement issu des
technologies numériques et de la spécificité de l'ordinateur, d'une part, et des domaines
scientifiques qui éclairent ses thèmes de recherche. Si la composition musicale y figure en bonne
place, pratiquement toutes les autres activités de la musique s'y retrouvent. Et la recherche
musicale recouvre en partie le terrain défriché par l'informatique, l'acoustique, le traitement du
signal, voire la psychologie cognitive: c'est ainsi que l'informatique musicale se situe au centre
de plusieurs champs musicaux, scientifiques et techniques.

Mais c'est le recours aux apports spécifiques de l'informatique qui caractérise sa démarche. De
nouveaux outils conceptuels sont sans cesse fournis par l'intelligence artificielle, qui se
concrétisent par des langages tels que Lisp ou Prolog. Ils sont aussitôt mis au service de
l'analyse musicologique ou de l'aide à la composition. La recherche en systèmes temps réel et sur
les interfaces interactifs permet de concevoir de nouvelles liaisons entre l'instrumentiste et
l'univers électronique.

Grandes étapes de l'informatique musicale

A l'origine de l'informatique musicale, on trouve deux types d'activités, indépendantes l'une de
l'autre. Si ces activités perdurent aujourd'hui, c'est d'une autre manière que la vision originelle
qui a provoqué leur naissance pouvait laisser prévoir. Ces deux types d'activités sont: la
composition musicale, et la production du son. Dans les deux cas, la fabrication du résultat
souhaité est assuré par l'ordinateur. Ces deux types d'activités sont sensiblement
contemporaines. Les premiers essais sérieux de composition musicale par ordinateur remontent à
1956: c'est à cette date que Lejaren Hiller a calculé une partition à l'aide de règles encodées sous
forme d'algorithmes sur l'ordinateur Illiac I de l'université de l'Illinois. Il s'agit de la Illiac
Suite for String Quartet, dont les trois premiers mouvements sont exécutés cette année-là par le
quatuor à cordes WQXR. Dans un ouvrage célèbre, publié en 1959 et qui porte le titre de
Experimental Music-Composition with an Electronic Computer, Lejaren Hiller expose en
détail les procédures qu'il a appliquées à l'ordinateur Illiac afin de produire la partition de son
quatuor à cordes.

Pour situer cette période, c'est aussi en 1956 que John McCarthy forgea le terme d'intelligence
artificielle. Un an plus tard, Max Mathews, chercheur aux laboratoires du Telephone Bell, dans
le New Jersey, écrit un premier programme de synthèse numérique du son pour l'ordinateur IBM
704. Connu aujourd'hui sous le nom de Music I, il est le premier d'une grande famille de
compilateurs acoustiques; un psychologue, Newman Guttman, génère une première étude d'une
durée de 15 secondes, In the Silver Scale. C'est aussi en 1957 que les quatre mouvements de la
Illiac Suite for String Quartet de Lejaren Hiller sont publiés; la même année naît la version
primitive du célèbre langage de programme Fortran (FORmula TRANslator). Notons que lors
de la création de l'oeuvre de Hiller par le quatuor à cordes WQXR, c'est Max Mathews qui
organisa un enregistrement, ce qui donna lieu, par la suite, à la publication de cet enregistrement
dans un disque réalisé en 1960 par les Laboratoires Bell, et intitulé Music from Mathematics:
même si les voies tracées par ces deux inventeurs sont indépendantes, il ne sera pas dit qu'elles
ne se croisèrent pas...

A partir de ces deux événements quasiment contemporains, le développement va se poursuivre,
progressivement, dans les directions tracées: la composition et la production du son. Nous en
verrons plus bas les parcours. Mais une troisième voie ne tarde pas à apparaître: elle naît de la
même constatation qu'avait faite Hiller: l'ordinateur est avant tout, à cette époque, une formidable
machine à calculer. D'ailleurs, le terme anglais de computer choisi désignait, avant l'apparition de
ces machines, les employés chargés d'opérer des calculs. Mais en même temps, avec un brin
d'effroi, on parlait volontiers à l'époque de cerveaux électroniques. Un artiste ne pouvait
s'approcher de l'ordinateur non sans une certaine émotion, qui explique sans aucun doute l'attrait
parfois terrifiant qu'exercera l'informatique sur les artistes des décennies suivantes. Mais ce sont
deux scientifiques qui sont à l'origine de ces expériences: Hiller pratiquait la chimie, tandis que
Mathews était un chercheur déjà renommé. C'est sans doute ce qui explique les remarquables
méthodologies qu'ils mirent en place, chacun de leur côté, et dans des buts tout à fait
indépendants.

Aux laboratoires Bell, Max Mathews, de son côté, écrit en 1957 un premier programme de
synthèse numérique du son pour l'ordinateur IBM 704, équipé de 4096 mots de mémoire.
Connu aujourd'hui sous le nom de Music I, il est le premier d'une grande famille. Le programme
Music III (1960) introduit le concept d'instrument modulaire. Le modèle imaginé par Max
Mathews s'inspire plus d'un appareillage de laboratoire ou d'un studio de musique électronique
que d'une lutherie acoustique. Le programme offre une gamme de modules indépendants (Unit
Generators), chargés chacun d'une fonction élémentaire: oscillateur à forme d'onde
programmable, additionneur de signaux, multiplicateur, générateur d'enveloppes et de signaux
aléatoires, etc... Le musicien construit un instrument en reliant une sélection de modules entre
eux. Les signaux produits par les oscillateurs ou les générateurs sont conduits vers d'autres
modules pour y être modifiés ou mélangés. Plusieurs instruments peuvent être réunis au sein
d'un orchestre , chaque instrument possédant sa propre identité. Contrairement à ce qui se passe
dans l'univers matériel, il n'y pas de limite au nombre de modules utilisables simultanément, sauf
peut-être la mémoire de l'ordinateur. Le résultat de la mise en oeuvre de l'instrument est le calcul
progressif du son sous la forme d'une séquence de nombres qui, mis bout à bout, représentent
une onde sonore complexe. Ces nombres sont appelés des échantillons . Aujourd'hui, le nombre
d'échantillons représentant une seconde de son a été établi à 44 100 par canal pour les
applications grand public, et à 48 000 pour le domaine professionnel.

Du fait de la relative lenteur des machines et de la masse de calculs à effectuer, le temps mis à
générer l'onde sonore est bien supérieur à la durée des sons; le fonctionnement de ces
programmes est dit en temps différé . A l'origine, les ondes sonores calculées sous forme
numérique étaient stockées sur une bande numérique se déroulant au fur et à mesure de la fin
d'un bloc de calcul d'échantillons. Ce mode de production du son est appelé synthèse directe .
Ainsi se crée un fichier de son ; une fois achevé, le musicien fait appel à un second programme,
chargé de lire le fichier de son en temps réel et d'envoyer les échantillons vers un convertisseur
numérique-analogique, qui est relié à un amplificateur et à des haut-parleurs.

Pour activer l'orchestre, le musicien doit rédiger une partition , dans laquelle sont spécifiés tous
les paramètres réclamés par les modules de l'instrument. Cette partition se présente comme une
liste de nombres ou de codes symboliques, chaque note ou chaque événement faisant l'objet
d'une liste particulière. Ces listes sont ordonnées dans le temps.

Mais spécifier chaque paramètre est une tâche ardue, d'autant plus que les musiciens ne sont pas
formés pour donner des valeurs mesurées aux dimensions sonores qu'ils manipulent. Pour lutter
contre cet obstacle, des langages d'aide à l'écriture de partitions ont été conçus; le plus connu est
le programme Score de Leland Smith (1972). Score n'est pas un programme de composition
automatique: il permet de spécifier les paramètres à l'aide de termes issus de la pratique musicale
(hauteurs, nuances, durées), de calculer automatiquement des changements de tempo ou de
nuances, voire même de compléter des sections avec des notes correspondant à une trajectoire
donnée par le compositeur.

Le modèle instrument-partition fut fermement établi avec l'arrivée de Music IV (1962). De ce
programme naquirent de nombreuses variantes, dont certaines existent bel et bien encore
aujourd'hui. Parmi ces avatars, citons Music 4BF (1966-67), dont il existe de nos jours une
version pour Macintosh (Music 4C, 1989), et surtout Music 360 de Barry Vercoe (1968); ce
descendant de Music IV a pour caractéristique de se présenter comme un véritable langage de
programmation, ce qui explique sans doute qu'il est devenu aujourd'hui avec C-Music le
compilateur acoustique le plus utilisé. Il fut d'abord adapté au mini-ordinateur PDP-11 de Digital
en 1973, puis, entièrement réécrit en langage C en 1985, il prit le nom de Csound, et fut
rapidement adapté à toutes sortes de plates-formes informatiques, y compris les ordinateurs
personnels comme Atari, Macintosh et IBM. En 1969 apparaît Music V, un programme qui est
conçu pour faciliter la programmation musicale des instruments et des partitions; de nos jours,
Music V est encore largement employé, le plus souvent sous la forme de l'adaptation qu'en a
faite Richard Moore, Cmusic (1980).

L'ordinateur connut aussi un succès certain dans un domaine fortement spéculatif, l'analyse
musicologique. Aux yeux du public intéressé au début des années soixante, l'informatique,
encore assez mystérieuse et inaccessible, laissait entrevoir d'étranges travaux musicaux; en
composition, en musicologie et enfin, limitée aux laboratoires Bell, de la production de son. Un
grand bouleversement musical de cette décennie devait venir du monde de l'électronique, avec
l'apparition en 1964 des synthétiseurs modulaires, dits analogiques puisqu'ils ne contiennent pas
d'électronique numérique. Conçus indépendamment par Paolo Ketoff (Rome), Robert Moog et
Donald Buchla (Etats-Unis), les synthétiseurs apportent la réponse aux aspirations
technologiques de nombreux musiciens, surtout après le succès populaire du disque Switched
on Bach de Walter Carlos qui fit véritablement connaître ces instruments auprès d'un large
public. Pendant ce temps, le programme de Mathews connaît des adaptations sur d'autres sites,
tels que les universités de New York, de Princeton ou de Stanford.

Une autre application de l'ordinateur apparaît avec le pilotage d'instruments analogiques. La
machine génère des signaux à variation lente qui modifient les réglages de dispositifs de studio:
fréquence d'oscillateurs, gain d'amplificateurs, fréquences de coupure de filtres. Le premier
exemple de ce système qu'on nomme synthèse hybride fut établi en 1970 au Elektron Musik
Studio de Stockholm, fondation indépendante depuis 1969, financée par l'Académie Royale de
Musique, et placée sous la direction de Knut Wiggen. Un ordinateur PDP 15/40 y pilotait
vingt-quatre générateurs de fréquence, un générateur de bruit blanc, deux filtres tiers d'octave,
des modulateurs: en anneau, d'amplitude et des réverbérations. L'originalité du système de
Stockholm résidait dans une console de commande extrêmement ergonomique, avec laquelle le
compositeur pouvait spécifier les paramètres de synthèse en balayant un panneau de chiffres à
l'aide d'une brossette métallique. Un autre studio est à citer: celui de Peter Zinovieff à Londres
(1969), placé sous le contrôle d'un mini-ordinateur Digital PDP 8 pour lequel Peter Grogono
écrivit le langage de pilotage Musys.

Une autre réalisation remarquable est le système Groove (Generated Real-time Operations On
Voltage-controlled Equipment, ca. 1969) conçu aux laboratoires Bell par Max Mathews et
Richard Moore. Groove est un instrument destiné au contrôle de paramètres d'interprétation d'un
dispositif de synthèse. En ce sens, il place le musicien plus près de la position d'un chef
d'orchestre que d'un compositeur ou d'un instrumentiste, encore qu'on puisse considérer que le
compositeur de musique électronique doive souvent se placer en position de chef, en interprétant
directement la musique qui est composée.

C'est le milieu des années soixante-dix qui marque la transition vers un élargissement désormais
inexorable de la vie de l'informatique musicale, avec l'apparition du microprocesseur. Une
lutherie informatique deviendra progressivement envisageable avec la conception d'ordinateurs
complets sur un circuit intégré: les microprocesseurs. Il faudra aussi que s'améliore l'interface
avec l'utilisateur, et que soient remplacées les cartes perforées par un mode d'entrées de données
plus interactif: ce sera le clavier et l'écran cathodique qui l'emporteront.

Le principe de la synthèse hybride continua à être appliqué tout au long des années soixante-dix,
avant d'être supplanté définitivement par les synthétiseurs numériques à l'aube des années
quatre-vingt. La société américaine Intel commercialise dès 1971 le premier microprocesseur, le
circuit 4004, qui permet la conception de véritables ordinateurs miniatures, les micro-ordinateurs:
Intellec 8 (conçu à partir du microprocesseur 8008 de 1972), Apple I, Altair (1975), bientôt
regroupés sous le nom d'ordinateurs personnels.

Les expérience musicales du Groupe Art et Informatique de Vincennes (GAIV) illustrent bien
cette époque de transition. Cette équipe, fondée à l'université de Paris 8 par Patrick Greussay et
une équipe d'artistes et d'architectes, connue pour la publication d'un bulletin diffusant les
travaux de recherche en art et informatique les plus récents, confia au compositeur Giuseppe
Englert la coordination musicale de ses activités. C'est l'Intellec 8, micro-ordinateur à mots de
huit bits, commandée par un ruban perforé et un clavier, qui servit aux activités
compositionnelles et de recherche sur la formalisation musicale; des synthétiseurs anglais
EMS-VCS3 étaient pilotés par le micro-ordinateur, via des convertisseurs
numériques-analogiques chargés de fournir des tensions de commande en échange des données
binaires calculées par des programmes interactifs.

Le second effet de l'arrivée des micro-ordinateur fut la conception de la synthèse mixte ,
synthétiseurs numériques, véritables ordinateurs adaptés au calcul de l'onde sonore en temps
réel, placés sous le contrôle d'un ordinateur. A partir de la seconde moitié des années
soixante-dix apparaissent plusieurs réalisations de ce type; nous retiendrons les travaux de James
Beauchamp, de Jean-François Allouis, de William Buxton, entre autres, ainsi que ceux de Peter
Samson (synthétiseur de Systems Concept, conçu pour le centre de recherche - CCRMA - de
l'université de Stanford), le Synclavier de New England Digital Corporation, conçu par Syd
Alonso et Cameron Jones sous l'impulsion du compositeur Jon Appleton, la conception, sous
l'impulsion de Luciano Berio, d'un banc d'oscillateurs à Naples par Giuseppe di Giugno, qui
poursuivit ses travaux à l'Ircam (série 4A, 4B, 4C et 4X) sous la direction de Pierre Boulez; plus
récemment, le Fly 30 du Centre de recherchse musicales de Rome. Notons qu'avec la 4X de
l'Ircam (1980), le terme de synthétiseur disparaît, remplacé par celui de processeur numérique de
signal, ce qui sans doute déplace l'accent sur la généralité de la machine.

L'industrie de l'instrument électronique n'est pas longue à s'adapter à ces nouveaux
développements. La première étape consista à introduire des microprocesseurs à l'intérieur de
synthétiseurs analogiques (synthétiseurs Prophet de la firme Sequential Circuits), chargés de
contrôler les modules commandés en tension; c'est encore de la synthèse hybride . La seconde
étape suit bientôt: elle consiste à concevoir de véritables instruments de musique entièrement
numériques. C'est l'arrivée remarquée du Synclavier II, puis du Fairlight.

Le domaine industriel est aujourd'hui constitué d'abord par le marché des synthétiseurs et des
appareils de traitement du son, et par les logiciels qui permettent de les exploiter. Aujourd'hui,
tous les synthétiseurs sont numériques, et répondent nécessairement à la norme Midi. Le
domaine des synthétiseurs est double: d'une part des appareils, souvent munis d'un clavier, qui
proposent un choix de sons pré-programmés dont on peut varier certains paramètres par un
procédé élémentaire de programmation; d'autre part, les machines qui sont destinées à reproduire
des sons préalablement enregistrés et mémorisés, ou stockés sur mémoire de masse: les
échantillonneurs, ou samplers .

Il faut noter que toutes ces technologies deviennent accessibles au musicien privé, dans le cadre
de ce qu'on appelle communément le studio personnel (home studio).

Mais ces machines, et a fortiori le studio personnel ne fonctionnent pas sans logiciel adapté: les
séquenceurs pilotent l'exécution d'un morceau directement à partir d'un ordinateur, les éditeurs
de son sont destinés au traitement, au montage et au mixage de séquences sonores. Des
programmes permettent d'écrire une partition, ce qui est désormais employé couramment par
l'édition musicale. Enfin, les machines peuvent aussi être placées sous le contrôle de
programmes d'aide à la composition.

Le caractère le plus original de la lutherie informatique contemporaine est la station de travail .
Concevoir une station de travail consiste à rassembler des programmes de natures diverses,
destinés à l'analyse ou à la synthèse du son, au contrôle du son ou à la composition. Ces
programmes sont intégrés au sein d'un environnement informatique organisé autour d'un
ordinateur et de ses périphériques, destinés au traitement du son en direct. C'est le cas des cartes
enfichables qui, couplées à un logiciel, permettent de lire des fichiers de son stockés sur un
disque, en échange d'une commande, provenant par exemple d'une source Midi. Ce système, si
nouveau qu'il n'a pas encore trouvé de nom véritable, est le plus souvent désigné comme disque
dur ou direct-to-disk .

Parmi les premières réalisations, on retiendra l'adaptation des compilateurs acoustiques Cmusic,
originellement développé à partir de Music V par Richard Moore, et C-sound conçu par Barry
Vercoe comme une branche de Music IV. L'intégration, qui justifie l'appellation de station de
travail, consiste à connecter les données Midi avec les programmes mentionnés ci-dessus, tout en
travaillant au sein d'un environnement unique, associant temps réel et temps différé. D'une
manière plus générale, la micro-informatique offre tant aux institutions qu'aux particuliers des
outils de synthèse et de traitement de son de haut niveau. Certains permettent, en temps différé, la
manipulation de fichiers de sons. Citons une nouvelle C-Sound du MIT, le vocodeur de phase
Audio-Sculpt de l'Ircam, Soundhack de Tom Erbe, etc... D'autres programmes autorisent
l'interaction temps réel avec la manipulation de sons. Ces logiciels se développent surtout dans
les années 90: GRM Tools de l'Ina-GRM, Hyperprism de Son Réel, tous deux à Paris, modules
insérés dans des programmes généraux tel que Sound Designer de la firme californienne
Digidesign, etc... Tous ces programmes donnent accès à de puissants moyens de synthèse et de
traitement, jusque là reservés aux seules institutions, et désormais implantés sur ordinateurs
personnels: ces machines ne se contentent plus de piloter des synthétiseurs Midi.

Au cours des années quatre-vingt, le terme de station de travail fut rapidement galvaudé. Un
synthétiseur quelconque était affublé de cette appellation à des fins purement commerciales, sans
répondre aux critères d'intégration évoqués. Aujourd'hui, l'intégration s'ouvre au domaine de
l'image, avec l'irruption du multimédia, et prend une nouvelle dimension.

La représentation musicale

Puisque l'ordinateur, à la différence de la musique électronique de studio, réclame une
spécification des données, et donc une écriture, la question de la représentation musicale est une
préoccupation constante du domaine. Nous verrons deux réponses. La première illustre une
démarche a priori compositionnelle: celle de Xenakis. La seconde, plus générale, est la norme
Midi.

Iannis Xenakis innove avec la conception de l'UPIC (Unité Polyagogique Informatique du
CEMAMu). Conçu au milieu des années soixante-dix, ce système découle naturellement de
l'approche de la synthèse du son par ce compositeur: au sein de l'équipe qu'il avait réunie,
baptisée d'abord Emamu (Equipe de Mathématiques et d'Automatique Musicale, 1966), et avec le
financement de la Fondation Gulbenkian, Xenakis avait fait construire un convertisseur
numérique-analogique de haute qualité. L'UPIC représente un environnement complet de
composition avec, en résultat, la synthèse sonore de la page de musique composée. Devenu en
1971 le CEMAMu (Centre de Mathématiques et d'Automatique Musicale) en raison de la création
d'un lieu destiné à abriter ses recherches, l'équipe réunie autour de Xenakis conçoit un système
permettant au compositeur de dessiner sur une large table d'architecte des arcs temps-hauteur , en
choisissant pour chaque arc une trajectoire temporelle, une forme d'onde, une nuance. La
musique est donc d'abord représentée sous forme graphique. Les programes du premier UPIC
sont écrits pour un mini-ordinateur Solar 16/65, relié à deux organes de bandes magnétiques
pour stocker les programmes et les échantillons, un convertisseur numérique-analogique, un
écran cathodique permettant d'afficher les formes d'ondes, mais aussi de dessiner ces ondes à
l'aide d'un crayon graphique. Pour entendre la page qu'il vient de dessiner, le compositeur doit
attendre que l'ordinateur ait terminé de calculer tous les échantillons; la génération du son est
assurée par une convertisseur numérique-analogique de haute qualité. Plus récemment, l'UPIC a
été redessiné pour micro-ordinateur, et fonctionne sans délai.

Représenter le son sous la forme d'une image modifiable, c'est le but du programme
Phonogramme, conçu à l'université Paris 8 par Vincent Lesbros. A la manière d'un
sonogramme, le programme affiche l'analyse spectrale comme un dessin, qui peut être modifié;
la nouvelle représentation peut ensuite être synthétisée, soit par Midi, soit sous la forme d'un
fichier de son, ou bien encore transformé en fichier Midi.

On entend souvent aujourd'hui le reproche que la génération de jeunes musiciens qui abordent la
technologie au travers de l'environnement créé autour de la norme Midi n'ont pas une conscience
satisfaisante du passé de l'informatique musicale et de ses problèmes. Mais c'est oublier que,
dans un sens, la naissance de la norme Midi s'est faite sans véritable filiation avec les étapes
précédentes du domaine que l'on nommera l'informatique musicale. Le phénomène que
représente Midi n'est aucunement un avatar de ce domaine.

Le standard Midi a été mis au point en 1983 pour permettre le pilotage de plusieurs synthétiseurs
à partir d'un seul clavier; les messages sont transmis en format numérique, selon un protocole
bien défini. A l'origine, Midi est donc bien basé sur le contrôle gestuel instrumental: c'est une
méthode pour représenter non le son, mais le geste du musicien qui joue d'un instrument Midi.
En 1983 sort le premier synthétiseur à posséder une interface Midi, le Prophet 600 de la
Sequential Circuits. Ce qui n'avait pas été défini, par contre, c'est le succès qu'allait rapidement
remporter cette norme, qui aujourd'hui sert à interconnecter toutes les machines d'un studio de
musique électronique, et même les jeux de lumières d'une scène.

La recherche musicale

Les travaux entrepris dès 1956 par Lejaren Hiller pour la composition de la Illiac Suite for
String Quartet marquent à la fois la véritable naissance de l'informatique musicale et l'ancrage de
ce domaine dans la recherche, appliquée dans ce cas à la composition automatique. L'ordinateur
apparaissait alors comme une machine permettant de traiter les suites d'opérations complexes qui
caractérisent la composition d'oeuvres musicales ambitieuses. Ce chemin allait être renforcé dès
1958 par le compositeur français Pierre Barbaud, qui fonde à Paris le Groupe Algorithmique en
liaison avec la compagnie Bull-General Electric et entreprend ses recherches de composition
automatique; dès l'année suivante, la première oeuvre algorithmique de Barbaud était composée:
Imprévisibles nouveautés (Algorithme 1), avec la collaboration de Pierre Blanchard. Le
programme Musicomp de Lejaren Hiller et Robert Baker, de la même époque, conçu pour
l'ordinateur Illiac après la composition de la Suite Illiac, faisant de l'université de l'Illinois l'un
des centres de l'informatique musicale à cette époque. Et lorsqu'en 1962, Iannis Xenakis crée
ST/10, 080262, oeuvre écrite grâce au programme stochastique ST développé à partir de 1958
sur une ordinateur IBM 7090, la composition à l'aide de l'ordinateur entre dans son âge d'or.
Aux Pays-Bas, Gottfried Michael Koenig rédige en 1964 le programme de composition Project I
(1964), suivit bientôt de Project II (1970). La composition assistée par ordinateur s'appuie sur
les mathématiques et la stochastique, puisant largement dans les ressources des processus de
Markov (Hiller, Barbaud, Xenakis, Chadabe, Manoury).

Avec l'arrivée des ordinateurs personnels se développe une nouvelle tendance: l'aide à la
composition, puis la conception assistée par ordinateur de la composition (CAO). Au programme
démiurge, capable d'engendrer une composition entière succède le modèle d'un environnement
d'outils informatiques chargés de traiter des problèmes musicaux précis. Citons parmi les
principaux: HMSL (Hierarchical Music Specification Language, 1985) à Mills College en
Californie, Formes, créé par Xavier Rodet, Esquisse et PatchWork, développés à l'Ircam sous
l'impulsion de Jean-Baptiste Barrière, Experiment in Musical Intelligence de David Cope, à
l'université de Santa Cruz en Californie. Ces programmes sont ouverts: ils dialoguent avec le
compositeur d'une manière interactive, et sont reliés à l'univers des dispositifs Midi. A
l'exception de M et Jam Factory de Joel Chadabe et David Zicarelli, ils sont structurés par
l'emploi de langages non numériques, issus du domaine de l'intelligence artificielle, tels que
Forth, et surtout Lisp, ce qui explique qu'ils reposent non sur les mathématiques, comme ce fut
le cas pour la première génération de composition assistée par ordinateur, mais sur les langages
formels et les grammaires génératives.

D'autres démarches illustrent particulièrement bien la nature de l'informatique musicale, et sa
liaison permanente à la recherche: c'est le cas de la psycho-acoustique, avec les travaux de John
Chowning sur la spatialisation et la synthèse du son, de Jean-Claude Risset sur l'analyse de sons
instrumentaux et les illusions acoustiques, de David Wessel sur la catégorisation et le classement
du timbre, ou bien encore de Stephen McAdams sur la perception de flux sonores et son
interaction avec le timbre. Le Computer Music Journal et les actes des congrès ICMC (voir plus
bas) rendent régulièrement compte des avancées de ces recherches. Il faut souligner que ces
travaux sont menés le plus souvent au sein d'institutions universitaires pour la plupart (M.I.T. au
Massachusetts, Berkeley, Stanford et San Diego en Californie, Berlin en Allemagne, Vancouver
au Canada, Kunitachi au Japon, Padoue en Italie pour ne citer que quelques-uns parmi les plus
connus), ou bien d'organismes spécialisés (Ircam ou INA-GRM à Paris, CMR à Rome, CDMC
à Madrid, EMS à Stockholm, DIEM au Danemark, etc...). Ils ont pris la place des studios de
musique électronique des années cinquante et soixante comme lieux de recherche et de création.
L'informatique crée un lien entre tous les protagonistes, qu'ils soient musiciens, techniciens ou
scientifiques. Ils sont désormais moins consacrés à l'offre de ressources, comme l'étaient les
studios, mais plutôt à l'échange, la communication, le travail conceptuel. C'est d'ailleurs dans la
quête de nouveaux modèles de synthèse du son que l'informatique musicale s'est illustrée:
synthèse par modulation de fréquence, synthèse par modèles physiques, etc... En outre, le
progrès de la micro-informatique musicale permet désormais aux musiciens d'installer à domicile
un instrumentarium de composition et de traitement du son de qualité professionnelle; c'est, toute
proportion gardée, avec l'avènement du studio personnel que l'institution doit compter, afin de
situer son action beaucoup plus sur le terrain de l'invention et de la recherche que sur celui de
l'appareillage.

Le temps réel: ordinateur et univers instrumental

Les années quatre-vingt voient se développer l'emploi de l'ordinateur en situation de concert;
grâce à l'arrivée des synthétiseurs numériques en temps réel, ou, plus généralement, des
processeurs numériques de son, et des langages de contrôle temps réel, les conditions sont mûres
pour revisiter cette ancienne aire de la musique du XXe siècle: la musique électronique en direct
(live electronic music). Dans la plupart des cas, il s'agit d'abord d'imaginer un moyen de relier
l'ordinateur et sa puissance de calcul à des dispositifs de synthèse ou de traitement de son, avec,
si, possible, l'interaction de musiciens. Répons (1981), de Pierre Boulez, par l'intégration des
procédures de traitement à l'écriture elle-même, a montré en quoi l'ordinateur est devenu un
instrument, parfaitement intégré à l'orchestre. A la suite de cette oeuvre apparaissent des travaux
sur le suivi, par l'ordinateur, du jeu de l'instrumentiste, opération connue sous le nom de suivi
de partition . Citons les apports de Roger Dannenberg dans l'accompagnement automatique et les
langages offrant les conditions de la communication ordinateur-instrument, ceux de Max
Mathews, d'abord avec le système Groove, puis plus récemment avec ses travaux sur la Radio
Drum et la simulation de la baguette du chef s'orchestre, Miller Puckette avec le programme Max.

L'interaction réclame des instruments adaptés au transfert de données à l'ordinateur. Ce sont les
claviers qui ont surtout joué ce rôle; c'est ainsi que sont apparus des pianos équipés de détecteurs
Midi, puis capables de jouer selon des messages Midi (Disklavier de Yamaha). D'autres
dispositifs sont couramment employés: boutons, potentiomètres, interrupteurs, mais ils ne
peuvent pas rivaliser avec la souplesse et les degrés de liberté d'un véritable instrument de
musique, pour lequel l'instrumentiste a développé une virtuosité. Certains, comme Michel
Waisvisz, ont imaginé des organes tactiles, capables de transmettre leur position, leur angle de
rotation, leur vitesse; mais ce sont en général des prototypes, et seul le temps dira s'ils seront
acceptés par la communauté musicale. C'est pourquoi on s'est intéressé par ailleurs à donner à
des instruments d'orchestre cette capacité, en les munissant de capteurs, permettant à l'ordinateur
de suivre l'exécution (flûte, vibraphone, etc...). Toute l'industrie musicale est concernée par cette
tendance, bien que le procédé à employer ne soit pas encore décidé: sera-t-il électromécanique
(capteurs matériels placés à des endroits stratégiques de l'instrument, membranes conductrices,
etc...), ou bien faudra-t-il avoir recours à l'analyse à la volée des sons eux-mêmes pour en
connaître la hauteur, la structure spectrale et le mode de jeu?

La communauté s'organise

Le mûrissement de l'informatique musicale s'est accompagné d'une prise en charge de la
communauté des musiciens et des chercheurs par eux-mêmes. Progressivement, la conscience
d'appartenance à un champ se fait jour. Les congrès internationaux apparaissent, suivis plus tard
de conférences locales. Les communications qui y sont prononcées sont publiées dans des
recueils disponibles pour toute la communauté. Ces réunions donnent lieu aussi à la présentation
de concerts, ce qui tend à souder plus fortement entre eux la conscience d'un champ nouveau,
aux composantes scientifiques et artistiques. C'est le début des International Computer Music
Conferences (ICMC). En 1978 naît une organisation destinée à faciliter la communication et à
aider la tenue des congrès, la Computer Music Association , qui devient en 1991 International
Computer Music Association (ICMA). Les organisateurs cherchent à tenir le congrès une année
en Amérique du Nord, et l'année suivante sur un autre continent. Ces congrès voient l'ICMA
prendre un rôle croissant dans l'assistance apportée aux organisateurs locaux, ainsi que dans la
diffusion des publications issues de ces rencontres, allant jusqu'à passer des commandes
d'oeuvres qui seront exécutées au cours des ICMC (ICMA Commission Awards, 1991).

Un autre véhicule qui soude la conscience d'appartenance à un domaine commun est le
Computer Music Journal. Apparu en Californie en 1977, il est repris par MIT Press à partir du
volume 4 (1980). Le journal s'impose comme la référence en matière de publications
scientifiques du domaine. L'association ICMA publie un bulletin, Array, qui est devenu un
organe très apprécié d'information et de discussion sur les thèmes actuels de l'informatique
musicale. La revue néerlandaise Interface, qui devient à partir de 1994 Journal of New Music
Research, publie régulièrement des articles sur l'informatique musicale. Au Canada,
Musicworks, guidé par Gayle Young, assure l'information sur un éventail large de
préoccupations des nouvelles musiques. En France, les publications de l'Ircam, InHarmonique,
puis Les cahiers de l'Ircam ouvrent leurs colonnes aux considérations esthétiques, théoriques
et critiques qui accompagnent le surgissement des nouvelles technologies dans les arts.

En 1991 le journal Leonardo, publié par l'association internationale pour les arts, la science et la
technologie, fondé en 1968 par Frank Malina, lance, sous la direction de Roger Malina, le
Leonardo Music Journal, qui apporte une vision ample de la pratique musicale liée aux
nouvelles technologies, grâce aussi à la publication, avec chaque numéro, d'un disque compact.
Plus théorique, la revue Languages of Design, sous la direction de Raymond Lauzzana,
s'intéresse à la formalisation dans les procédures artistiques, et accorde une large place à
l'informatique musicale. A ces supports traditionnels de l'information s'ajoute la communication
directe entre musiciens et chercheurs par le moyen des réseaux informatiques, permettant le
courrier électronique instantané. Enfin, le besoin d'accroître la vitesse de communication a fait
naître les journaux électroniques, diffusés par les réseaux tel que Internet; dégagés de la structure
de fabrication, d'impression et d'acheminement, ils permettent le même type d'accès à
l'information que les banques de données qui, elles aussi, se multiplient en informatique
musicale.

 

 

Biographie et discographie

Marc Battier, compositeur, est né en France, le 21 décembre 1947.

Dès la fin des années soixante, il a été irrésistiblement attiré vers la musique électronique. De là,
il fut conduit, dès le début des années soixante-dix, vers l'informatique musicale.

Il a créé plusieurs oeuvres dans lesquelles la voix est traitée comme élément porteur de forme, et
est transformée pour devenir matériau musical: Verbes comme cueillir (1980),
Action-variation (1984), Les mots y sont (1986), Transparence - Sur un
audiopoème de Henri Chopin (1994).

Après un passage comme chercheur au Groupe de Recherches Musicales de l'Ina où il travaille
aux côtés de François Bayle dans les studios numériques, il rejoint l'Ircam à la fin de l'année
1979. En dehors de ses activités à l'Ircam, il enseigne la musique électroacoustique à l'université
de Paris VIII et à l'université de Californie à San Diego (1984-86). Son intérêt pour la musique
électronique l'a par ailleurs poussé vers la recherche sur la technologie musicale du XXe siècle,
et il a conçu la collection d'instruments du XXe siècle pour le Musée de la musique de la Cité de
la Musique, il poursuit cette activité en tant que chercheur associé au C.N.R.S. Il est membre de
l'équipe doctorale du programme universitaire Musique et musicologie du XXe siècle, et
contribue à plusieurs journaux s'occupant d'informatique musicale et de nouvelles technologies
(Cahiers de l'Ircam-Recherche et musique, Contemporary Music Journal
(Londres), Organised Sound (G.-B.), Leonardo Music Journal (Berkeley, USA)
Computer Music Journal (Cambridge, USA), et participe à l'activité de différentes
organisations musicales et multimédia internationales.

A obtenu le prix Villa Médicis Hors Les Murs en 1984.

Son compact-disc, Transparence - Sur un audiopoème de Henri Chopin, est sorti en
mars 1995. Il a donné lieu à une exposition de partitions graphiques réalisées avec le programme
Phonogramme de Vincent Lesbros à la galerie Lara Vincy, rue de Seine à Paris. (Ce CD est
disponible auprès de Metamkine. Ref: BRCD 9595)

Ink on Polyester est inclus dans la compilation Anthology of Music for the 21st Century,
Leonardo/Isast, Ref. LMJ 1 (1991)

 

 

J U I N 1 9 9 5 N. 1

 


Référence: http://altern.org/battier/d-TXT/ArtsMedia.html