Marc Battier
Entre l'idée et l'oeuvre : Parcours de l'informatique
musicale est publié cette année
dans: Esthétique des arts médiatiques sous la direction
de Louise Poissant, Presses de
l'Université du Québec, 1995. Nous en publions ici
un large extrait grâce à l'aimable
autorisation de Mme Poissant.
Introduction
Si l'informatique musicale nous importe tant aujourd'hui, c'est
qu'elle a progressivement créé
des outils qui sont en train de modifier radicalement la manière
de penser la musique. Pourtant,
son histoire est courte. Elle se confond avec le développement
des technologies numériques: des
ordinateurs, d'abord, accompagnés par la création
des langages symboliques destinés à la
programmation, puis avec toute une cohorte d'inventions en technologie
numérique. Assez tôt
dans son histoire, l'informatique se montrera suffisamment mûre
pour accueillir des
préoccupations de toutes sortes, allant de la comptabilité
à la recherche scientifique, en passant
naturellement par ce qui nous intéresse, la création
artistique. Et les musiciens s'enorgueillissent
d'avoir été les premiers parmi les artistes à
s'approprier l'ordinateur.
Et c'est sans doute là qu'il faut distinguer ce qui
ressort de l'informatique proprement dite, et ce
qui appartient plutôt au monde plus large de la technologie
numérique. La musique puise
amplement dans ces deux domaines ses nouvelles ressources. Toutefois,
puisque le domaine du
son est aujourd'hui converti en audionumérique, la distinction
s'impose. L'informatique
musicale naît de la rencontre des préoccupations
musicales et de l'environnement issu des
technologies numériques et de la spécificité
de l'ordinateur, d'une part, et des domaines
scientifiques qui éclairent ses thèmes de recherche.
Si la composition musicale y figure en bonne
place, pratiquement toutes les autres activités de la musique
s'y retrouvent. Et la recherche
musicale recouvre en partie le terrain défriché
par l'informatique, l'acoustique, le traitement du
signal, voire la psychologie cognitive: c'est ainsi que l'informatique
musicale se situe au centre
de plusieurs champs musicaux, scientifiques et techniques.
Mais c'est le recours aux apports spécifiques de l'informatique
qui caractérise sa démarche. De
nouveaux outils conceptuels sont sans cesse fournis par l'intelligence
artificielle, qui se
concrétisent par des langages tels que Lisp ou Prolog.
Ils sont aussitôt mis au service de
l'analyse musicologique ou de l'aide à la composition.
La recherche en systèmes temps réel et sur
les interfaces interactifs permet de concevoir de nouvelles liaisons
entre l'instrumentiste et
l'univers électronique.
Grandes étapes de l'informatique musicale
A l'origine de l'informatique musicale, on trouve deux types
d'activités, indépendantes l'une de
l'autre. Si ces activités perdurent aujourd'hui, c'est
d'une autre manière que la vision originelle
qui a provoqué leur naissance pouvait laisser prévoir.
Ces deux types d'activités sont: la
composition musicale, et la production du son. Dans les deux cas,
la fabrication du résultat
souhaité est assuré par l'ordinateur. Ces deux types
d'activités sont sensiblement
contemporaines. Les premiers essais sérieux de composition
musicale par ordinateur remontent à
1956: c'est à cette date que Lejaren Hiller a calculé
une partition à l'aide de règles encodées
sous
forme d'algorithmes sur l'ordinateur Illiac I de l'université
de l'Illinois. Il s'agit de la Illiac
Suite for String Quartet, dont les trois premiers mouvements sont
exécutés cette année-là par le
quatuor à cordes WQXR. Dans un ouvrage célèbre,
publié en 1959 et qui porte le titre de
Experimental Music-Composition with an Electronic Computer, Lejaren
Hiller expose en
détail les procédures qu'il a appliquées
à l'ordinateur Illiac afin de produire la partition de
son
quatuor à cordes.
Pour situer cette période, c'est aussi en 1956 que John
McCarthy forgea le terme d'intelligence
artificielle. Un an plus tard, Max Mathews, chercheur aux laboratoires
du Telephone Bell, dans
le New Jersey, écrit un premier programme de synthèse
numérique du son pour l'ordinateur IBM
704. Connu aujourd'hui sous le nom de Music I, il est le premier
d'une grande famille de
compilateurs acoustiques; un psychologue, Newman Guttman, génère
une première étude d'une
durée de 15 secondes, In the Silver Scale. C'est aussi
en 1957 que les quatre mouvements de la
Illiac Suite for String Quartet de Lejaren Hiller sont publiés;
la même année naît la version
primitive du célèbre langage de programme Fortran
(FORmula TRANslator). Notons que lors
de la création de l'oeuvre de Hiller par le quatuor à
cordes WQXR, c'est Max Mathews qui
organisa un enregistrement, ce qui donna lieu, par la suite, à
la publication de cet enregistrement
dans un disque réalisé en 1960 par les Laboratoires
Bell, et intitulé Music from Mathematics:
même si les voies tracées par ces deux inventeurs
sont indépendantes, il ne sera pas dit qu'elles
ne se croisèrent pas...
A partir de ces deux événements quasiment contemporains,
le développement va se poursuivre,
progressivement, dans les directions tracées: la composition
et la production du son. Nous en
verrons plus bas les parcours. Mais une troisième voie
ne tarde pas à apparaître: elle naît de la
même constatation qu'avait faite Hiller: l'ordinateur est
avant tout, à cette époque, une formidable
machine à calculer. D'ailleurs, le terme anglais de computer
choisi désignait, avant l'apparition de
ces machines, les employés chargés d'opérer
des calculs. Mais en même temps, avec un brin
d'effroi, on parlait volontiers à l'époque de cerveaux
électroniques. Un artiste ne pouvait
s'approcher de l'ordinateur non sans une certaine émotion,
qui explique sans aucun doute l'attrait
parfois terrifiant qu'exercera l'informatique sur les artistes
des décennies suivantes. Mais ce sont
deux scientifiques qui sont à l'origine de ces expériences:
Hiller pratiquait la chimie, tandis que
Mathews était un chercheur déjà renommé.
C'est sans doute ce qui explique les remarquables
méthodologies qu'ils mirent en place, chacun de leur côté,
et dans des buts tout à fait
indépendants.
Aux laboratoires Bell, Max Mathews, de son côté,
écrit en 1957 un premier programme de
synthèse numérique du son pour l'ordinateur IBM
704, équipé de 4096 mots de mémoire.
Connu aujourd'hui sous le nom de Music I, il est le premier d'une
grande famille. Le programme
Music III (1960) introduit le concept d'instrument modulaire.
Le modèle imaginé par Max
Mathews s'inspire plus d'un appareillage de laboratoire ou d'un
studio de musique électronique
que d'une lutherie acoustique. Le programme offre une gamme de
modules indépendants (Unit
Generators), chargés chacun d'une fonction élémentaire:
oscillateur à forme d'onde
programmable, additionneur de signaux, multiplicateur, générateur
d'enveloppes et de signaux
aléatoires, etc... Le musicien construit un instrument
en reliant une sélection de modules entre
eux. Les signaux produits par les oscillateurs ou les générateurs
sont conduits vers d'autres
modules pour y être modifiés ou mélangés.
Plusieurs instruments peuvent être réunis au sein
d'un orchestre , chaque instrument possédant sa propre
identité. Contrairement à ce qui se passe
dans l'univers matériel, il n'y pas de limite au nombre
de modules utilisables simultanément, sauf
peut-être la mémoire de l'ordinateur. Le résultat
de la mise en oeuvre de l'instrument est le calcul
progressif du son sous la forme d'une séquence de nombres
qui, mis bout à bout, représentent
une onde sonore complexe. Ces nombres sont appelés des
échantillons . Aujourd'hui, le nombre
d'échantillons représentant une seconde de son a
été établi à 44 100 par canal pour
les
applications grand public, et à 48 000 pour le domaine
professionnel.
Du fait de la relative lenteur des machines et de la masse
de calculs à effectuer, le temps mis à
générer l'onde sonore est bien supérieur
à la durée des sons; le fonctionnement de ces
programmes est dit en temps différé . A l'origine,
les ondes sonores calculées sous forme
numérique étaient stockées sur une bande
numérique se déroulant au fur et à mesure
de la fin
d'un bloc de calcul d'échantillons. Ce mode de production
du son est appelé synthèse directe .
Ainsi se crée un fichier de son ; une fois achevé,
le musicien fait appel à un second programme,
chargé de lire le fichier de son en temps réel et
d'envoyer les échantillons vers un convertisseur
numérique-analogique, qui est relié à un
amplificateur et à des haut-parleurs.
Pour activer l'orchestre, le musicien doit rédiger une
partition , dans laquelle sont spécifiés tous
les paramètres réclamés par les modules de
l'instrument. Cette partition se présente comme une
liste de nombres ou de codes symboliques, chaque note ou chaque
événement faisant l'objet
d'une liste particulière. Ces listes sont ordonnées
dans le temps.
Mais spécifier chaque paramètre est une tâche
ardue, d'autant plus que les musiciens ne sont pas
formés pour donner des valeurs mesurées aux dimensions
sonores qu'ils manipulent. Pour lutter
contre cet obstacle, des langages d'aide à l'écriture
de partitions ont été conçus; le plus connu
est
le programme Score de Leland Smith (1972). Score n'est pas un
programme de composition
automatique: il permet de spécifier les paramètres
à l'aide de termes issus de la pratique musicale
(hauteurs, nuances, durées), de calculer automatiquement
des changements de tempo ou de
nuances, voire même de compléter des sections avec
des notes correspondant à une trajectoire
donnée par le compositeur.
Le modèle instrument-partition fut fermement établi
avec l'arrivée de Music IV (1962). De ce
programme naquirent de nombreuses variantes, dont certaines existent
bel et bien encore
aujourd'hui. Parmi ces avatars, citons Music 4BF (1966-67), dont
il existe de nos jours une
version pour Macintosh (Music 4C, 1989), et surtout Music 360
de Barry Vercoe (1968); ce
descendant de Music IV a pour caractéristique de se présenter
comme un véritable langage de
programmation, ce qui explique sans doute qu'il est devenu aujourd'hui
avec C-Music le
compilateur acoustique le plus utilisé. Il fut d'abord
adapté au mini-ordinateur PDP-11 de Digital
en 1973, puis, entièrement réécrit en langage
C en 1985, il prit le nom de Csound, et fut
rapidement adapté à toutes sortes de plates-formes
informatiques, y compris les ordinateurs
personnels comme Atari, Macintosh et IBM. En 1969 apparaît
Music V, un programme qui est
conçu pour faciliter la programmation musicale des instruments
et des partitions; de nos jours,
Music V est encore largement employé, le plus souvent sous
la forme de l'adaptation qu'en a
faite Richard Moore, Cmusic (1980).
L'ordinateur connut aussi un succès certain dans un
domaine fortement spéculatif, l'analyse
musicologique. Aux yeux du public intéressé au début
des années soixante, l'informatique,
encore assez mystérieuse et inaccessible, laissait entrevoir
d'étranges travaux musicaux; en
composition, en musicologie et enfin, limitée aux laboratoires
Bell, de la production de son. Un
grand bouleversement musical de cette décennie devait venir
du monde de l'électronique, avec
l'apparition en 1964 des synthétiseurs modulaires, dits
analogiques puisqu'ils ne contiennent pas
d'électronique numérique. Conçus indépendamment
par Paolo Ketoff (Rome), Robert Moog et
Donald Buchla (Etats-Unis), les synthétiseurs apportent
la réponse aux aspirations
technologiques de nombreux musiciens, surtout après le
succès populaire du disque Switched
on Bach de Walter Carlos qui fit véritablement connaître
ces instruments auprès d'un large
public. Pendant ce temps, le programme de Mathews connaît
des adaptations sur d'autres sites,
tels que les universités de New York, de Princeton ou de
Stanford.
Une autre application de l'ordinateur apparaît avec le
pilotage d'instruments analogiques. La
machine génère des signaux à variation lente
qui modifient les réglages de dispositifs de studio:
fréquence d'oscillateurs, gain d'amplificateurs, fréquences
de coupure de filtres. Le premier
exemple de ce système qu'on nomme synthèse hybride
fut établi en 1970 au Elektron Musik
Studio de Stockholm, fondation indépendante depuis 1969,
financée par l'Académie Royale de
Musique, et placée sous la direction de Knut Wiggen. Un
ordinateur PDP 15/40 y pilotait
vingt-quatre générateurs de fréquence, un
générateur de bruit blanc, deux filtres tiers d'octave,
des modulateurs: en anneau, d'amplitude et des réverbérations.
L'originalité du système de
Stockholm résidait dans une console de commande extrêmement
ergonomique, avec laquelle le
compositeur pouvait spécifier les paramètres de
synthèse en balayant un panneau de chiffres à
l'aide d'une brossette métallique. Un autre studio est
à citer: celui de Peter Zinovieff à Londres
(1969), placé sous le contrôle d'un mini-ordinateur
Digital PDP 8 pour lequel Peter Grogono
écrivit le langage de pilotage Musys.
Une autre réalisation remarquable est le système
Groove (Generated Real-time Operations On
Voltage-controlled Equipment, ca. 1969) conçu aux laboratoires
Bell par Max Mathews et
Richard Moore. Groove est un instrument destiné au contrôle
de paramètres d'interprétation d'un
dispositif de synthèse. En ce sens, il place le musicien
plus près de la position d'un chef
d'orchestre que d'un compositeur ou d'un instrumentiste, encore
qu'on puisse considérer que le
compositeur de musique électronique doive souvent se placer
en position de chef, en interprétant
directement la musique qui est composée.
C'est le milieu des années soixante-dix qui marque la
transition vers un élargissement désormais
inexorable de la vie de l'informatique musicale, avec l'apparition
du microprocesseur. Une
lutherie informatique deviendra progressivement envisageable avec
la conception d'ordinateurs
complets sur un circuit intégré: les microprocesseurs.
Il faudra aussi que s'améliore l'interface
avec l'utilisateur, et que soient remplacées les cartes
perforées par un mode d'entrées de données
plus interactif: ce sera le clavier et l'écran cathodique
qui l'emporteront.
Le principe de la synthèse hybride continua à
être appliqué tout au long des années soixante-dix,
avant d'être supplanté définitivement par
les synthétiseurs numériques à l'aube des
années
quatre-vingt. La société américaine Intel
commercialise dès 1971 le premier microprocesseur, le
circuit 4004, qui permet la conception de véritables ordinateurs
miniatures, les micro-ordinateurs:
Intellec 8 (conçu à partir du microprocesseur 8008
de 1972), Apple I, Altair (1975), bientôt
regroupés sous le nom d'ordinateurs personnels.
Les expérience musicales du Groupe Art et Informatique
de Vincennes (GAIV) illustrent bien
cette époque de transition. Cette équipe, fondée
à l'université de Paris 8 par Patrick Greussay et
une équipe d'artistes et d'architectes, connue pour la
publication d'un bulletin diffusant les
travaux de recherche en art et informatique les plus récents,
confia au compositeur Giuseppe
Englert la coordination musicale de ses activités. C'est
l'Intellec 8, micro-ordinateur à mots de
huit bits, commandée par un ruban perforé et un
clavier, qui servit aux activités
compositionnelles et de recherche sur la formalisation musicale;
des synthétiseurs anglais
EMS-VCS3 étaient pilotés par le micro-ordinateur,
via des convertisseurs
numériques-analogiques chargés de fournir des tensions
de commande en échange des données
binaires calculées par des programmes interactifs.
Le second effet de l'arrivée des micro-ordinateur fut
la conception de la synthèse mixte ,
synthétiseurs numériques, véritables ordinateurs
adaptés au calcul de l'onde sonore en temps
réel, placés sous le contrôle d'un ordinateur.
A partir de la seconde moitié des années
soixante-dix apparaissent plusieurs réalisations de ce
type; nous retiendrons les travaux de James
Beauchamp, de Jean-François Allouis, de William Buxton,
entre autres, ainsi que ceux de Peter
Samson (synthétiseur de Systems Concept, conçu pour
le centre de recherche - CCRMA - de
l'université de Stanford), le Synclavier de New England
Digital Corporation, conçu par Syd
Alonso et Cameron Jones sous l'impulsion du compositeur Jon Appleton,
la conception, sous
l'impulsion de Luciano Berio, d'un banc d'oscillateurs à
Naples par Giuseppe di Giugno, qui
poursuivit ses travaux à l'Ircam (série 4A, 4B,
4C et 4X) sous la direction de Pierre Boulez; plus
récemment, le Fly 30 du Centre de recherchse musicales
de Rome. Notons qu'avec la 4X de
l'Ircam (1980), le terme de synthétiseur disparaît,
remplacé par celui de processeur numérique de
signal, ce qui sans doute déplace l'accent sur la généralité
de la machine.
L'industrie de l'instrument électronique n'est pas longue
à s'adapter à ces nouveaux
développements. La première étape consista
à introduire des microprocesseurs à l'intérieur
de
synthétiseurs analogiques (synthétiseurs Prophet
de la firme Sequential Circuits), chargés de
contrôler les modules commandés en tension; c'est
encore de la synthèse hybride . La seconde
étape suit bientôt: elle consiste à concevoir
de véritables instruments de musique entièrement
numériques. C'est l'arrivée remarquée du
Synclavier II, puis du Fairlight.
Le domaine industriel est aujourd'hui constitué d'abord
par le marché des synthétiseurs et des
appareils de traitement du son, et par les logiciels qui permettent
de les exploiter. Aujourd'hui,
tous les synthétiseurs sont numériques, et répondent
nécessairement à la norme Midi. Le
domaine des synthétiseurs est double: d'une part des appareils,
souvent munis d'un clavier, qui
proposent un choix de sons pré-programmés dont on
peut varier certains paramètres par un
procédé élémentaire de programmation;
d'autre part, les machines qui sont destinées à
reproduire
des sons préalablement enregistrés et mémorisés,
ou stockés sur mémoire de masse: les
échantillonneurs, ou samplers .
Il faut noter que toutes ces technologies deviennent accessibles
au musicien privé, dans le cadre
de ce qu'on appelle communément le studio personnel (home
studio).
Mais ces machines, et a fortiori le studio personnel ne fonctionnent
pas sans logiciel adapté: les
séquenceurs pilotent l'exécution d'un morceau directement
à partir d'un ordinateur, les éditeurs
de son sont destinés au traitement, au montage et au mixage
de séquences sonores. Des
programmes permettent d'écrire une partition, ce qui est
désormais employé couramment par
l'édition musicale. Enfin, les machines peuvent aussi être
placées sous le contrôle de
programmes d'aide à la composition.
Le caractère le plus original de la lutherie informatique
contemporaine est la station de travail .
Concevoir une station de travail consiste à rassembler
des programmes de natures diverses,
destinés à l'analyse ou à la synthèse
du son, au contrôle du son ou à la composition. Ces
programmes sont intégrés au sein d'un environnement
informatique organisé autour d'un
ordinateur et de ses périphériques, destinés
au traitement du son en direct. C'est le cas des cartes
enfichables qui, couplées à un logiciel, permettent
de lire des fichiers de son stockés sur un
disque, en échange d'une commande, provenant par exemple
d'une source Midi. Ce système, si
nouveau qu'il n'a pas encore trouvé de nom véritable,
est le plus souvent désigné comme disque
dur ou direct-to-disk .
Parmi les premières réalisations, on retiendra
l'adaptation des compilateurs acoustiques Cmusic,
originellement développé à partir de Music
V par Richard Moore, et C-sound conçu par Barry
Vercoe comme une branche de Music IV. L'intégration, qui
justifie l'appellation de station de
travail, consiste à connecter les données Midi avec
les programmes mentionnés ci-dessus, tout en
travaillant au sein d'un environnement unique, associant temps
réel et temps différé. D'une
manière plus générale, la micro-informatique
offre tant aux institutions qu'aux particuliers des
outils de synthèse et de traitement de son de haut niveau.
Certains permettent, en temps différé, la
manipulation de fichiers de sons. Citons une nouvelle C-Sound
du MIT, le vocodeur de phase
Audio-Sculpt de l'Ircam, Soundhack de Tom Erbe, etc... D'autres
programmes autorisent
l'interaction temps réel avec la manipulation de sons.
Ces logiciels se développent surtout dans
les années 90: GRM Tools de l'Ina-GRM, Hyperprism de Son
Réel, tous deux à Paris, modules
insérés dans des programmes généraux
tel que Sound Designer de la firme californienne
Digidesign, etc... Tous ces programmes donnent accès à
de puissants moyens de synthèse et de
traitement, jusque là reservés aux seules institutions,
et désormais implantés sur ordinateurs
personnels: ces machines ne se contentent plus de piloter des
synthétiseurs Midi.
Au cours des années quatre-vingt, le terme de station
de travail fut rapidement galvaudé. Un
synthétiseur quelconque était affublé de
cette appellation à des fins purement commerciales, sans
répondre aux critères d'intégration évoqués.
Aujourd'hui, l'intégration s'ouvre au domaine de
l'image, avec l'irruption du multimédia, et prend une nouvelle
dimension.
La représentation musicale
Puisque l'ordinateur, à la différence de la musique
électronique de studio, réclame une
spécification des données, et donc une écriture,
la question de la représentation musicale est une
préoccupation constante du domaine. Nous verrons deux réponses.
La première illustre une
démarche a priori compositionnelle: celle de Xenakis. La
seconde, plus générale, est la norme
Midi.
Iannis Xenakis innove avec la conception de l'UPIC (Unité
Polyagogique Informatique du
CEMAMu). Conçu au milieu des années soixante-dix,
ce système découle naturellement de
l'approche de la synthèse du son par ce compositeur: au
sein de l'équipe qu'il avait réunie,
baptisée d'abord Emamu (Equipe de Mathématiques
et d'Automatique Musicale, 1966), et avec le
financement de la Fondation Gulbenkian, Xenakis avait fait construire
un convertisseur
numérique-analogique de haute qualité. L'UPIC représente
un environnement complet de
composition avec, en résultat, la synthèse sonore
de la page de musique composée. Devenu en
1971 le CEMAMu (Centre de Mathématiques et d'Automatique
Musicale) en raison de la création
d'un lieu destiné à abriter ses recherches, l'équipe
réunie autour de Xenakis conçoit un système
permettant au compositeur de dessiner sur une large table d'architecte
des arcs temps-hauteur , en
choisissant pour chaque arc une trajectoire temporelle, une forme
d'onde, une nuance. La
musique est donc d'abord représentée sous forme
graphique. Les programes du premier UPIC
sont écrits pour un mini-ordinateur Solar 16/65, relié
à deux organes de bandes magnétiques
pour stocker les programmes et les échantillons, un convertisseur
numérique-analogique, un
écran cathodique permettant d'afficher les formes d'ondes,
mais aussi de dessiner ces ondes à
l'aide d'un crayon graphique. Pour entendre la page qu'il vient
de dessiner, le compositeur doit
attendre que l'ordinateur ait terminé de calculer tous
les échantillons; la génération du son est
assurée par une convertisseur numérique-analogique
de haute qualité. Plus récemment, l'UPIC a
été redessiné pour micro-ordinateur, et fonctionne
sans délai.
Représenter le son sous la forme d'une image modifiable,
c'est le but du programme
Phonogramme, conçu à l'université Paris 8
par Vincent Lesbros. A la manière d'un
sonogramme, le programme affiche l'analyse spectrale comme un
dessin, qui peut être modifié;
la nouvelle représentation peut ensuite être synthétisée,
soit par Midi, soit sous la forme d'un
fichier de son, ou bien encore transformé en fichier Midi.
On entend souvent aujourd'hui le reproche que la génération
de jeunes musiciens qui abordent la
technologie au travers de l'environnement créé autour
de la norme Midi n'ont pas une conscience
satisfaisante du passé de l'informatique musicale et de
ses problèmes. Mais c'est oublier que,
dans un sens, la naissance de la norme Midi s'est faite sans véritable
filiation avec les étapes
précédentes du domaine que l'on nommera l'informatique
musicale. Le phénomène que
représente Midi n'est aucunement un avatar de ce domaine.
Le standard Midi a été mis au point en 1983 pour
permettre le pilotage de plusieurs synthétiseurs
à partir d'un seul clavier; les messages sont transmis
en format numérique, selon un protocole
bien défini. A l'origine, Midi est donc bien basé
sur le contrôle gestuel instrumental: c'est une
méthode pour représenter non le son, mais le geste
du musicien qui joue d'un instrument Midi.
En 1983 sort le premier synthétiseur à posséder
une interface Midi, le Prophet 600 de la
Sequential Circuits. Ce qui n'avait pas été défini,
par contre, c'est le succès qu'allait rapidement
remporter cette norme, qui aujourd'hui sert à interconnecter
toutes les machines d'un studio de
musique électronique, et même les jeux de lumières
d'une scène.
La recherche musicale
Les travaux entrepris dès 1956 par Lejaren Hiller pour
la composition de la Illiac Suite for
String Quartet marquent à la fois la véritable naissance
de l'informatique musicale et l'ancrage de
ce domaine dans la recherche, appliquée dans ce cas à
la composition automatique. L'ordinateur
apparaissait alors comme une machine permettant de traiter les
suites d'opérations complexes qui
caractérisent la composition d'oeuvres musicales ambitieuses.
Ce chemin allait être renforcé dès
1958 par le compositeur français Pierre Barbaud, qui fonde
à Paris le Groupe Algorithmique en
liaison avec la compagnie Bull-General Electric et entreprend
ses recherches de composition
automatique; dès l'année suivante, la première
oeuvre algorithmique de Barbaud était composée:
Imprévisibles nouveautés (Algorithme 1), avec la
collaboration de Pierre Blanchard. Le
programme Musicomp de Lejaren Hiller et Robert Baker, de la même
époque, conçu pour
l'ordinateur Illiac après la composition de la Suite Illiac,
faisant de l'université de l'Illinois l'un
des centres de l'informatique musicale à cette époque.
Et lorsqu'en 1962, Iannis Xenakis crée
ST/10, 080262, oeuvre écrite grâce au programme stochastique
ST développé à partir de 1958
sur une ordinateur IBM 7090, la composition à l'aide de
l'ordinateur entre dans son âge d'or.
Aux Pays-Bas, Gottfried Michael Koenig rédige en 1964 le
programme de composition Project I
(1964), suivit bientôt de Project II (1970). La composition
assistée par ordinateur s'appuie sur
les mathématiques et la stochastique, puisant largement
dans les ressources des processus de
Markov (Hiller, Barbaud, Xenakis, Chadabe, Manoury).
Avec l'arrivée des ordinateurs personnels se développe
une nouvelle tendance: l'aide à la
composition, puis la conception assistée par ordinateur
de la composition (CAO). Au programme
démiurge, capable d'engendrer une composition entière
succède le modèle d'un environnement
d'outils informatiques chargés de traiter des problèmes
musicaux précis. Citons parmi les
principaux: HMSL (Hierarchical Music Specification Language, 1985)
à Mills College en
Californie, Formes, créé par Xavier Rodet, Esquisse
et PatchWork, développés à l'Ircam sous
l'impulsion de Jean-Baptiste Barrière, Experiment in Musical
Intelligence de David Cope, à
l'université de Santa Cruz en Californie. Ces programmes
sont ouverts: ils dialoguent avec le
compositeur d'une manière interactive, et sont reliés
à l'univers des dispositifs Midi. A
l'exception de M et Jam Factory de Joel Chadabe et David Zicarelli,
ils sont structurés par
l'emploi de langages non numériques, issus du domaine de
l'intelligence artificielle, tels que
Forth, et surtout Lisp, ce qui explique qu'ils reposent non sur
les mathématiques, comme ce fut
le cas pour la première génération de composition
assistée par ordinateur, mais sur les langages
formels et les grammaires génératives.
D'autres démarches illustrent particulièrement
bien la nature de l'informatique musicale, et sa
liaison permanente à la recherche: c'est le cas de la psycho-acoustique,
avec les travaux de John
Chowning sur la spatialisation et la synthèse du son, de
Jean-Claude Risset sur l'analyse de sons
instrumentaux et les illusions acoustiques, de David Wessel sur
la catégorisation et le classement
du timbre, ou bien encore de Stephen McAdams sur la perception
de flux sonores et son
interaction avec le timbre. Le Computer Music Journal et les actes
des congrès ICMC (voir plus
bas) rendent régulièrement compte des avancées
de ces recherches. Il faut souligner que ces
travaux sont menés le plus souvent au sein d'institutions
universitaires pour la plupart (M.I.T. au
Massachusetts, Berkeley, Stanford et San Diego en Californie,
Berlin en Allemagne, Vancouver
au Canada, Kunitachi au Japon, Padoue en Italie pour ne citer
que quelques-uns parmi les plus
connus), ou bien d'organismes spécialisés (Ircam
ou INA-GRM à Paris, CMR à Rome, CDMC
à Madrid, EMS à Stockholm, DIEM au Danemark, etc...).
Ils ont pris la place des studios de
musique électronique des années cinquante et soixante
comme lieux de recherche et de création.
L'informatique crée un lien entre tous les protagonistes,
qu'ils soient musiciens, techniciens ou
scientifiques. Ils sont désormais moins consacrés
à l'offre de ressources, comme l'étaient les
studios, mais plutôt à l'échange, la communication,
le travail conceptuel. C'est d'ailleurs dans la
quête de nouveaux modèles de synthèse du son
que l'informatique musicale s'est illustrée:
synthèse par modulation de fréquence, synthèse
par modèles physiques, etc... En outre, le
progrès de la micro-informatique musicale permet désormais
aux musiciens d'installer à domicile
un instrumentarium de composition et de traitement du son de qualité
professionnelle; c'est, toute
proportion gardée, avec l'avènement du studio personnel
que l'institution doit compter, afin de
situer son action beaucoup plus sur le terrain de l'invention
et de la recherche que sur celui de
l'appareillage.
Le temps réel: ordinateur et univers instrumental
Les années quatre-vingt voient se développer
l'emploi de l'ordinateur en situation de concert;
grâce à l'arrivée des synthétiseurs
numériques en temps réel, ou, plus généralement,
des
processeurs numériques de son, et des langages de contrôle
temps réel, les conditions sont mûres
pour revisiter cette ancienne aire de la musique du XXe siècle:
la musique électronique en direct
(live electronic music). Dans la plupart des cas, il s'agit d'abord
d'imaginer un moyen de relier
l'ordinateur et sa puissance de calcul à des dispositifs
de synthèse ou de traitement de son, avec,
si, possible, l'interaction de musiciens. Répons (1981),
de Pierre Boulez, par l'intégration des
procédures de traitement à l'écriture elle-même,
a montré en quoi l'ordinateur est devenu un
instrument, parfaitement intégré à l'orchestre.
A la suite de cette oeuvre apparaissent des travaux
sur le suivi, par l'ordinateur, du jeu de l'instrumentiste, opération
connue sous le nom de suivi
de partition . Citons les apports de Roger Dannenberg dans l'accompagnement
automatique et les
langages offrant les conditions de la communication ordinateur-instrument,
ceux de Max
Mathews, d'abord avec le système Groove, puis plus récemment
avec ses travaux sur la Radio
Drum et la simulation de la baguette du chef s'orchestre, Miller
Puckette avec le programme Max.
L'interaction réclame des instruments adaptés
au transfert de données à l'ordinateur. Ce sont
les
claviers qui ont surtout joué ce rôle; c'est ainsi
que sont apparus des pianos équipés de détecteurs
Midi, puis capables de jouer selon des messages Midi (Disklavier
de Yamaha). D'autres
dispositifs sont couramment employés: boutons, potentiomètres,
interrupteurs, mais ils ne
peuvent pas rivaliser avec la souplesse et les degrés de
liberté d'un véritable instrument de
musique, pour lequel l'instrumentiste a développé
une virtuosité. Certains, comme Michel
Waisvisz, ont imaginé des organes tactiles, capables de
transmettre leur position, leur angle de
rotation, leur vitesse; mais ce sont en général
des prototypes, et seul le temps dira s'ils seront
acceptés par la communauté musicale. C'est pourquoi
on s'est intéressé par ailleurs à donner
à
des instruments d'orchestre cette capacité, en les munissant
de capteurs, permettant à l'ordinateur
de suivre l'exécution (flûte, vibraphone, etc...).
Toute l'industrie musicale est concernée par cette
tendance, bien que le procédé à employer
ne soit pas encore décidé: sera-t-il électromécanique
(capteurs matériels placés à des endroits
stratégiques de l'instrument, membranes conductrices,
etc...), ou bien faudra-t-il avoir recours à l'analyse
à la volée des sons eux-mêmes pour en
connaître la hauteur, la structure spectrale et le mode
de jeu?
La communauté s'organise
Le mûrissement de l'informatique musicale s'est accompagné
d'une prise en charge de la
communauté des musiciens et des chercheurs par eux-mêmes.
Progressivement, la conscience
d'appartenance à un champ se fait jour. Les congrès
internationaux apparaissent, suivis plus tard
de conférences locales. Les communications qui y sont prononcées
sont publiées dans des
recueils disponibles pour toute la communauté. Ces réunions
donnent lieu aussi à la présentation
de concerts, ce qui tend à souder plus fortement entre
eux la conscience d'un champ nouveau,
aux composantes scientifiques et artistiques. C'est le début
des International Computer Music
Conferences (ICMC). En 1978 naît une organisation destinée
à faciliter la communication et à
aider la tenue des congrès, la Computer Music Association
, qui devient en 1991 International
Computer Music Association (ICMA). Les organisateurs cherchent
à tenir le congrès une année
en Amérique du Nord, et l'année suivante sur un
autre continent. Ces congrès voient l'ICMA
prendre un rôle croissant dans l'assistance apportée
aux organisateurs locaux, ainsi que dans la
diffusion des publications issues de ces rencontres, allant jusqu'à
passer des commandes
d'oeuvres qui seront exécutées au cours des ICMC
(ICMA Commission Awards, 1991).
Un autre véhicule qui soude la conscience d'appartenance
à un domaine commun est le
Computer Music Journal. Apparu en Californie en 1977, il est repris
par MIT Press à partir du
volume 4 (1980). Le journal s'impose comme la référence
en matière de publications
scientifiques du domaine. L'association ICMA publie un bulletin,
Array, qui est devenu un
organe très apprécié d'information et de
discussion sur les thèmes actuels de l'informatique
musicale. La revue néerlandaise Interface, qui devient
à partir de 1994 Journal of New Music
Research, publie régulièrement des articles sur
l'informatique musicale. Au Canada,
Musicworks, guidé par Gayle Young, assure l'information
sur un éventail large de
préoccupations des nouvelles musiques. En France, les publications
de l'Ircam, InHarmonique,
puis Les cahiers de l'Ircam ouvrent leurs colonnes aux considérations
esthétiques, théoriques
et critiques qui accompagnent le surgissement des nouvelles technologies
dans les arts.
En 1991 le journal Leonardo, publié par l'association
internationale pour les arts, la science et la
technologie, fondé en 1968 par Frank Malina, lance, sous
la direction de Roger Malina, le
Leonardo Music Journal, qui apporte une vision ample de la pratique
musicale liée aux
nouvelles technologies, grâce aussi à la publication,
avec chaque numéro, d'un disque compact.
Plus théorique, la revue Languages of Design, sous la direction
de Raymond Lauzzana,
s'intéresse à la formalisation dans les procédures
artistiques, et accorde une large place à
l'informatique musicale. A ces supports traditionnels de l'information
s'ajoute la communication
directe entre musiciens et chercheurs par le moyen des réseaux
informatiques, permettant le
courrier électronique instantané. Enfin, le besoin
d'accroître la vitesse de communication a fait
naître les journaux électroniques, diffusés
par les réseaux tel que Internet; dégagés
de la structure
de fabrication, d'impression et d'acheminement, ils permettent
le même type d'accès à
l'information que les banques de données qui, elles aussi,
se multiplient en informatique
musicale.
Biographie et discographie
Marc Battier, compositeur, est né en France, le 21 décembre 1947.
Dès la fin des années soixante, il a été
irrésistiblement attiré vers la musique électronique.
De là,
il fut conduit, dès le début des années soixante-dix,
vers l'informatique musicale.
Il a créé plusieurs oeuvres dans lesquelles la
voix est traitée comme élément porteur de
forme, et
est transformée pour devenir matériau musical: Verbes
comme cueillir (1980),
Action-variation (1984), Les mots y sont (1986), Transparence
- Sur un
audiopoème de Henri Chopin (1994).
Après un passage comme chercheur au Groupe de Recherches
Musicales de l'Ina où il travaille
aux côtés de François Bayle dans les studios
numériques, il rejoint l'Ircam à la fin de l'année
1979. En dehors de ses activités à l'Ircam, il enseigne
la musique électroacoustique à l'université
de Paris VIII et à l'université de Californie à
San Diego (1984-86). Son intérêt pour la musique
électronique l'a par ailleurs poussé vers la recherche
sur la technologie musicale du XXe siècle,
et il a conçu la collection d'instruments du XXe siècle
pour le Musée de la musique de la Cité de
la Musique, il poursuit cette activité en tant que chercheur
associé au C.N.R.S. Il est membre de
l'équipe doctorale du programme universitaire Musique et
musicologie du XXe siècle, et
contribue à plusieurs journaux s'occupant d'informatique
musicale et de nouvelles technologies
(Cahiers de l'Ircam-Recherche et musique, Contemporary Music Journal
(Londres), Organised Sound (G.-B.), Leonardo Music Journal (Berkeley,
USA)
Computer Music Journal (Cambridge, USA), et participe à
l'activité de différentes
organisations musicales et multimédia internationales.
A obtenu le prix Villa Médicis Hors Les Murs en 1984.
Son compact-disc, Transparence - Sur un audiopoème de
Henri Chopin, est sorti en
mars 1995. Il a donné lieu à une exposition de partitions
graphiques réalisées avec le programme
Phonogramme de Vincent Lesbros à la galerie Lara Vincy,
rue de Seine à Paris. (Ce CD est
disponible auprès de Metamkine. Ref: BRCD 9595)
Ink on Polyester est inclus dans la compilation Anthology of
Music for the 21st Century,
Leonardo/Isast, Ref. LMJ 1 (1991)
J U I N 1 9 9 5
N. 1
Référence: http://altern.org/battier/d-TXT/ArtsMedia.html