Table des matières


Titre



Une histoire de la musique électroacoustique


Annette Vande Gorne
____________________________________________



Ce texte a déjà été publié aux Presses de l'Université du Québec, Montréal, 1995, in Esthétique des arts médiatiques, (Tome 1, L Poissant, ed.). Les références entre crochets renvoient à la bibliographie établie par A. Vande Gorne, (cf .A.V.G. : Bibliographie).


Introduction


Au début du XXème siècle, tout concourut à l'éclosion d'un nouvel art : généralisation de l'électricité dans les villes, premiers vols en avion, automobiles qui familiarisèrent l'homme à l'idée et la sensation de la vitesse. Désormais, la communication entre les êtres humains passe par les machines (télégraphe en 1837, téléphone en 1876, plus tard télévision, du grec [[tau]][[eta]][[lambda]][[eta]] : à distance), elle est médiatisée à la vitesse de la lumière, bien au-delà des capacités naturelles de transmission du corps humain [1].
La fixation sur un support d'un moment volé à la vie y fut aussi pour quelque chose : la photographie, le cinéma habituent l'homme à vivre une réalité différée et à confier la remémoration, la narration des choses à d'autres médias que l'écrit. L'illusion ou le détournement de cette réalité devient l'objet et le sujet de l'art contemporain.
La musique connaîtra également son outil de sonofixation [Chion 1991] : l'enregistrement sonore. Pierre Schaeffer a ouvert une voie foncièrement nouvelle, en démontrant à partir de 1948 tout l'intérêt musical à retirer d'une conception perceptive et morphologique [2] de la composition qu'il appellera <<musique concrète>>. Celle-ci émane directement de la possibilité de travailler le son en temps réel, de le considérer dans la totalité de ses qualités sensibles, d'être à l'écoute immédiate du temps en cours d'élaboration (attitude expérimentale du compositeur), de remonter le temps fixé sur un support.
Nous vivons actuellement une nouvelle étape importante de l'histoire musicale en Occident [Delalande 1994] : Jusqu'au Douzième siècle, la mémoire du répertoire passait par celle des hommes. De génération en génération, une constante répétition, bientôt aidée de quelques neumes, entretenait la connaissance et l'évolution des musiques. Ensuite, grâce au développement de l'écriture par codification des neumes, le répertoire, mémorisé sur parchemin, donne lieu à d'infinies combinaisons sonores que la mémoire seule n'aurait pu produire : de la polyphonie aux oeuvres instrumentales contemporaines, l'élaboration d'une pièce passe désormais d'abord par le signe, et même se sert du signe comme fondement de l'oeuvre. Il est significatif que la notion d'oeuvre "signée", la notion de compositeur, apparaisse en Occident en même temps que la complexité de la polyphonie [3]. C'est aussi, bien sûr, le moyen de communication privilégié du compositeur avec l'interprète (dont la prise de pouvoir grandissante a contraint le compositeur à affiner son système d'écriture pour mieux en préciser la complexité).
Après l'invention des moyens de reproduction directe du son, (les premiers sont le paléophone de Charles Cros, puis le phonographe d'Edison, tous deux de la même année 1877), pourquoi en passer encore par l'écriture ? Sinon comme moyen de communication avec les instrumentistes éventuels, dans le cadre des musiques mixtes, ou de transcription graphique aux fins d'analyse ou de spatialisation d'une pièce déjà réalisée sur support. Pourquoi en passer encore par la "note" comme fondement de l'oeuvre, alors que l'accès au son lui-même, avec toutes ses qualités est rendu possible ?
Aujourd'hui, les machines à mémoriser, analyser, traiter, synthétiser le son transforment nos modes de penser la musique. Micros, enregistreurs, stations de travail direct-to-disk, échantillonneurs, séquenceurs MIDI, synthétiseurs sont les outils avec lesquels se forge un nouveau rapport à la fois concret [4] et abstrait, instantané, qui porte autant sur la micro que la macro-structure du son et de l'oeuvre.
La musique électroacoustique n'est pas seulement la résultante d'un nouvel instrumentarium, c'est surtout une autre façon de penser le sonore et de l'organiser. Son histoire récente ne peut donc se contenter de l'évolution des seuls moyens technologiques, ou des studios, elle est aussi liée aux idées, ne serait-ce qu'à travers les termes qui ont tenté de la définir, aux esthétiques qui la traversent, aux genres très diversifiés qui l'englobent, aux oeuvres et aux hommes qui la font.
Le sujet ainsi défini étant plus vaste que ce qu'autorise le cadre d'un article, suivront ici quelques pistes principales pour orienter le lecteur, en un style qu'il me pardonnera d'être plus efficace que littéraire. De plus, il s'agit d'une version possible de l'histoire, d'un point de vue d'artiste qui passe forcément par l'interprétation et le jugement de valeur.

1. Les prémisses : bruit, mécanique, vitesse.


La civilisation industrieuse du Dix-neuvième siècle, celle des usines, des métiers à tisser mécanisés, de l'électricité, celle des expositions universelles et des utopies, d'Eiffel et de Jules Verne, cette civilisation ne pouvait que générer un bouleversement des habitudes artistiques.
Les futuristes italiens Marinetti et Russolo l'ont compris, en organisant à travers toute l'Europe à partir de 1913 des "concerts bruitistes" générés par des bruiteurs : glouglouteurs, froufrouteurs et autres instruments insolites.
Edgard Varèse frappé par le tourbillon dynamique de New York, et la nouvelle nature sonore dans laquelle ses habitants vivent -- cf. Amériques (1919-21) pour orchestre, en attendant mieux... -- mais agacé par la position des futuristes qui s'arrêtent au bruit comme source et mode de jeu instrumental, appelle de ses voeux dès 1916 les outils qui lui permettraient une musique cosmique, élargie au total sonore de l'univers, les machines qui l'aideraient à organiser, composer avec ces sons. Voeux qu'il eut le bonheur de réaliser en 1954 dans Déserts pour orchestre et interpolations de "sons organisés" sur deux bandes monophoniques puis dans le Poème Électronique en 1958. [5]
Conlon Nancarrow, en 1935, écrit un duo pour violon et piano mécanique : une toccata, première pièce mixte de l'histoire, où le rouleau perforé, mémoire de l'oeuvre, permet une restitution exacte du temps (mais non du son) sur lequel l'instrumentiste se synchronise. C'est la préfiguration du rapport "temps réel" et "temps fixé" qui caractérise ce genre [Tiffon 1994].
John Cage dans la première pièce de son cycle Imaginary Landscape (1939-1952), met en présence un piano, une cymbale chinoise et deux phonographes à vitesse variable, sur lesquels sont lus des disques de sons sinusoïdaux de différentes fréquences, manipulés à des vitesses différentes, selon la partition. Comme cette oeuvre était destinée à une radiodiffusion, un cinquième interprète est prévu pour déterminer les dynamiques dans le studio. C'est donc là la première utilisation musicale d'un son fixé sur un support [Schrader 1982].

2. Les outils pour le faire : les instruments, les premiers studios.


Deux catégories d'outils naissent quasi simultanément à la fin du Dix-neuvième[6]siècle, qui préfigurent deux conceptions différentes et complémentaires de la musique électroacoustique :
La production de sons nouveaux qui, du Telharmonium au synthétiseur, conserve une relation plus ou moins étroite avec le jeu instrumental, le "temps réel" [7]le plus souvent, l'instrumentiste et la notation solfégique.
La reproduction sonore, d'autre part qui, tout comme la photographie, passe d'un usage utilitaire (garder trace, témoigner, mettre en mémoire, réécouter) à une élaboration artistique du média. Après 1950, à la suite de la France, la plupart des studios européens utiliseront l'enregistrement en ce sens, en attendant que le support entre dans les moeurs technologiques d'aujourd'hui, par le biais des disquettes, disques durs et autres CD-ROM. La musique conçue par et pour le support s'appelle actuellement acousmatique pour la plupart des praticiens.
Enfin, simple outil de transduction sonore au départ, le haut-parleur devient selon des dispositifs et concepts esthétiques différents, un outil de projection sonore, de spatialisation, le plus souvent conçu pour animer, interpréter les musiques de support.

A. Produire le son

Le premier instrument électrique fut donc celui de Thaddeus Cahill le Dynamophone qui comportait douze générateurs de courant alternatif produisant chacun sept harmoniques. Il s'agit donc là de la première recherche en synthèse additive [8]pour reconstituer un nouveau timbre ; aujourd'hui on ne compte plus le nombre de synthétiseurs, anciens ou récents, basés sur ce principe ! Rendu public à Washington en 1900, il est perfectionné (145 générateurs) et installé en 1906 à New York au Telharmonic Hall, sous le nom de Telharmonium. Les New-yorkais pouvaient écouter ses sonorités retransmises par téléphone.
En 1920, Léon Thérémin directeur du tout nouveau laboratoire d'oscillation électrique de Saint-Petersbourg, invente un instrument mélodique spectaculaire : en déplaçant la main par rapport à une antenne, on crée des interférences de vibrations à haute fréquence, dont on entend la fréquence différentielle, pendant que l'autre main agit sur l'amplitude du son. Le Termenvox d'abord appelé du beau nom d'Aetérophone préfigure une autre direction que prendra la recherche musicale : celle qui se préoccupe de l'accès gestuel à la machine, de l'interface homme-machine-son et sa conformation à la physiologie naturelle de l'être humain et à la traduction gestuelle de sa sensibilité. Sujet ô combien d'actualité dans nos rapports quotidiens et minimalistes "oeil-clavier-souris" à l'ordinateur ! Le Termenvox (ou Thérémin comme on l'appelait plus communément) a été produit en série par RCA aux USA en 1929. Edgard Varèse inclura deux Thérémin, qu'il fit modifier, dans Ecuatorial en création à New-York en 1934.
Dès lors, nombre d'appareils vont voir un jour éphémère, principalement en Allemagne. Ainsi le Sphärophon conçu par Jörg Mager qui est considéré comme le fondateur de la recherche électronique allemande, produisait avec précision jusqu'au huitième de ton. Alois Haba (partisan de la musique en quarts de ton) et Hindemith qui l'entendit au festival de Donaueschingen en 1926, étaient parmi les musiciens les plus enthousiastes. Mager imagina également des "radiateurs de timbres", haut-parleurs qui participaient directement à la synthèse du son par leurs capacités à modifier le spectre harmonique grâce à des membranes différentes en bois, papier de soie, etc... C'est aussi pour lui permettre de travailler dans de bonnes conditions que la Studiengesellschaft für elektro-akustiche Musik, première association en faveur de la recherche électroacoustique, fut créée à Darmstadt en 1929.
Trautwein construit son Trautonium [9] en 1928, avec le soutien du compositeur Paul Hindemith (qui composera un concerto pour Trautonium et cordes) dont il était l'élève au conservatoire de Berlin. Son instrument fut commercialisé sans grand succès, par Telefunken. Il forma un groupe de recherches avec quelques condisciples, dont Oskar Sala qui en utilise aujourd'hui encore une version améliorée par lui en 1949 : le Mixtur- Trautonium [Künelt 1981].
En France, Maurice Martenot, par ailleurs auteur d'une célèbre méthode de formation en solfège, assiste à un concert donné par Thérémin à Paris et décide de doter l'orchestre symphonique d'une nouvelle sonorité. Il conçoit un instrument monodique qui produit tant les fréquences du système tempéré par clavier que des glissandi par déplacement d'un anneau sur un fil métallique. Le timbre est modifié par des haut-parleurs de caractéristiques spectrales différentes, comme l'avait imaginé Mager. Les Ondes Martenot ont connu un succès immédiat : André Jolivet, Darius Milhaud et Olivier Messiaen lui ont consacré des oeuvres très réussies. Toujours utilisées aujourd'hui, elles ont bénéficié longtemps du statut officiel d'un instrument enseigné au conservatoire de Paris par Jeanne Loriod. [10]
Le synthétiseur aux possibilités multipliées par le nombre d'oscillateurs et de modules de traitements, et par le type de synthèse utilisé [11]couronnera les années de recherches électroniques. Le premier fut construit en 1935 sous le nom de Variophone par Sholpe à Leningrad. Les premiers studios de musique électronique étaient équipés de générateurs électroniques de fréquences volumineux, précis, commandés manuellement, conçus pour des mesures de laboratoires. Mais c'est à partir de 1964 que l'américain Robert Moog et l'anglais Peter Zinovieff (sous le label Ems) vont rendre cet instrument populaire, en appliquant une commande en tension (Voltage Controler) aux modules oscillateurs (VCO), amplificateurs (VCA) et filtres (VCF), ce qui en automatise le jeu. Don Buchla construit, sur le même principe, le premier synthétiseur modulaire de studio, avec l'aide de Morton Subotnick (entre 1959 et 1966). Le "synthé" fait désormais partie du studio, comme la célèbre mallette transportable Synthi AKS de Ems que Stockhausen affectionnait. En 1968, Francis de Coupigny construit pour le GRM[ (11]le premier synthétiseur modulaire à matrice de contrôle par voltage. Les Pink Floyd popularisent le Poly-Moog, premier instrument à clavier qui pouvait émettre plusieurs notes et accords simultanément. Aujourd'hui, le Disklavier de Yamaha, piano acoustique à commande MIDI, renouvelle les possibilités de jeu et de mémorisation du jeu pianistique dans la lignée des anciens pianos mécaniques, comme le démontrent les oeuvres que Jean-Claude Risset lui a consacrées.
Cette catégorie des instruments électroacoustiques à clavier, (de l'orgue Hammond, -- Chicago, 1934 : dix mille instruments vendus jusqu'en 40 -- au synthétiseur), va d'ailleurs contribuer à la confusion, toujours en cours en raison des claviers MIDI, entre le genre électroacoustique, qui dérive des expériences musicales pratiquées dans les studios (musique concrète, musique électronique) et les instruments électroacoustiques (ou électroniques, ou informatiques) qui ont proliféré [12] et permis à la musique populaire (électro-rock, électro-pop, heavy metal, industrielle, etc...) d'évoluer vers ce qu'elle est actuellement. Il s'agit une fois encore de l'éternel clivage entre art "savant" et art "populaire", même s'ils se servent maintenant des mêmes outils, des mêmes "home studios", même si quelques échanges stylistiques de bon voisinage ont parfois cours, surtout en Amérique du Nord. Ceci explique le désir actuel, que d'aucun pourraient trouver excessif, de certains compositeurs ou groupes de compositeurs, de s'inventer d'autres appellations qui ciblent mieux leur pratique plutôt que le terme "électroacoustique", trop général. [13]

B. Reproduire, fixer le son

En 1935, la société AEG présente, à l'exposition de la radio allemande à Berlin, le premier enregistreur sur bande magnétique qui ait été produit industriellement : le Magnetophon K1. La bande elle-même était produite par BASF, (qui s'appelait alors I.G. Farben ; c'était déjà du pigment métallique collé sur une base en plastique). En fait, l'ingénieur Oberlin Smith de Cincinnati avait, dans un article intitulé <<Some Possible Forms of Phonograph>>, déjà proposé l'enregistrement électromagnétique en 1888. Dès 1878 il en avait construit et testé deux exemplaires, après avoir vu le phonographe d'Edison [Thiele 1988]. L'enregistreur sur fil métallique de l'américain Webster fut commercialisé aux USA en 1947 avec un certain succès. Bien sûr, il y eut les cylindres d'Edison, les phonographes à enregistrement sur disques de cire, disques de vinyle etc., mais la bande magnétique permettra d'intervenir sur le déroulement des événements enregistrés.
L'heure du montage sonnera dans les années cinquante [14], montage qui sera alors le véritable point de départ de la composition musicale sur support, ou plutôt de l'écriture grâce au support, qui développera progressivement ses techniques à partir d'une constatation simple et révolutionnaire : on peut désormais travailler directement avec le son, avec tous les sons, les écouter et les répéter à satiété, entendre des objets sonores détachés de leur contexte originel, composer avec les morphologies (déroulement d'une forme dans la durée, au sens d'une enveloppe d'amplitude), tenir compte de leur matière, de leur énergie interne. On peut enfin articuler [Wehinger 1970] tous les sons dans un langage et leur donner sens. L'attitude phénoménologique face aux sons sera l'autre conséquence de la sonofixation : par l'écoute répétée, le compositeur affine sa perception, travaille les différents registres de son écoute, variables selon les moments et le contexte, et les retransmet à travers ses oeuvres à un public dont il forme et espère la même perception attentive.

C. Projeter, spatialiser le son. [15]

Le premier concert spatialisé eut lieu en 1951 dans la salle du théâtre de l'Empire à Paris. Le jeune Pierre Henry est aux commandes d'un pupitre potentiométrique à quatre canaux conçu par Poullin et Schaeffer pour, selon la notice technique du programme, <<associer la forme musicale proprement dite à une forme spatiale statique ou cinématique, (...) les sons se projettent suivant des plans ou des trajectoires qui s'inscrivent dans la hauteur, la largeur et la profondeur>>. Un an plus tard, le 23 mai 1952, dans la salle de l'ancien conservatoire de Paris, une commande par effet de champ ajoute à l'espace matérialisé par de larges cerceaux croisés, le spectacle des gestes de Pierre Henry agissant sur la balance des haut-parleurs qui produisaient un mouvement analogue du son dans l'espace de la salle [Bayle 1977]. Actuellement certaines recherches continuent à rendre au geste global, de type instrumental ou non, la commande des machines de son ou d'espace, à imaginer de nouvelles formes de relation homme-machine. [16]
Après le maelström sonore des 425 haut-parleurs tapissant les murs du pavillon Philips à l'expo 58 de Bruxelles, Xenakis crée Bohor en 1968, en quatre canaux stéréophoniques circulaires qui, par l'accroissement des informations, affinent la perception de la diversité des microstructures du son. En 1970, lors de l'exposition universelle d'Osaka, il conçoit pour le spectacle audiovisuel du pavillon de la fédération japonaise de l'acier (Hibiki-Hana-Ma), une architecture sonore sur 800 haut-parleurs avec une automatisation des mouvements sur 12 pistes de bande magnétique. Dans la même exposition, Stockhausen réalise une sphère acoustique, matérialisation d'un espace total où toutes les directions sont équivalentes, la pesanteur niée, comme dans le vide cosmique, et <<l'oeuvre magnifiée comme un univers en révolution autour de l'auditeur qu'elle englobe>> [Chion 1977], les auditeurs étant placés sur une passerelle au centre de la sphère. Léo Küpper aura la même volonté d'environner le public avec sa coupole sonore (la première fut élaborée en 1977 à la Galerie Nationale d'art moderne à Rome), et d'en construire l'espace à partir de 54 sources de synthèse distribuées sur plus de 100 haut-parleurs. Le Halaphon de l'allemand Haller permet le contrôle entièrement automatique de la direction et de la durée des évolutions spatiales (cercles, diagonales, forme en huit), avec variations continues pendant le concert. Pierre Boulez l'emploiera lors de la création de la première version de Explosante-Fixe en 1973 à New-York [Haller1972].
Mais ce sont là des installations exceptionnelles ! Encore fallait-il imaginer des systèmes de spatialisation plus mobiles et qui s'adaptent à n'importe quel lieu, et surtout à la salle de concert "à l'italienne" la plus courante. En 1973, Christian Clozier présente le Gmebaphone ensemble frontal de haut-parleurs de registres différents, qui vont automatiquement distribuer les sons sur l'espace scénique selon leurs fréquences. Un an plus tard, François Bayle inaugure son Acousmonium à Paris, avec son cycle d'oeuvres l'Expérience Acoustique. L'originalité de cet outil de spatialisation toujours utilisé actuellement et devenu une sorte de standard pour les pièces stéréophoniques de la musique acousmatique, <<tient dans la disposition non plus de sources ponctuelles (ce jeu des quatre coins qui, bien que vieux, se pratique encore), mais de séries d'écrans sonores en paires stéréophoniques, étagées doublement -- en plusieurs degrés du très proche au très lointain, et jouant en transparence --, et en registres et calibres, depuis celui, fin, des "arbres" placés dans le public, jusqu'aux gros "orchestres" de trompettes et de boomers>> [Bayle, in Dhomont 88].
Ces systèmes font apparaître la nécessité d'un nouveau métier d'interprète : le spatialisateur met en évidence la structure de l'oeuvre et les profondeurs de champ inscrites sur le support, met en relief les dynamiques, augmente la perception des mouvements intrinsèques des sons (leur énergie interne) en leur donnant une vie extrinsèque dans l'espace de projection.
D. Les premiers studios []

Bien évidemment, la musique électroacoustique est dépendante des inventions technologiques dont elle se sert, et le plus souvent les détourne de leurs fonctions premières, les pousse plus avant, ou en imagine d'autres. Elle se trouve donc tout naturellement liée, dès le départ, aux studios de recherches musicales.
En Europe, ce sont les stations de radio qui ont abrité ces studios, étant donné l'équipement de base et les compétences techniques similaires.

Le Studio d'Essai de Radio-Paris fut le premier. Pierre Schaeffer y fit, en avril 1948 [Schaeffer 1952], ses premières expériences de musique concrète en gravure directe sur disques 78 tours. Il fut le premier à comprendre l'intérêt et les implications possibles d'une utilisation musicale des moyens d'enregistrement (la fameuse boucle du disque rayé, qui devient un objet sonore sans début ni fin, une répétition...). Avec l'aide de Jacques Poullin, il développe le phonogène universel et le morphophone, premiers outils de transformation sonore, pour, par exemple, transposer un son de façon continue ou par demi-ton sans en changer la durée, ou au contraire, l'allonger ou le raccourcir sans en changer la hauteur [17]. Pierre Henry, compositeur puissant, à la fois baroque par ses vastes brassages sonores et rigoureux dans sa facture, apportera aux expériences de Schaeffer toute sa fougue, son savoir faire de musicien percussionniste, ce dont on peut se rendre compte à l'écoute de son Microphone bien tempéré (1951), suite de courts mouvements à partir de sons joués dans les cordes du piano. Leur collaboration produira un des chefs d'oeuvres de la musique concrète : la Symphonie pour un homme seul (1950), sur laquelle Maurice Béjart fera sa première chorégraphie en 1955 [18]. Ce tout premier studio de l'histoire de la musique électroacoustique est toujours en pleine activité dans le bâtiment de Radio- France avec un répertoire de plus de 1200 oeuvres à son actif. Sous l'appellation GRM (Groupe de Recherches Musicales,1958), il poursuit une tradition active à la fois esthétique [19](et c'est d'ailleurs un des rares lieux de réflexion qui, à l'instigation de son directeur actuel, François Bayle, organise régulièrement, outre douze concerts par an, des séminaires [20] et rencontres de compositeurs), et technologique, comme le système SYTER, outil de traitement par ordinateur en temps réel. Pierre Henry, Luc Ferrari, François-Bernard Mâche, Bernard Parmegiani, Ivo Malec, Guy Reibel en ont été, avec François Bayle, les membres de la première génération. Jacques Lejeune, Michel Chion dont les écrits ont contribué à la diffusion des idées esthétiques du groupe, Jean Schwarz, Christian Zanési, Denis Dufour, puis Daniel Teruggi, et François Donato forment une deuxième et troisième génération de membres compositeurs permanents.
A la radio de la West Deutsche Rundfunck à Cologne, le D[r] Werner Meyer-Eppler et Robert Beyer, bientôt rejoints par Herbert Eimert font entendre, en 1951, leurs "modèles sonores" électroniques, persuadés d'avoir trouvé en la génération électronique des sons le moyen d'en contrôler tous les paramètres (fréquence, durée et amplitude surtout) pour une écriture sérielle plus précise [21]. L'idée que la <<structure interne du son peut devenir une partie de la structure compositionnelle>> sera reprise aux débuts de la musique par ordinateur et par l'école spectrale française. Kalheinz Stockhausen fera, par ses oeuvres, la renommée internationale du studio. Déçu par la musique concrète (Étude aux mille collants, 1952), il y réalise deux minutieuses études électroniques sérielles, puis un des "classiques" de la musique électroacoustique : Gesang der Jünglinge (1956), toujours construit selon l'esprit sériel, mais cette fois en utilisant deux sources opposées, la voix d'un jeune garçon et les sonorités électroniques, chacune variée selon onze catégories de timbre, et en construisant des analogies entre ces éléments. C'est également une des premières pièces où l'espace parfois ajouté à la voix (par réverbération artificielle) participe à la forme de l'oeuvre. C'est également dans ce même studio que Kontakte, sera réalisée en 1960. D'emblée, Stockhausen pressent comment réaliser l'équilibre, la fusion extrêmement fragile entre des instruments acoustiques et des sons travaillés et fixés sur un support, ce genre hybride qu'on appellera "musique mixte". Kontakte est pensée comme une musique de chambre en trio pour percussions, piano et bande, où chaque partenaire est en dialogue avec les autres, sans prééminence. Ce sera loin d'être le cas dans beaucoup d'oeuvres mixtes, où la bande n'est trop souvent qu'un faire valoir de la virtuosité instrumentale.
A la France et l'Allemagne s'adjoint très vite l'Europe du Sud, avec la création en 1955 du Studio de Phonologie de la RAI Milan) par le chef d'orchestre Bruno Maderna et le compositeur Luciano Berio [22], qui orienteront leurs recherches, après les premières oeuvres électroniques, vers une voie médiane entre la musique concrète française, son attitude expérimentale sur le son lui-même et la musique électronique allemande, sa rigueur structurelle. Les oeuvres vocales y seront nombreuses [Gentilucci 1972].
A l'Est, la radio de Varsovie ouvre en 1957 son studio expérimental à l'instigation du musicologue Patkowski et du compositeur Wiszniewski, studio qui produira beaucoup de musiques pour le cinéma, le théâtre, comme celle de Wiszniewski pour l'Orphée de Cocteau. Il offre la particularité d'accueillir des compositeurs n'ayant aucune expérience du studio grâce à la présence permanente d'un compositeur-technicien assistant. Le compositeur Eugeniuz Rudnick toujours en activité, fut l'un d'entre eux [23].
Les années cinquante ont été prolifiques en studios de recherche [24]. Citons encore le studio de la radio japonaise NHK à Tokyo (1956), où Mayuzumi, Moroî, Takemitsu réussiront l'intégration des instruments traditionnels, la symbiose du goût japonais à la fois pour les mathématiques et la nature avec les nouvelles techniques.[25]
Le Studio de Sonologie de l'université d'Utrecht dirigé à partir de 1964 par Gottfried- Michael Koenig [26], se spécialise dans la recherche de processus abstraits de composition, spéculation formelle qui attache plus d'importance à la rigueur complexe du calcul qu'au résultat perçu. Il sera un des premiers à développer cette recherche sur ordinateur. Ce studio fonctionne toujours aujourd'hui, transféré en 1983 dans le cadre du conservatoire de Den Haag (La Haye), sous la direction de Konrad Boehmer, et fréquenté par de nombreux chercheurs et étudiants.
En Flandre, à Gand, le studio de l'université est fondé en 1962 avec Karel Goeyvaerts, qui avait travaillé au studio de Cologne, et Lucien Goethals. Jusqu'en 1985, il accueille de très nombreux compositeurs belges, comme le très prolifique Louis de Meester, Boudewijn Bukinx, et des compositeurs étrangers. Il compte plus de 800 oeuvres à son répertoire.
Quelques studios dus à des initiatives privées ou à du mécénat industriel naissent également dans ces années de reconstruction après la guerre :
A Bruxelles, l'exposition universelle de 1958 avait permis de découvrir le Pavillon Philips conçu par Xenakis, écrin de pierre pour le Poème électronique de Varèse qui réalisait enfin ce à quoi il rêvait déjà en 1916 : créer une musique <<avec de nouveaux moyens techniques qui puissent se prêter à n'importe quelle expression et la soutenir>>. Sur les 425 haut-parleurs qui créaient des "chemins de sons", Xenakis y fait aussi entendre Concret PH, reflet sonore de l'architecture du pavillon [Vivier 1973], conçu à partir d'un enregistrement de charbon de bois réagencé par micro-montage en densité croissante. C'est dans le cadre du pavillon français que Pierre Schaeffer et Luc Ferrari créent les études de compositions fondées sur des critères typo-morphologiques (allures, sons animés, accidents, sons tendus). Takemitsu, Mayuzumi, Ussachevsky et bien d'autres se font entendre sur 100 haut-parleurs distribués sur la voûte du planétarium. Le jeune Henri Pousseur décide alors la création d'un studio électronique à Bruxelles, l'Apelac, où il réalisera plusieurs musiques de concert, comme Rimes pour trois groupes orchestraux et bande, et des musiques pour le spectacle. Léo Küpper et Arsène Souffriau y travailleront également.
En Suisse, le chef d'orchestre Hermann Scherchen, spécialisé dans l'interprétation des musiques contemporaines, installe trois studios chez lui, s'intéresse à une recherche technologique sur les haut-parleurs[27], et édite une revue trimestrielle musicale et scientifique très documentée : le Gravesano Blätter.
Enfin, deux industries audio-électriques, Siemens à Munich et Philips à Eindhoven, ouvrent leurs laboratoires de recherche aux compositeurs. Joseph-Anton Riedl dirigera le studio de Munich, et Edgard Varèse composera son Poème électronique à Eindhoven. Ce studio s'est ouvert à la création artistique grâce à l'initiative du compositeur Henk Badings. Heureuse époque de mécénat direct !

E. Et le continent nord-américain, pendant ce temps ?

Le développement de la musique électroacoustique aux USA a pris du retard par rapport à ce qui se passait en Europe, entre autres parce qu'il n'y a pas de politique gouvernementale de soutien aux arts, et pas de radios subsidiées par l'Etat qui auraient pu abriter des studios. Tout est donc parti d'initiatives privées[28][Schrader 1982].
En 1951, à New York, John Cage reçoit d'un mécène privé une bourse importante pour la composition d'une oeuvre. Il décide un projet collectif de pièces pour bande magnétique caractérisées par l'emploi du hasard (comme le collage aléatoire de morceaux de bandes, le tirage au sort, et dans son cas, la consultation du I-Ching, le Livre des Transformations chinois). Earl Brown, avec Octet, Morton Feldman, David Tudor et Christian Wolff participent à l'aventure. Cage produira William Mix, avec l'aide de Louis et Bebe Barron, sorte de grand kaléidoscope apparemment cacophonique sur huit bandes monophoniques, formé par un montage précis qui transforme l'enveloppe globale des sons selon les coups de ciseaux, et par mixage deux pistes de quelques six cents enregistrements[29]. C'est, en Amérique du Nord, la première oeuvre qui dissocie les procédés de fabrication (le faire) du résultat perçu (l'entendre).
En mai 1952, à New York toujours, dans l'auditorium de l'université de Columbia où il enseigne, Wladimir Ussachevsky, bientôt rejoint par Otto Luening, présente le premier concert de "Tape music", appellation tout simplement instrumentale, parce qu'il utilise un "Tape Recorder", sans aucune référence à l'idée du support (bande). Sans a priori esthétique, tous les sons (instrumentaux, naturels, de synthèse) font farine au moulin d'une production pléthorique qui tente, surtout chez Luening, de faire <<une jonction entre leur propre démarche instrumentale d'un style assez conventionnel et un emploi extrêmement libre des nouveaux moyens électroniques>> [Chion 1976]. Ils signent plusieurs musiques en commun, dont celle du film King Lear d'Orson Welles. Leur studio est relativement peu équipé de quelques modules de traitement et d'enregistreurs, modifiés par l'ajout de variateurs de tensions pour en changer la vitesse de déroulement de façon continue (ce qui donnera lieu à plusieurs oeuvres, comme Sonic Contour, 1952, de Ussachevsky, fasciné par cette transformation où spectre, fréquence et durée étant liés, on donne la sensation d'entrer dans un monde sonore inconnu lorsque on ralentit fortement la lecture d'une percussion/résonance de piano, par exemple ). Grâce à une subvention de la fondation Rockfeller et à leur ténacité, le studio, jusqu'alors "sans domicile fixe", sera rattaché aux universités de Columbia et Princeton en 1959, sous leur direction conjointe et celle de Milton Babbitt [30]. Ce studio est toujours en activité, et très fréquenté. Il est actuellement dirigé par Mario Davidovsky.
Sur la côte ouest, à San Francisco, Morton Subotnick fonde en 1959, à vingt six ans, le Tape Music Center. Une des premières femmes qui se soit investie dans ces recherches, Pauline Oliveiros y a également travaillé, ainsi que Terry Riley. Ce studio était équipé de modules prototypes de synthèse construits par Donald Buchla, qui se trouvent être les premiers synthétiseurs modulaires de studio contrôlés en voltage. Il sera ensuite transféré au Mills College. Subotnick réussit, grâce à la précision et aux très nombreuses ressources du Buchla 100, à construire des timbres en tant qu'éléments structurant la pièce, en lieu et place des hauteurs de notes. [31]
En fait, le premier studio institutionnel fut créé à l'Université d'Illinois en 1958, sous la direction de Lejaren Hiller, connu comme pionnier de la "Computer Music", puisque ce studio expérimental était implanté dans le centre de recherches en informatique, directement intéressé par une application des calculs de programmation à la musique. La recherche, la composition et l'enseignement sont donc liés et encouragés [32]. Toujours en activité, les studios sont aujourd'hui en partie orientés vers la recherche en Réalité Virtuelle.
Dans le domaine de la "Life electronic music", le "Sonic Art Group", composé de Robert Ashley, David Berhrman, Alvin Lucier et Gordon Mumma, a provoqué des réactions très positives avec une musique improvisée, (sauvage selon Henri Pousseur), à partir de corps sonores en tout genre, branchés par micros-contact sur un dispositif électroacoustique bricolé pour un traitement par intermodulation ou ringmodulation. Gordon Mumma , le plus technicien des quatre, inventa le "cybersonic", étude des intermodulations résultantes de deux sons en déplacement, comme celui de deux haut-parleurs émettant chacun une fréquence et qu'il fait tournoyer au dessus du public en les tenant par leur câble.
Aujourd'hui encore, la diversité des origines culturelles et l'immensité du paysage américain ne permettent pas de discerner un style, une école électroacoustique. Peut-être y trouve-t-on quelques points communs :
Chaque université d'importance moyenne possède son centre de "computer music" ou "electronic music", dont la fréquentation fait partie des études musicales ou audio-techniques. C'est donc, contrairement à l'Europe, au sein des circuits d'enseignement, dans des milieux jeunes et privilégiés que se développe la recherche musicale. Les concerts et manifestations ont le plus souvent lieu sur les campus, eux-mêmes souvent isolés de la ville qui les accueille. L'enseignement dispensé met l'accent sur les machines, leur fonctionnement, les logiciels, la programmation plutôt que sur la musique même [33]. La recherche elle-même bénéficie de moyens financiers importants pour développer des outils informatiques. Aux USA, berceau de l'informatique musicale, les plus aboutis de ces outils sont ensuite commercialisés. (Ainsi qu'il en fut, par exemple, de la synthèse par modulation de fréquence de John Chowning, commercialisée par Yamaha dans le célèbre synthétiseur DX7.)
Il est d'ailleurs symptomatique que le public soit atteint à travers ces recherches technologiques plutôt que par les oeuvres musicales qui restent confinées dans des circuits principalement universitaires.
Rarement conçue pour elle-même, comme "musique pure" selon la terminologie européenne, la musique nord-américaine aime se fondre et se confronter à d'autres canaux de perception, à d'autres médias. Le spectacle multimédia (film, vidéo, installation environnementale, danse, rayons laser, images de synthèse, réalité virtuelle...) reflète un certain goût pour les défis technologiques, la mise en place de systèmes interactifs, la création d'un "événement" original [34]. Le contenu de l'événement semble moins important que sa forme. N'est-ce pas un piège ?
Enfin, actuellement les compositeurs nord- américains préfèrent le caractère spectaculaire, instrumental et interactif de certains outils électroacoustiques joués sur scène en temps réel au travail de studio stricto sensu. La "performance" individuelle, le concert de Live Electronic Music comme on l'appelait dans les années 70, la musique interactive des années 80 rencontrent plus de succès sur les campus, dans les concerts et dans les colloques associatifs. Dans les studios, l'enregistreur, sauf au cours des années cinquante influencées par l'Europe et la musique concrète, est relégué dans sa fonction utilitaire : garder en mémoire une performance, un mixage. Donc, peu d'écriture du support.
Au Canada, la plupart des centres sont également situés au sein des universités. Sauf le plus ancien, le laboratoire de musique électronique du conseil national de la recherche, fondé par Hughes Le Caine à Ottawa. Génial inventeur, il a aussi participé à la fondation des studios de l'université de Toronto (1959), de l'université McGill à Montréal (1964), et de l'université de Kingston ! Les quelques courtes pièces qu'il a composées (99 Generators) servaient à essayer les possibilités de ses inventions. (Parmi ses inventions, citons : le Sond, banc de plusieurs centaines d'oscillateurs ; le Sackbutt, synthétiseur avec touches à enfoncement variable, etc.).
L'essor de la musique électroacoustique dans le paysage culturel canadien, et singulièrement québécois, est absolument remarquable. Depuis que Norman Mac Laren et Maurice Blackburn ont eu l'idée en 1955 de graver directement la pellicule optique, en synchronisme avec l'image, plusieurs générations de compositeurs ont en commun de conserver le dynamisme de l'esprit pionnier dans toutes les strates de la vie socioculturelle du pays. A commencer par un sens aigu de la communauté d'intérêt qui rassemble les énergies, donne accès aux informations professionnelles, sans distinctions esthétiques par trop partisanes. C'est le cas d'association comme la Communauté Électroacoustique Canadienne (CEC), qui compte une centaine de membres compositeurs, de l'Association pour la Création Électroacoustique au Québec (ACREQ) fondée par Yves Daoust. L'autre point fort, c'est l'effervescence créée par un réseau serré de studios pédagogiques : Vancouver (université Fraser, où Murray Schafer travailla depuis 1967 à sa vaste enquête sur l'environnement sonore et son impact sur l'individu), Toronto (avec Gustave Ciamaga), Québec (à l'université Laval, le studio de musique électronique est fondé par Nil Parent en 1969, et au conservatoire en 1978 grâce à Yves Daoust) et quatre studios pour la ville de Montréal qui devient de facto le lieu le plus actif : l'université McGill (fondé par Anhalt en 1964, actuellement dirigé avec enthousiasme par Alcides Lanza) ; l'université Concordia en 1971, équipée progressivement par Kevin Austin, où des concerts réguliers de musiques sur support sont donnés sur un bon ensemble de haut-parleurs et grâce à une importante collection de copies d'oeuvres ; le conservatoire (en 1980, Yves Daoust, encore, avec la regrettée Micheline Coulombe Saint-Marcoux) ; et enfin, l'université de Montréal (1974), où l'influence du courant acousmatique français est prépondérante grâce à l'enseignement de Francis Dhomont. Avec sept studios, une équipe de professeurs qui se complètent et un cursus allant du bac au doctorat, c'est là, entre autres, que se forme une génération talentueuse qui remporte de nombreux concours. Stylistiquement, il y a d'ailleurs une différence marquée entre les "musiques anglophones", technologiques et abstraites, souvent mixtes et visuelles, et les "musiques francophones", du moins la plupart, expressives, imagées, sur support.

F. Et aujourd'hui ?

Depuis ces années pionnières, le nombre des lieux publics de création a très fortement augmenté. En Europe, on compte 252 studios en 1992 [Föllmer 1992], et 250 en Amérique du Nord vers 1980.
On pourrait synthétiser les quarante ans d'histoire du genre comme suit :
1950-60 : premiers studios, musique concrète, musique électronique, Tape Music recherche et adaptation des outils, découvertes des possibilités musicales.
1960-70 : expansion, musique électroacoustique, musique mixte, musique expérimentale, multimédia, synthétiseur modulaire de studio ou à clavier. Traité des Objets Musicaux : systématisation du langage.
1970-80 : consolidation, musique acousmatique, systèmes de spatialisation, synthèse par ordinateur, temps différé, Live Electronics (traitement en direct), conduites perceptives.
1980-90 : explosion, musique virtuelle, home studio, interface MIDI (Musical Interface for Digital Instrument), stations de travail sur ordinateur, échantillonnage, temps réel, interactivité, standardisation et commercialisation des outils, expansion du genre grâce au CD, spatialisation multiphonique.
Les années 80 marquent donc un tournant important : l'informatique temps réel se généralise, grâce à l'interface MIDI le studio personnel existe, se standardise et permet des échanges. Paradoxalement, la pensée morphologique concrète redevient d'actualité en raison des échantillonneurs et enregistreurs sur disques-mémoires d'ordinateur. La notion de support change de média : disque dur, CD ROM (sur lequel, et c'est nouveau, une part de choix est laissée à l'auditeur), commandes MIDI, séquenceur [35]. Non seulement l'objet perçu est dissocié de sa source, mais le geste instrumental physique (clavier par exemple) est un geste de déclenchement dissocié du geste perçu, simulé. Une nouvelle virtuosité ?


[N O T E S  1]

Cette idée a été déclinée en plusieurs modes par François Bayle dans le cycle d'oeuvres acousmatiques Son Vitesse-Lumière, 1983.
[2]
. Cf., de Schaeffer, ses Cinq études de bruits (la première, l'Étude aux chemins de fer fut composée en avril 48). Le lecteur désireux d'approfondir les notions phénoménologiques appliquées au sonore telles que l'écoute réduite, l'objet sonore, les sept critères typologiques, les couples morphologiques, pourra se référer à son Traité des Objets Musicaux [Schaeffer 1966]. Cf. également son résumé-commentaire par Michel Chion [Chion 1983].

[3]. Léonin et Pérotin, au XIIème siècle, à Paris, dans le cadre de la cathédrale gothique naissante, signe prégnant de la civilisation judéo-chrétienne dominante. Le rapprochement avec l'étape suivante est facile : Schaeffer et Henry, à Paris, dans le cadre de la Radio d'Essai naissante, signe prégnant de la civilisation de la communication dominante aujourd'hui.

[4]. Concret est pris ici dans le vrai sens du terme employé par Schaeffer : non comme désignant la source (où musique concrète signifierait musique à partir de sons acoustiques ou "naturels"), mais selon la démarche du compositeur qui inverse le processus habituel de la composition (instrumentale, partant de la conception abstraite -- plans, graphes, processus, partition, puis réalisation sonore), au profit d'une conception plus expérimentale, qui prend appui sur les caractères perceptifs des sons, d'où sont ensuite déduits les processus et macro-structures, comme une forme sculpturale naît peu à peu d'un matériau brut. Aujourd'hui, ces caractères ne se limitent plus à la seule morphologie statique répertoriée dans le Traité des Objets Musicaux. Les aspects dynamiques, ou morphodynamiques mis en évidence par François Bayle [Bayle 1992], la spectromorphologie et ses aspects spatiaux chez Denis Smalley [in Emerson 1986], les comportements énergétiques, semblables à quelques lois physiques, la psychoacoustique et les sciences cognitives sont autant de pistes ouvertes à la recherche musicale.

[5]. Depuis lors, la définition du mot musique a changé. Voici celle qu'on peut lire dans le Robert : <<art de combiner des sons d'après des règles (variables selon les lieux et les époques), d'organiser une durée avec des éléments sonores.>>
D'autre part, Déserts fut créé au théâtre des Champs-Élysées de Paris, sous la direction d'Hermann Scherchen, en première retransmission radiophonique mondiale en stéréo. Les "sons organisés" sur bande ayant été réalisés au studio de Paris.

[6]. La notion de "temps réel" est apparue en même temps que son antithèse celle de "temps différé", lorsque, dans les années soixante, le calcul des algorithmes de synthèse sonore par ordinateur prenait bien plus de temps que le résultat ! Toute musique produite hic et nunc par un être vivant est donc en "temps réel".

[7]. La synthèse additive part du principe qu'un timbre est dépendant de la quantité, du rang et de l'évolution dynamique des sons harmoniques d'une fréquence donnée. Schaeffer, entre autre, démontrera que l'attaque d'un son (les partiels d'attaque) est tout autant déterminante pour le son.

[8]. Le Trautonium est basé sur la théorie des "formants" : à partir d'un son fondamental très riche en harmoniques, deux filtres mettent en évidence les pics d'amplitude de certains harmoniques et font varier la couleur sonore selon leur position dans le spectre total et leur étendue spectrale (largeur de bande).

[9]. Cf. de Jolivet : Danse incantatoire 1937, Concerto pour Onde Martenot 1947 ; de Messiaen : Fête des belles eaux 1937, pour six Ondes Martenot, Turangalîla symphonie, 1948, avec Ondes en soliste. Cf. également, du jeune compositeur québécois Gilles Gobeil, la pièce pour bande et ondes Martenot, Voix blanche, de 1988-89.

[10]. Pour plus de renseignements théoriques à ce sujet, cf. Fatus, 1994 (pp. 171-176), et Davies, 1990.

[11]. Le Groupe de Recherches Musicales fait partie du service de la recherche de la Radio Télévision Française depuis 1959, et remplace le Groupe de Musique Concrète.

[12]. Deux modèles de synthés à claviers produits aux USA en 1968. 24 surtout aux USA et au Japon en 1980. 35 en 1986. Au total, 286 modèles différents de claviers entre 68 et 90.
[13]
. Ainsi la reprise du terme historique de "musique concrète" par Michel Chion et celui de "musique acousmatique" par François Bayle puis Francis Dhomont, Christian Zanési, Bernard Fort, Denis Dufour et Jean-François Minjard (qui préfèrent cependant l'expression "art acousmatique"), Jonty Harrison, Annette Vande Gorne, Robert Normandeau et bien d'autres pour qualifier leur pratique compositionnelle sur support.

[14]. La Symphonie pour un homme seul de Schaeffer et Henry, créée en mars 1950 à Paris, est la première oeuvre qui utilise quelques techniques d'écriture offertes par le montage de la bande magnétique.

[15]. Pour une étude plus détaillée concernant ces questions, se reporter aux deux volumes de la revue Lien sur "L'espace du Son", édités sous la direction de Francis Dhomont [Dhomont 1988 et 1991] et à l'article historique "naissance et évolution d'une nouvelle dimension du son : l'espace" [Vande Gorne 1988].

[16]. Ainsi les recherches en réalité virtuelle, dans le domaine proprioperceptif, entreprises depuis 1978 à l'ACROE (Association pour la Création et la Recherche sur les Outils d'Expression) où Claude Cadoz et son équipe étudient sur le Clavier Rétroactif Modulaire le geste instrumental et sa relation à des modèles physiques appliqués à la synthèse par ordinateur ; De même, le Media Lab du MIT et Tod Machover travaillent sur la relation à l'ordinateur par décodage des gestes instrumentaux humains ; Michael Waisvisz, au studio Steim d'Amsterdam, en relation avec le Studio de Sonologie de La Haye (Den Haag), déclenche des événements par une gestique corporelle dans un espace scénique (The Hands, 1986). Leo Küpper (Bruxelles) invente le kinéphone, clavier qui articule la distribution spatiale sur 50 canaux selon le toucher (vélocité-pente d'attaque, poids-amplitude). Todor Todoroff mène actuellement au conservatoire de Mons (Belgique) une recherche qui se sert du gant de données pour déplacer des sons entre plusieurs haut-parleurs.

[17]. <<Le phonogène permet d'étaler ou condenser la forme dynamique d'un son sans en modifier la hauteur, par une transposition uniquement temporelle, ou bien déplacer ce son dans la tessiture sans en modifier la durée, par une transposition uniquement harmonique>>, Pierre Schaeffer. Il s'agissait de quatre têtes de lecture tournant sur un seul axe à vitesse de rotation variable. Le morphophone, quant à lui, était un magnétophone constitué par un tambour tournant et 12 têtes de lecture.

[18]. Michel Chion a consacré à Pierre Henry une monographie très complète, avec analyses de ses oeuvres [Chion 1980, épuisé]. Cf. également les nombreuses analyses et commentaires dans "les Musiques électroacoustiques" [Chion 1976].

[19]. Cf. les nombreux textes de P. Schaeffer, M. Chion, F. Delalande, F. Bayle, et de F. Dhomont, D. Smalley entre autres.

[20]
. Séminaires sur des thèmes aussi "pointus" que réel/virtuel, cinq questions d'acousmatique (en 1991-92), du temps à l'oeuvre (en 1993), la représentation graphique des musiques de support (1994) ou les morphologies (1995).

[21]
. Heimert et Beyer, Klangstudie 1 et 2, 1953 ; Karel Goeyvaert, Composition ndeg.5 aux sons purs, 1953 ; Karlheinz Stockhausen, studie 1 et 2, 1953 ; Gottfried-Michael Koenig, Klangfiguren 1 et 2. 1954. Cf., d'autre part, dans le présent numéro, la traduction de l'article de Robert Beyer, (Le problème de la <<musique à venir>>, 1928).

[22]
. Maderna, sequenze e strutture, 1955 ; Inventione su una sola voce, 1960 ; Berio, Mutazioni, 1955 ; Omaggio a Joyce, 1958.

[23]. La première oeuvre de concert réalisée à Varsovie fut l'Étude sur un seul coup de cymbale de Kotonski.
[24]Par ordre chronologique, voici les principaux studios fondés autour de cette décennie : Studio d'Essai de Radio-Paris 1948 ; Paris, studio Apsome (Pierre Henry), 1950 ; Cologne, West Rundfunck, 1951 ; New York, Louis et Bebe Barron, 1951 ; Suisse, Gravesano (H. Scherchen), 1954 ; Berlin, Studio de l'université technique, 1954 ; Milan, RAI, 1955 ; Tokyo, Radio NHK, 1956 ; Eindhoven, studio Philips, 1956 ; Varsovie, Radio, 1957 ; Moscou, studio MOSFilm, 1957 ; USA, Université d'Illinois, 1958 ; Ann Arbor (Michigan), CSEM (Sonic Art Union), 1958 ; Bruxelles, APELAC 1958 ; Munich, Siemens, 1959 ; New York, Columbia-Princeton Electronic Music Center, 1959 ; San Francisco, Tape Music Center (Morton Subotnick) 1959 ; Toronto, université, 1959 ; Radio Suisse-Romande, 1959 ; Stockholm, Radio Suédoise, 1959 ; Vienne, Hochschule für Musik, 1959 ; Utrecht, université : Institut de Sonologie, 1960 ; Yale Electronic Music Studio, 1960 ; Waltham, université de Brandeis, 1961 ; Gand, IPEM, 1962 ; Turin, conservatoire, 1964 ; Montréal, université McGill, 1964 ; Bratislava, Radio, 1965 ; Stockholm, studio EMS, 1965.
[25]Mayuzumi et Moroï, Variations sur un principe numérique de 7 ; Takemitsu, Water Music ; Ciel, Cheval, Mort, 1957.

[26]. Koenig dirigea le studio d'Utrecht après un séjour de dix ans au studio de la West Rundfunck à Cologne, pendant lequel il aida notamment Stockhausen à réaliser le Gesang der Jünglinge en 1956 et Kontakte en 1960. Cf., à ce sujet, l'entretien avec Konrad Boehmer paru dans Ars Sonora Revue ndeg.1, en juin 1995.

[27]. Notamment, le stéréophone, haut-parleur sphérique et rotatif. Cf., à ce sujet l'entretien avec Luc Ferrari, dans le présent numéro.

[28]. Citons le couple Barron, qui s'est équipé d'un studio électronique dans leur appartement New-Yorkais dès 1951, après s'être intéressé aux manipulations d'enregistrement depuis 1948, sans rien connaître des travaux de Schaeffer. Les Barron ont réalisé plusieurs musiques électroniques pour film, comme la Planète oubliée en 1956, qui contribua beaucoup à l'association que fait encore le grand public entre science-fiction et sonorités synthétiques.

[29]. Pour une analyse détaillée de cette oeuvre, se référer au livre de Barry Schrader [1982] pp25-28.

[30]. Babbitt, compositeur sériel et mathématicien. Il fut le principal utilisateur, patient et méticuleux, de l'imposant synthétiseur à tubes "temps différé" Mark II de RCA, (1955). Celui-ci occupait un espace de 6 mètres sur 2 (20 feet/7 feet) au Columbia-Princeton Electronic Music Center. Les sons s'obtenaient après description précise de tous leurs paramètres par clavier alpha-numérique, commande mémorisée sur rouleau de papier perforé. L'outil idéal pour une écriture précise, abstraite et entièrement pré- déterminée, proche des productions du studio de Cologne.

[31]. Comme dans Touch, basé sur un timbre purement électronique et sur le mot prononcé par une voix féminine, décomposé en quatre éléments plus bruités, retravaillés et associés en recherchant les contrastes ou les ambiguïtés avec les sons électroniques. Cf. l'analyse de Schrader pp. 131-134 [Schrader 1982].

[32]. Quatre secteurs, au départ : musique par ordinateur, musique électronique sur bande, acoustique, recherche instrumentale. Cf., à ce sujet, l'article de Marc Battier paru dans Ars Sonora Revue ndeg.1, en juin 1995 (Entre l'idée et l'oeuvre : Parcours de l'informatique musicale).

[33]. A contrario, l'enseignement de certaines universités du Québec, îlot francophone du continent américain, reprend à la France son goût de l'esthétique, de l'enseignement qui tient compte du résultat musical, tout en le métissant de quelques épices techno-rock. C'est le cas de l'Université de Montréal où la présence de Marcelle Deschêne et surtout de Francis Dhomont, qui y a propagé les idées schaefferiennes et acousmatiques, joue un rôle important à cet égard.

[34]. Ce concept, que le plus "américanisé" des compositeurs français, Michel Redolfi, qui a longtemps travaillé au studio de l'université de Californie à San Diego, a importé en Europe par ses concerts subaquatiques (La Jolla, 1981-83), avec chanteuse et percussionniste sous eau (Grenoble, 1993) ou par l'organisation de concerts virtuels entre deux claviéristes improvisant ensemble, l'un à Nice, l'autre à Santa Monica grâce à une liaison par satellite (1992).

[35]. Échantillonneur : appareil qui numérise n'importe quelle source sonore. On peut ensuite rejouer les échantillons à partir d'un clavier MIDI, les transformer (boucles multiples, superpositions, filtres, transposition, étirer/comprimer, etc.)
Séquenceur : logiciel enregistreur multipiste de données MIDI qui vont activer directement les périphériques-sources de sons.





B I O G R A P H I E


Annette Vande Gorne est née à Charleroi (Belgique).
Études musicales classiques aux Conservatoires Royaux de Mons et de Bruxelles. Études de musicologie à Bruxelles. Études de composition électroacoustique avec Guy Reibel et Pierre Schaeffer (Conservatoire de Paris).
Fondatrice de Musiques et Recherches, centre de création et de diffusion de musique acousmatique, et du studio Métamorphoses d'Orphée, (1982).
Organisatrice du Premier Festival Acousmatique de Bruxelles, en 1984, qui sera suivi d'une série annuelle de concerts.
Édite la revue Lien, consacrée à la musique électroacoustique.
Enseigne la composition électroacoustique depuis 1986, aux conservatoires de Liège, Bruxelles et Mons.

Annette Vande Gorne a reçu en 1996 le prix "Nouvelles formes d'expression musicale" de la SABAM.



D I S C O G R A P H I E



Tao
,
CD iMÉdia, 9311, coll. Empreinte Digitale, Montréal.


Le Ginkgo ; Architecture Nuit ; Noces Noires
,
CD IMSO 9504, Montréal.

Action/Passion,

CD DIVIDED, Chicago.




Page suivante




Table des matières




Référence: