top of page

Von der Natur

der elektronischen Musik

"Die Zukunft wiegt nur 99 Gramm!´ Mit dieser (zweischneidigen) Schlagzeile wirbt eine Firma für die neueste Entwicklung am Markt elektronischer Musikinstrumente – dem Gewicht der CDROM, auf der die Programmcodes des neuesten virtuellen Computerinstruments gespeichert sind …

 

… am Beginn baut der amerikanische Jurist und Technik-Autodidakt Thaddeus Cahill sein 200 Tonnen schweres „Dynamophone“, das 1906 mit 30 Eisenbahnwaggons nach New York transportiert wurde …

 

… am Beginn finden Individualisten wie der russische Physiker Lew Termen oder der deutsche Volksschullehrer Jörg Mager mittels Elektrizität neue musikalische Ausdrucksformen. Der eine träumt während seiner Cellostunden von einem Instrument, das man ohne große körperliche Anstrengung spielen könnte und findet um 1920 eine Möglichkeit, ohne jeden mechanischen Aufwand Töne und Klänge zu erzeugen und zu steuern – das Theremin. Der andere bezieht wenig später Lautsprecher mit Membranen und Resonanzböden unter anderem aus simplen Kuchenblechen, magnetisierten Gongs, Pappschachteln und Seidenpapier als „Klangstrahler“ in die Klangsynthese

mit ein.

 

… am Beginn entwirft der Jesuitenmönch Athanasius Kircher einen mechanischen Komponierautomat (1660) – ein Kasten mit einer Reihe hölzerner Schieber – und Joachim Friedrich Unger beschreibt den „Entwurf einer Maschine, wodurch alles, was auf dem Clavier gespielt wird, sich von selber in Noten setzt“ (1752) – musica ex machina: Heute haben wir ersteres – Silikon sei Dank – zu algorithmischer und stochastischer Komposition weiterentwickelt (das hat vereinfacht dargestellt, viel mit Zahlen und Gleichungen zu tun) und die sogenannten Sequenzerprogramme liefern uns im Computer eine automatische Aufzeichnung unserer „spielerischen“ Eingaben, von Tonhöhen über Dynamik zu Klangfarbenwechsel, und das alles in einer Auflösung von einem hunderttausendstel Bruchteil einer Sekunde …

 

… Beginn? Versuchen wir die umgekehrte Sicht: Nicht Beginn, sondern Konsequenz, nicht Anfang, sondern zwingende Fortsetzung des Denkens unserer musikalischen Ahnen führt zur elektronischen Musik unserer Tage. Die Sprechmusik der frühen Menschheit entwickelte sich allmählich von einer vokalen zu einer immer mehr instrumentalen Musik. Die weitere Entkörperlichung hat mit der Benutzung der Elektrizität wohl ein neues Niveau und eine weitere Unabhängigkeit von physischer Menschenkraft erreicht und erlaubt uns, das musikalische Material immer komplexer zu gestalten.

 

„Jedenfalls dürfen wir daran festhalten, daß die freie Erzeugung des Klanges durch die Elektrizität ermöglicht erscheint und daß dann mit der Anwendung der Elektrizität in der Musik diese Kunst in eine ganz neue Entwicklungsphase treten wird.“ (Zeitschrift für Instrumentenbau im Jahre 1887)

 

Elektronische Musik: Ein System der Entfesselung und des Sezierens, der operativen Auftrennung aller nur denkbaren Nervenpunkte am komplizierten Organismus eines Schallereignisses und ihrer Wiederzusammenfügung nach beliebig zu (er)findender Gesetzmäßigkeit.

 

`Die Musik kann keine so festgelegte Sprache sein, die so willkürlich durch Gepflogenheit eingeengt wurde. Die Musik befindet sich in einem ständigen Schöpfungsprozeß, sucht nach einem Sinn und nach irgendwelcher geheimnisvoller und in Wirklichkeit sehr seltsamen Brücke zwischen Natur und Kultur. Ein so ehrgeiziges Streben verlangt eine gewisse Vorsicht: langsame Etappen und viel Geduld. 1 … Vermeiden wir also, gleichzeitig der Gefahr des Schönheitskultes und der Wissenschaftsgläubigkeit zu unterliegen. Verlassen wir uns vielmehr auf unser Hören, das “ein Sehen von Innen“ ist.´ Pierre Schaeffer: Solfège de l’objet sonore.

Im Lauf der Geschichte haben die Menschen die jeweils vorhandene Technologie benutzt, um Musikinstrumente und Musik zu schaffen: Die Violine ist – mit einfachen Handwerkszeug und ohne bewegliche Teile – ein Produkt vorindustrieller Technologie im 17. Jhdt.; das Klavier, eine schwere Maschine mit vielen beweglichen Teilen entstand mit der Technologie des europäischen Industriezeitalters im 19. Jhdt.. In der Computerära verwenden wir heute elektronische Schaltkreise, um Musikinstrumente zu konstruieren. Um 1960 findet Max V. Matthews in den Bell Telephone Laboratories in New Jersey einen Weg, Computer zum Klingen zu bringen und erschließt so einen neuen, ungeheuer vielseitigen Raum phantasievoller Entfaltung für den forschenden und suchenden Menschen im reizvollen Kräftespiel zwischen der eigenen Vorstellungskraft und der unergründlichen und oft überraschenden Vielseitigkeit musikalischer Ausdrucksmöglichkeiten. Heute kommt kaum ein elektronisches Musikinstrument, und sei es noch so durch Klaviatur und andere traditionelle Beigaben vermummt, ohne Computer aus.

 

James Tenney wird als Student von Max Matthews in die Labors der Firma Bell eingeladen, um mit dessen bahnbrechenden Programmen, die weltweit zur Grundlage für viele Generationen von Computermusikprogrammen werden sollten, eine der ersten Serie von Werken zu schaffen, die von einem amerikanischen Komponisten mittels digitaler Synthese hergestellt wurden. Seine letzte Arbeit dort im März 1964 ist `Ergodos II´, mit der er den engen technologischen Panzer traditionell invariabler Tonbandmusik sprengt: Das 18 minütige Band kann sowohl in beiden Richtungen abgespielt, als auch in 2 oder mehrere zirka gleichlange Abschnitte unterteilt werden, die dann simultan über mehrere Lautsprecherpaare (äquivalent der Anzahl der Abschnitte) erklingen sollen.

 

Ist James Tenney ein Pionier der hierarchischen Organisation und stochastischen Erzeugung verschiedener musikalischer Parameter, kommt Vladimir Ussachevsky – ein mongolischer Prinz und begabter Pianist, der nach der russischen Revolution nach Kalifornien flieht – von einem instrumentalen Gestus her. Nach dem zweiten Weltkrieg an der Columbia University tätig, übernimmt er den von sonst niemand gewollten Job, die vom Music Departement 1951 erstmalig angeschaffte Tonbandmaschine zu warten. Ein Schalter für Tempoänderung an dieser Maschine erregt seine Neugier und verführt ihn zu Experimenten, aufgenommene Klavierklänge in ihrer Geschwindigkeit zu ändern. Eine von einem Studenten gebaute Vorrichtung für einfache Rückkoppelungseffekte kompletiert das Equipement, mit denen Vladimir Ussachevsky seine elektronischen Werke komponierte, die im Mai 1952 als erste elektronische Musik in den Vereinigten Staaten in einem Konzert in New York vorgestellt wurden. Es markierte auch den Beginn des Columbia-Princeton Electronic Music Center, des ersten Studios für elektronische Musik in den U.S.A., das noch so illustre Komponisten wie Luciano Berio und Edgar Varèse als Gast haben sollte und Ausbildungsstätte für Wendy Carlos, Charles Dodge, Robert Moog u.v.a. war. (In Europa findet im März 1948 das „Concert de bruits“ in Paris statt, mit dem Pierre Schaeffer die Ära der Musique concrète einläutet.) `Two Sketches for a computer piece´ ist auch ein Beispiel, wie Komponisten immer schon „Mischtechniken“ angewendet haben (vielleicht abgesehen von dem kurzen historischen Scharmützel zwischen Paris und Köln anfangs der fünfziger Jahre, wo man im jeweils anderen Purismus verharrend – Verwendung konkreter versus rein elektronisch erzeugter Klänge – sich gegenseitig des Verrats an der Musik zieh …). Vladimir Ussachevsky benutzt Klänge, die zwar digital in den Computern der Bell Labors hergestellt worden waren, mischt und ändert ihre Klanglichkeit jedoch in einem herkömmlichen Studio mit klassischer Analogtechnik.

 

Den genau umgekehrten Fall finden wir in `Leviathan´ von William Schottstaedt, der nur in absoluter Notwendigkeit angesichts der 15.220 Schnitte der Endversion schlußendlich den Computer benützt. Dieser Materialschlacht ging ein kaum zu realisierender Traum eines riesigen Orchesterstückes vorausund führt uns ein anderes Phänomen der elektronischen 2 Musik vor Augen: Die erfüllbare Letztverantwortlichkeit des Komponisten für sein Werk. Bei schmählichen 4 oder 5 Orchesterproben für eine Uraufführung gibt es kaum eine Möglichkeit, unvorhergesehene Probleme in der Partitur zu lösen. Rechnet man noch die wenigen Okkasionen weiterer Aufführungen hinzu („… und dann stirbt man auch schon“ – wie Schottstaedt feststellt), ergibt das einen niederschmetternden Redigierzyklus von mehreren Jahren. Der Computer verhilft zu einem Ausweg: Der Komponist bekommt soviele Stimmen und Klänge, wie er nur will und kann heute meist in realtime (meist am eigenen Schreibtisch) solange Verbesserungen vornehmen, bis das Ergebnis seinen Vorstellungen, Träumen und Phantasien entspricht. Schottstaedt besteht aber darauf, daß `Leviathan´ reine musique concrète und kein die Computermusik zu neuen Horizonten führendes Stück sei. Ausgangspunkt ist das Knarren, Knacken, Stöhnen und Ächzen eines Segelschiffmasts. Trotz mehrmaliger Versuche, die Klänge synthetisch herzustellen (immerhin befindet sich der Komponist in der Stanford University, wo von John Chowning in den Siebzigern eine der bahnbrechendsten Synthesemethoden entwickelt und von Yamaha im wörtlichen Sinn zum weltweiten Erfolg umgemünzt wurde), ist das feine Ohr des Komponisten nur durch deren tatsächliche Aufnahme zufriedenzustellen.

 

Pierre Schaeffer stellt in einem Brief 1953, der zu den wichtigsten Schriften der Musique conrète gehört, Postulate auf, deren ersten beide lauten: “Vorrang des Ohrs. – Das Entwicklungspotential ebenso wie die Begrenzung jeglicher neuen Musik liegen in den Möglichkeiten des Gehörs.“ Und: „Unter Voraussetzung des ersten Postulats, Bevorzugung der realen akustischen Quellen, für die unser Ohr weitgehend geschaffen ist (und insbesondere die Ablehnung einer ausschließlichen Zuhilfenahme elektronischer Klangquellen).“ [Man hört richtigehend das Kriegsbeil nach Köln fliegen.]

 

Mit Morton Subotnick, Pauline Oliveros und Ingram Marshall bleiben wir an der Westküste und bewegen uns auf ein zweites Zentrum elektronischer Musik in den U.S.A. zu: Das San Francisco Tape Music Center. Zuerst mit einem für andere Zwecke gedachten und dann für Musik adaptierten Equipement ausgestattet – eine typische Situation der Studios jener Tage: Von Rundfunkanstalten ausrangierte Meßgeräte (Filter, Generatoren) wurden mit Hilfe phantasievoller und mit Lötkolben bewaffneter Techniker zu Musikinstrumenten umfunktioniert – ermöglichen 5oo Dollar der Rockefeller Foundation, daß Donald Buchla seinen ersten Synthesizer für diese Studio bauen konnte, der auf Grund von Denkanstössen der Komponisten entworfen und in einer Weiterentwicklung zur berühmten Buchla Box wurde. Dies ein Beispiel, wie eng Komponisten und Ingenieure bis heute zusammenarbeiten, um Technologie in den Dienst der Musik(erInnen) zu stellen. Morton Subotnick realisiert `Touch´ bis auf die reale Aufnahme des gesprochenen Wortes „touch“ komplett mit dem Buchla Synthesizer. (An der Ostküste war Robert Moog von einem Kreis anderer Musiker beeinflußt – Wendy Carlos, Keith Emerson, Jan Hammer etc –, was zu einem ganz anderen Typ von Synthesizer führte.)

 

Pauline Oliveros arbeitet in ihren Jahren als Direktor des Tape Music Center am Mills College in Oakland mit einem für dieses Institut gebauten Instruments von Don Buchla. In `Crone Music´ jedoch benützt sie ihr „Expanded Accordion“: Live-Elektronik, bei der ihr Akkordeonspiel in ein komplexes System aus Verzögerungen, Tonhöhenänderungen und Raumsimulatoren einfließt, das während der Aufführung von der Komponistin mittels Pedalen gesteuert wird. `Crone Music´, für eine New Yorker Theaterproduktion des König Lear komponiert, erklingt in kinoartiger Begleitung während der meisten Szenen unter den verstärkten Stimmen der Schauspieler. Dem Interesse an der Sinnlichkeit des Klanges folgend, bildet Pauline Oliveros einen eigenen Stil, den sie „deep listening“ nennt (vielleicht mit: „In Zuhören versunken“ zu übersetzen). Ja sie geht sogar soweit, dieses „deep listening“ als ihre Lebenshaltung zu deklarieren.

 

Eine (klassische) Möglichkeit zwischen dieser Art von Live-Elektronik und Subotnick´s reiner Tonbandmusik wählt Ingram Marshall in seinem Stück `Fog Tropes´: Ein Tonband wird mit live spielenden Musikern (in diesem Fall ein Bläsersextett aus Trompeten, Posaunen und Hörnern) kombiniert. Eines der schönsten Beispiele, wie zwei Medien ineinander fließen und, sich gegenseitig ergänzend, eine neue, fast misteriöse Klanglichkeit bilden. 3 Ganz im Kontrast zu Ingram Marshall, der die Mittel der elektronischen Musik in erster Linie als weitere Möglichkeiten seiner musikalischen Ausdrucksformen sieht und nie den Anspruch erhebt, der Technologie inherente Formen zu finden, steht `Any Resemblance is Purely Coincidental´ von Charles Dodge. Charme, Witz, Schärfe und technische Brillanz – so beschreibt Marshall diesen Meilenstein in Charles Dodge´s Schaffen. Er wollte immer schon überragende Künstler zur Ausführung seiner Musik (Augenzwinkern!). Hier hat der Komponist nun jemand gefunden, der nicht ablehnen konnte: Eine Aufnahme der Arie „Vesti la giubba“ mit Enrico Caruso wird virtuos benutzt, `Any Resemblance …´ zu komponieren. „Recitar!“ singt Caruso am Beginn. Faustischer Hinweis auf das ewige Reproduzieren seiner Kunst durch die Schallplattenindustrie, an deren Beginn er als einer der erfolgreichsten Künstler gestanden ist? Nie mehr Schweigen können, ewig dem Licht der Öffentlichkeit preisgegeben … „Ridi Pagliaccio, …“

 

Die „Leichtigkeit“, mit der die Stimme Caruso´s zu neuen Tönen extrapoliert wird, verblüfft und läßt großes Wissen über akustische Zusammenhänge ahnen. Aber wie entsteht und was ist KLANG? Unser Gehirn codiert und übersetzt auf zum Teil bis heute geheimnisvolle Weise die Schwingungen unserer durch unterschiedlichen Luftdruck bewegten Trommelfelle. Die daraus gewonnenen Wahrnehmungen entfalten sich in einer enormen Vielfalt von lauten, leisen, sanften und rauhen Klängen, vom Heulen des Flugzeugmotors zum Singen des Violintons, vom „Ton“ des Hustens und Schluckens bis hin zu brechendem Glas, Buchumblättern, trommelnden Regen, Autohupen etc. etc.. Das Verdienst der Musique concrète war es, den objektiven Wert von normalerweise flüchtigem musikalischen Material bewußt zu machen. Die Tonaufzeichnung ermöglichte erstmals eine „unmittelbare Berührung mit dem Klangstoff“ (Pierre Schaeffer). Diesen für die Musik neuen Klangstoff zu ordnen, bemüht sich Pierre Schaeffer weit über zehn Jahre lang, um mit seinem „Traité des objets musicaux“ und „Solfège de l´objet sonore“ (1967) einen neuen Katalog des musikalischen Universums aufzustellen.

 

Alle – auch die eben beschriebenen – Klänge und Geräusche können in einfache Schwingungen zerlegt werden, die alle dieselbe Gestalt haben: Was in der Physik „Sinusschwingung“ heißt, nennen wir Musiker – da fast immer viele von ihnen unterschiedlich, aber zugleich erklingen – „Obertöne“. Und wie uns die chemischen Elemente dazu dienen, die detaillierte Beschaffenheit unserer Umwelt zu erkennen, zu beschreiben und gar nachzubauen, sind die Obertöne für die „Beschaffenheit“ der Musik in all ihren Varianten zuständig. Hat das Orchester uns fixe Instrumente (und damit einen strikten Baukasten für Klänge) vorgegeben, ermöglicht die elektronische Musik Zugang zum genetischen Code der Töne und damit eine unendliche Freiheit ihrer Kombination (= Klanggestaltung). Karlheinz Stockhausen schreibt 1953 in seinem Arbeitsbericht über die Entstehung der Elektronischen Musik:

 

„Und so war zum erstenmal die Möglichkeit gegeben, in einer Musik die Klangfarben im wirklichen Sinne zu komponieren, das heißt aus Elementen zusammenzusetzen, und so das universelle Strukturprinzip einer Musik auch in den Klangproportionen wirksam werden zu lassen.“

 

Und Pierre Boulez stellt 1955 fest:

„In der bisherigen Musikgeschichte hat es wohl kaum eine radikalere Entwicklung gegeben. Der Musiker sieht sich vor die gänzlich ungewohnte Situation gestellt, den Klang selbst erschaffen zu müssen.“

 

Luc Ferrari assistiert Pierre Schaeffer bei der Gründung der „Groupe de Recherches Musicales“ (1958/59), die bis heute als GRM einen wichtigen Faktor (z.B. in der Programmierung neuer Software) darstellt. In den apparatemäßig noch ungeheuer teuren siebziger Jahren gründet er sein erstes kleines Studio „Billig“: Der pointierte Witz, für den dieser Komponist bekannt ist – genetischer Code der Musik hin oder her – äußert sich nicht nur in dieser für Frankreich eher originellen Namensgebung … Schon am Beginn seiner Arbeit versucht er, den „konkreten“ Aspekt des aufgenommenen Klangmaterials ernst zu nehmen und 4 behandelt realistische Klänge auch als solche: „Anekdotische Musik“ – ein wichtiger Ordnungsbegriff im explosionsartig erweiterten Klangkosmos – setzt eine imaginäre Erzählung in Gang. Er rückt damit von der Idee der musique concrète als einer autonomen Konzertmusik ab. Luc Ferrari: „In `Presque rien avec filles´ (fast nichts, mit Mädchen) sende ich Bilder aus, aber mehr in der Form eines leeren Rahmens, der vom Zuhörer durch Zuhören gefüllt werden muß. Eine Toskanische Landschaft, ein Elsäßer Wald, Mädchen, die vorübergehen. Und der Rest bleibt mein Geheimnis.“

 

Andere „Szenen einer Wanderung“ – so der Untertitel – sind die 12 Bilder des `Ulysses´ von Roman Haubenstock-Ramati. Selbst ein ewig Wandernder, ist eine seiner frühen Stationen bei Pierre Schaeffer. Dort hört er zugleich erstaunt und verzaubert, den Klang eines um einige Oktaven abwärts transponierten Instrumentes, der ihm ein bis dahin im wahrsten Sinne unerhörtes Universum neuer Klänge eröffnet und ihn treibt, mit neuen Notationstechniken die Limits der Spieltechnik herkömmlicher Instrumente – und damit deren klangliche Ausbeute – zu erhöhen. Das zeigt uns wieder ein anderes der so zahlreichen Phänomene elektronischer Musik: Die Beeinflußung der Instrumentalmusik durch diese neue Klangwelt. Die orchestrale Phantasie und Instrumentationskunst wurden vielleicht auf Fährten gebracht, die sie ohne das Aroma der elektronischen Musik nicht erspürt hätte – und vice versa, wie man wohl hinzufügen muß. Heute ist dieser Impakt, den eine simple Transposition auf einen Komponisten haben konnte, schwer nachzuvollziehen. Nach einer rasanten Evolution, die ganze Studios in den Laptops unserer Komponisten schafft, können wir heute jeden Klang (oft auf Knopfdruck) realisieren. Mit der fortschreitenden Computerisierung im Instrumentenbau (= potentere Instrumente bei zugleich fallenden Preisen) setzt eine Welle der „Demokratisierung“ in der Verwendung des elektronischen Mediums ein. Die komplexesten Instrumente werden als Sonderangebote in Supermärkten für Musikinstrumente via Internet verschleudert und bieten so – endlich unabhängig von großen Institutionen – Zugriff zu bester Technologie für alle. Soweit die gute Nachricht. Das zeitigt natürlich ähnliche Irrtümer wie im Bereich der Printmedien: Der Besitz einer Desktop Publishing Software versetzt den p.t. User noch lange nicht in die Lage, ohne zusätzliches Können bezüglich Schriftgrade, Umbruch etc., ein Buch auch herauszugeben. Die Schwemme von augenbeleidigenden Publikationen findet leider eine Analogie in der Musik.

 

Wie von dem eben diskutierten völlig unberührt, stellt sich uns der nächste „Wanderer“ vor: Die Schwingungen einfacher Telephonüberlandleitungen, die auf Grund ihrer Länge einen von unseren Ohren nicht mehr hörbar tiefen Grundton bilden, sind das akustische Grundmaterial für `Journeys on the Winds of Time I´ von Alan Lamb. Unsere Hörgrenze erreichen diese Klänge erst in ihrem oberen Bereich und wir hören einen von der Tonlichkeit her kaum zu definierenden Schwarm von Mikrointervallen (jede Obertonreihe, die sich über einen bestimmten Klang auftürmt und diesen Klang erst ausmacht, ist eine immer enger werdende Folge von Tönen vom Oktavabstand zu Beginn bis hinauf zu Mikrointervallen). Nun tritt ein Phänomen zu Tage, das der Australische Biologe Alan Lamb aus seiner Wissenschaft gut kennt und die ihn an der „wire music“ als quasi Abbild dieser biologischen Vorgänge so faszinieren: Die Bildung von kohärenten Mustern (Entwicklung des Körperplans beim Embryo, Gehirnfunktionen …). Abhängig von Wind und Drähten, nähern sich verwandte Intervallzonen an und „klumpen“ in einem Crescendo zu harmonischen Schwerpunkten. Wenn sich die Kohärenz auf Grund wechselnder Winde und Kabelspannungen verliert, hört man abschwellende Klänge, während sich im Hintergrund schon neue Muster zu bilden beginnen und um die harmonische Hegemonie kämpfen.

 

Elektronische Musik zur Darstellung von Naturphänomenen? Erinnert uns das nicht an Pythagoras und seinen Glauben, die Bewegung des Kosmos und die der Menschenseele beruhten auf gleichen harmonischen Zahlenproportionen – die Musik sei daher durch ihr Zahlenprinzip Abbild der Weltordnung?

 

Wie Christian Zanési sich morgens ins Studio einschließt, um sich – umgeben von der modernsten Apparatur der GRM in Paris – auf eine ferne Reise zu begeben, macht ihn zu einer anderen Art Wanderer und typischen Vertreter des Cyberspace Zeitalters. `Stop! l´horizont´ ist 5 ein fantastischer Ausflug ins alchemistische All eines Komponisten, der uns mit fundiertem Handwerk, zugleich aber seiner Intuition fest vertrauend, in die glitzernden Spiralnebel seiner Phantasien entführt.

 

Um Ihnen die ewig stimulierende Komplexheit unseres Klangkosmos ein bißchen näher zu bringen: Das Klavier gilt als das kompliziertest klingende mechanische Instrument, das wir gebaut haben. In den wenigen Sekunden, die ein Klavierton klingt (und in denen er verklingt), haben Akustiker mehrere tausend Klangveränderungen festgestellt. Und das war der Ton eines Instrumentes, dessen grundsätzliche Charakteristik sich nicht ändert, egal ob laut oder leise, hoch oder tief gespielt wird. Die menschliche Sprache schlägt diesem Faß den Boden aus: Jeder Konsonant und jeder Vokal, den wir artikulieren, stellt in seinen akustischen Kriterien ein anderes Instrument dar. Und das war noch der einfache Teil. Jedes Wort – das heißt: jede neue Verbindung der einzelnen Vokale und Konsonanten katapultiert uns in ein unermeßlich Vielfaches von „instrumentalen“ Ausdrucksmöglichkeiten. So verwundert es nicht, daß von Beginn der elektronischen Musik an seitens der Komponisten großes Interesse an menschlicher Lautäußerung herrscht und unterschiedlichste Inspirationen davon ausgehen.

 

`Kesquidi´ von Pierre Henry ist eine „Sprachmusik“ aus dem Jahre 1954. Dem Vorwurf der mechanischen Leblosigkeit (nicht an ihn, sondern generell und bis heute an die Adresse der elektronischen Musik gerichtet) begegnet er schon 1950 mit einem sehr wichtigen Satz: „Wenn wir gegen das Mechanische kämpfen wollen, müssen wir mechanische Methoden benutzen, um so die Maschine gegen sich selbst zu wenden.“ Kaum ein anderer Mensch hat sich länger mit der Komposition von auf Tonband aufgenommenen Klängen beschäftigt. Über Pierre Henry im Kontext elektronischer Musik in zwei Zeilen zu schreiben, ist vermessen … Mögen seine eigenen Worte mich entschuldigen: „Ich lege keinen Wert darauf, daß meine Musik analysiert wird, ich lege Wert darauf, daß sie aufgenommen wird, so wie sie ist, roh.“

 

Karel Goeyvaerts zeigt in `Komposition Nr.5´ in an Piet Mondriaans Strenge gemahnender, vor Spannung knisternder Stringenz vor, was von vielen „Noise-Schüttern“ heute in formloser Langeweile nachfabriziert wird: Den musikalischen Prozeß auf isolierte akustische Monaden zu reduzieren und sich in großer Keuschheit auf die einfachsten Aspekte der Klangkomposition zurückzunehmen. Reinste Kölner Schule 1953 (doch: „Wenn Du nur 10 Zentimeter über den Leuten stehst, kannst Du plötzlich machen was Du willst – Du kannst eine halbe Stunde weißes Rauschen abspielen und die Leute klatschen.“ Heute, ein bekannter „Powerbook-Musiker“).

 

Die beiden Gründerväter des ersten Studios für elektronische Musik in Italien, Luciano Berio und Bruno Maderna, haben sich nie auf den ästhetischen Streit zwischen Köln und Paris eingelassen und den philosophischen Implikationen, ein Mikrofon zu benützen oder nicht, wenig Aufmerksamkeit geschenkt. Sprache ist für beide eine wichtige Klangressource – das Tempophon (oder Springermaschine, nach ihrem Erfinder benannt) wichtiges Instrument, um so z.B. ein Wort millimeterweise abzutasten und Sprache in ihrer unfaßbaren Bewegungsmannigfaltigkeit klanglich zu „erfahren“. `Thema – Omaggio a Joyce´ (1958) von Luciano Berio basiert auf dem Wechsel von originalen und bearbeiteten Silben, ein Kontinuum zwischen Verstehen und abstrakten musikalischen Klang. Die Möglichkeit, mit dem Prozeß des menschlichen Verstehens zu spielen, indem man den Grad der bewußten Wahrnehmung regulierte, war ein wesentliches Mittel, das Ohr des Zuhörers zu schärfen, um die damals noch fremde Welt der elektronischen Klänge zu erforschen und zu evaluieren. Die Arbeiten Berio´s und Maderna´s zeigen, wie die „natürliche“ Klangwelt subtil durch die kundige Ausführung elektronischer Prozesse erweitert werden kann. Die Unmittelbarkeit dieser Methode öffnete einen sehr ansprechenden Weg, sich einerseits vom Strukturalismus der Kölner Schule zu befreien und andrerseits die Naïtivität der ersten Exkursionen ins Reich der Musique concrète auszuräumen.

 

Herbert Eimert nahm den 75. Geburtstag Stravinskys zum Anlaß, das Wort in einer wieder andere Art zu „vertonen“. Der auf Tonband gesprochene Titel des Stückes `Zu Ehren von Igor Stravinsky´ wird durch mehrere Filter in einzelne Frequenzbänder zerlegt (als würden Sie die Photographie eines Gesichts in mehrere Streifen zerschneiden). Diese wiederum steuern mit 6 den in ihnen enthaltenen Energien Oszillatoren der jeweiligen Tonhöhen an (die Farbigkeit des jeweiligen Streifens Ihres Bildes wird entsprechend auf eine Reihe künstlicher Lichtquellen übertragen). Diese einzelnen Klangschichten werden nun auf unabhängige Zeitreise geschickt und erklingen in verschiedenen Stadien einer verschobenen Synchronität (Sie verschieben die einzelnen Streifen wahlweise nach links und rechts und schaffen so immer neue, meist abstrakte Bildzusammenhänge). Wir hören zwar eine synthetisch generierte Musik, durch die jedoch magisch die menschliche Sprache hindurchschimmert (die vielen kleinen Lichtquellen abstrahieren unser Photo, behalten jedoch dessen Konturen bei).

 

Inzwischen benutzen wir in einer enorm gesteigerten Präzision und Vielfalt diese Art von cross over: Konkrete Klänge, um mit Hilfe der aus ihnen deduzierten Daten (Lautstärke oder Tonhöhe) das Verhalten synthetisch produzierter Klänge zu steuern und umgekehrt, das Verhalten konkreter Klänge durch synthetisch generierte Muster zu erweitern. Oder – wie in `Mortuos Plango, Vivos Voco´ von Jonathan Harvey – das Muster eines Naturklanges einem zweiten aufzuprägen: In dem am IRCAM – eines der weltweit führenden Institute zur musikalischen Grundlagenforschung – realisierten Stück wird das Spektrum einer großen Glocke analysiert. Ton für Ton wird durch in den Computer eingespielte Knabenstimmen sowohl in seiner Höhe als auch Lautstärke ersetzt. Es entsteht ein fast unheimlicher Effekt eines Glockengeläuts aus Knabenstimmen.

 

1967 stellt Hugh Davies im `International Electronic Music Catalog´ fest, daß seit 1951 circa 7500 Tonbandkompositionen fertiggestellt worden waren. Das ist nun über 30 Jahre her und überblickt einen Zeitraum, wo meist nur ausgewählte akademische Institutionen oder Radioanstalten Zugang zur benötigten Technologie boten. Diese Fülle von elektronischen Musikproduktionen Ende der sechziger Jahre erlaubt jetzt, nach der in der Zwischenzeit fast „natürlichen“ Anwendung des neuen Mediums, nicht einmal den Gedanken, einen Überblick über das vielfältige Schaffen in dieser Sparte auch nur bruchstückhaft darzustellen. Einer der unübersehbaren Leuchttürme dieses Genres jedoch ist das `Poème électronique´ von Edgar Varèse (1883 – 1965), welches in einem von Le Corbusier für die Weltausstellung 1958 in Brüssel entworfenen Pavillon über 400 Lautsprecher und einem 11-Kanalsystem (diese Angaben ändern sich bei jeder Quelle – so vertrauensvoll ist Historienschreibung schon der jüngsten Vergangenheit …) erklang. Mit dem Ziel von 480 Sekunden Musik arbeitet Varèse ca. 8 Monate in den Labors von Philips in Eindhoven. Die Aufführungen (von Mai bis Oktober) sind ein großer Erfolg (Le Corbusier: „400 klangspendende Münder umgeben 500 Besucher“) und bringen einen späten Durchbruch für Varèse, der schon 1936 von einer seismographischen Notation spricht, die direkt von Maschinen interpretierbar sein wird. Heute kann man um $299 ein Computerprogramm erwerben, das das Zeichnen auf einer Oberfläche, die Farbwerte und das Hell–Dunkel eines Bildes oder einer Graphik in Klang umsetzt. Dem Komponisten steht eine enorm flexible und in ihrer Komplexität frei zu gestaltende Skala zur Verfügung, die definiert, nach welchen Gesichtspunkten die Klangumwandlung zu geschehen hat.

 

Der Assistent von Le Corbusier bei diesem Projekt, Yannis Xenakis, komponiert ein kurzes Stück, das zwischen den Aufführungen des `Poème electronique´ gespielt wurde. In `Conret PH´ benutzt der Komponist Aufnahmen von glimmender Kohle, die er in sehr kurze Klangelemente zerlegt. Diese wiederum, in ihren Intensitäten immer verändernd, akkumuliert er in riesigen Quantitäten zu Klangwolken. Er beschreitet damit einen neuen Weg in der Klangsynthese, die der Nobelpreisträger Dennis Gabor 1946 vorgezeichnet hatte: Jedweder Klang kann mittels akustischer Quanten („grains“) analysiert und wieder rekonstruiert werden.

 

Heute verwenden wir die Granularsynthese als eine Art Klangspray, sowohl um synthetische Klänge zu generieren, als auch konkrete Klänge in ihrem Erscheinungsbild zu verändern. Die Düse der „Sprühdose“ kann dabei penibel von exakter „Laserchirurgie“ bis hin zu breiten Flächen manipuliert werden. Horacio Vaggione benutzt in `Schall´ unter anderem diese Verfahren, um Klavierklänge über ihre Konnotation hinaus in eine größere akustische Dimension zu integrieren. 7 Einer, der dies auf Grund seiner Forschungsarbeiten – unter anderem auch auch bei Max Matthews in Amerika – möglich gemacht hat, ist Jean-Claude Risset. Er vergleicht seinen musikalischen Ausdruckswillen mit der Arbeit von Cézanne: Jener wollte „weibliche Rundungen mit den Linien einer weichen Hügellandschaft vereinen.“ In `Sud´, das zuerst wie eine Phonographie beginnt, schafft er aus den anfänglich pur verwendeten Naturklängen Chimären aus Vogelwesen und Metall, Zwitter aus Meer und Holz. In `Exultidudes´ von Gilles Racot werden diese Klangkreuzungen virtuos zwischen einem live spielendem Saxophon und dem Computer weitergesponnen.

 

Seine etwas atypische Laufbahn verschlägt Christian Teuscher – gesuchter Keyboarder österreichischer Popgrößen (Falco etc.) – in die Wiener Albertina, die er leer liest (authentisches Zitat) und dabei via Athanasius Kircher und Yannis Xenakis auf die Bedeutung der Zahl in der Musik und die damit verbundenen Möglichkeiten im digitalen Zeitalter stößt. `Akute Momente´ ist quasi ein Zwischenbericht eines work in progress – wie eine Flaschenpost aus dem Meer der Zahlen an die Oberfläche gespült. Er gehört zu jener Generation von individuellen Programmierern, die am „Heimcomputer“ die noch vor ein oder zwei Jahrzehnten geleisteten Pioniertaten großer Institute langsam verblassen lassen. Seine eigenen Algorithmen entwickelnd, spinnt er die lange Tradition der von Max Matthews inizialisierten Musikprogramme fort …

 

„Das elektronische Musikinstrument kann schließlich jede Form annehmen. Es kann jede Art von Musik spielen. Und es kann in jeder Art gespielt werden. In der einen oder anderen Form, so oder so gespielt, möge es nur allen musikalischen Bedürfnissen entsprechen.“ Joel Chadabe, Electric Sound (1997)

 

“Die Künstler müssen sich aber immer mit den neuen, rationellen Methoden und technischen Mitteln und Erneuerungen vertraut machen; sie gehören sonst nicht mehr zu der eigenen Epoche, die ja andererseits ohne eigene Kunst unvollkommen bliebe.” Roman Haubenstock Ramati

bottom of page