FORVM, No. 91/92
Juli
1961

Musik von anderen Planeten

Zur Geschichte und Gegenwart der elektronischen Musik

Die konkrete und insbesondere die elektronische Musik sind für den oberflächlichen Betrachter von einer Aura des Technischen umgeben. Komponisten solcher Musik werden eher für Ingenieure oder Geräusch-Bastler angesehen als für Künstler. Manche meinen sogar, diese Musik sei Ausdruck des Atomzeitalters, was gewiß von der mißverständlichen Bezeichnung „elektronisch“ herrührt.

Indessen ist das technische Moment keineswegs das Primäre in dieser Kunstgattung. Die Technik steht lediglich im Dienst der Realisation musikalischer Vorstellungen, die mit den herkömmlichen instrumentalen und vokalen Mitteln nicht verwirklicht werden können. Als akustische Erscheinungen sind die auf elektronischem Wege produzierten Klänge von den instrumentalen oder vokalen in ihrem Wesen nicht verschieden. Sie alle bestehen aus Schwingungen der Luft; die Klangerzeugung geschieht einerseits durch feste Körper, die auf mechanische Weise in Schwingung gebracht werden wie Saiten oder Stimmbänder, anderseits durch eine vom Wechselstrom in Vibration versetzte Lautsprechermembran. Die Trennung der beiden Erzeugungsvorgänge in natürliche einerseits (bei der instrumentalen und vokalen Musik) und in technisch-artifizielle anderseits (bei der elektronischen) ist nicht gerechtfertigt. Denn beide sind artifiziell. Die Natur kennt musikalische Klänge nur ausnahmsweise und musikalische Kontexte überhaupt nicht. Sie kennt Geräusche, aber gerade diese akustische Erscheinung wird von jenen, die das „Natürliche“ in der Musik propagieren, als das Unnatürlichste angefochten.

Über diese grundsätzliche Gemeinsamkeit hinaus gibt es aber ein wichtiges Merkmal, das die elektronischen Klänge von den instrumentalen und vokalen unterscheidet. Die instrumentalen und vokalen Klänge besitzen spezifische und bloß innerhalb gewisser Grenzen variable Klangfarben — denken wir nur an den Streicherklang, der zwar durch verschiedene Stricharten wie „am Steg“, „am Griffbrett“, „flautando“ usw. verändert wird, jedoch niemals die klanglichen Charakteristika einer Oboe oder einer Celesta annehmen kann. Hingegen ist es bei den elektronisch produzierten Klängen möglich, das Klangfarbenspektrum unbegrenzt zu variieren. Dies bedeutet, daß bisher nicht gehörte Klangfarben erzeugt werden können und sogar beliebige kontinuierliche wie diskontinuierliche Klangfarbenveränderungen. Eigentlich führte gerade der Wunsch, über die Klangfarben unbeschränkt kompositorisch zu verfügen, zur Erforschung der Möglichkeiten elektronischer Musik.

Ein Klang besteht aus einem Grundton und aus einer Anzahl von Teiltönen. Um zu verdeutlichen, daß der Klang eigentlich ein zusammengesetztes Gebilde ist, nennt man ihn heute, in Analogie mit dem optischen Farbspektrum, auch Klangspektrum. Die Klangspektren sind im allgemeinen harmonisch, d.h. die Frequenzen der Teiltöne sind ganzzahlige Mehrfache der Frequenz des Grundtons. Die Teiltöne, die in einem Klangspektrum vorhanden sind, sowie die Proportion der Lautstärken der einzelnen Teiltöne untereinander und dem Grundton gegenüber bestimmen die Klangfarbe. Diese Proportion bleibt während der Dauer des Klanges nicht konstant. Besonders am Anfang des Ertönens gibt es unregelmäßige Intensitätsschwankungen der einzelnen Teiltöne, die sich mit verschiedener Geschwindigkeit aufbauen. Diese Erscheinung heißt Einschwingvorgang und ist besonders charakteristisch für die jeweilige Klangfarbe. Wenn man zum Beispiel einen mittleren Klavierton und einen Flötenton — zwei Klänge also, die in ihrer Klangfarbe grundverschieden sind — auf Tonband nimmt und dann die Einschwingvorgänge, das heißt den Klavieranschlag und den Flöteneinsatz, durch Zerschneiden des Tonbandes abtrennt, kann man die beiden ursprünglich verschiedenen Klänge nur noch sehr schwer ihrer Farbe nach voneinander unterscheiden.

Nun sind sowohl die spektralen Proportionen wie auch die Einschwingvorgänge bei den instrumental oder vokal erzeugten Klängen im vorhinein gegeben. Mit elektronischen Klangerzeugungsmitteln kann man aber beliebige Spektren und Einschwingvorgänge realisieren und jeden Teilton auch einzeln, sowohl in seinem Einsetzen wie auch in seiner Dauer und seinem Ausklingen, genau bestimmen. Im Prinzip ist die Sache sehr einfach: man erzeugt mittels eines Generators einen Wechselstrom und führt ihn zu der Membran eines Lautsprechers. Wenn die Frequenz dieses Wechselstroms zwischen ca. 20 und 17.000 Schwingungen pro Sekunde liegt — also innerhalb der Grenzen, zwischen denen Schwingungen hörbar sind — so wird die vom Wechselstrom in Schwingung versetzte Lautsprechermembran einen entsprechenden Ton hervorbringen. Da man, dank dem Entwicklungsstand der Elektrotechnik, nicht nur die Frequenz eines Wechselstroms, sondern auch die Form der Schwingungen genauestens bestimmen kann, ist es möglich, dadurch den erzeugten Ton oder Klang weitgehend in allen spektralen Einzelheiten zu beeinflussen.

Man kann nunmehr Schwingungen produzieren, die eine bestimmte Anzahl von harmonischen Teiltönen bereits enthalten, und danach in diesen komplexen Spektren die ungewünschten Teiltöne mittels elektrischer Filter abschwächen oder sie völlig daraus eliminieren. Ein noch viel zweckmäßigeres, wenn auch zeitraubendes Verfahren ist es, die aus Teiltönen bestehenden komplexen Klänge nicht direkt zu erzeugen, sondern die einzelnen Teiltöne separat mittels eines Sinusgenerators herzustellen. Sinusschwingungen sind bekanntlich reine, teiltonlose Schwingungen, die solcherart als Teiltöne dienen können. Aus diesen einzelnen reinen Tönen können die Klänge, gemäß den gewünschten Proportionen und mit den gewünschten Veränderungen im Detail, aufgebaut werden. Auf diese Weise lassen sich im Prinzip auch Einschwingvorgänge gestalten; außerdem ist man nicht mehr auf Klänge aus harmonischen Teiltönen beschränkt, vielmehr lassen sich nun beliebige Tongemische aus beliebigen Tönen in beliebiger Proportion zusammensetzen. Durch die elektronische Klangerzeugung ist also die Möglichkeit zur Komposition in den Mikrobereichen der Musik, den internen spektralen Verhältnissen des Klanges, gegeben.

Die elektronische Musik ist das Produkt der Fünfzigerjahre. Warum setzte gerade damals bei einigen Komponisten das Bedürfnis ein, die Mikroverhältnisse der Musik in die kompositorische Gestaltung einzubeziehen? Welche Umstände erzeugten dieses Bedürfnis? Wurde es durch die Entwicklung der technischen Möglichkeiten verursacht, oder bedingte umgekehrt die damalige kompositorische Situation die Entwicklung technisch adäquater Realisationsmittel?

Im allgemeinen schafft man Werkzeuge, um sich ihrer für bestimmte Zwecke zu bedienen. Oft bewirkt aber das bloße Vorhandensein eines zu anderem Zweck geschaffenen Werkzeugs den Beginn einer ungeahnten Entwicklung. Technische Produkte, vom menschlichen Geist hervorgebracht, wirken auf die geistige Entwicklung zurück; das veränderte Bewußtsein erfindet neue technische Produkte und bedient sich ihrer in einer neuen Art. So stehen Kunst und Technik in fortwährender Wechselwirkung.

Die Künste gebrauchen die Resultate der Technik, soweit solche zur Verwirklichung von künstlerischen Vorstellungen verwendbar sind; außerdem können neue technische Mittel das Entstehen neuer geistiger Kategorien und damit auch neue künstlerische Ansprüche und Vorstellungen anregen. So war das Entstehen der elektronischen Musik zweifellos von der Entwicklung der Tonspeicherungstechnik, vornehmlich von der Erfindung des Magnetophons, abhängig.

Wie so oft am Beginn einer neuen Entwicklungsphase, standen auch hier die allerersten Versuche nicht unter einer klar festgelegten Zielvorstellung, sondern erfolgten eher aus spielerischem Antrieb. Die erwähnte Umwandlung des kompositorischen Denkens, das bewußte Eingreifen in die Mikrobereiche des Klanges, kam erst ein wenig später. Die Versuche wurden in den Vereinigten Staaten begonnen, wo Tonbandgeräte bereits früher als in Europa allgemein verbreitet waren. Die leichte Manipulierbarkeit des Tonbandes führte unmittelbar zum Einfall, aufgenommene Musikstücke auch umgekehrt abzuspielen, einzelne Teile davon herauszuheben und anderswo einzumontieren, einzelne Klänge zu zerschneiden und voneinander unabhängige musikalische Verläufe aufeinanderzukopieren, so daß zusammenklingt, was eben gerade zusammenkommt.

Systematisch beschäftigten sich zuerst Vladimir Ussachevsky und Otto Luenig gegen Ende der Vierzigerjahre damit, und zwar an der Columbia University in New York. Was sie herstellten, war noch keine elektronische Musik, denn die Töne wurden von Instrumenten erzeugt. Auch war die musikalische Substanz noch recht althergebracht. Jedoch unterwarfen Ussachevsky und Luenig die Bandaufnahmen der Instrumentalmusik den erwähnten Tonbandmanipulationen, und was dabei herauskam — sie nannten es „music for tape recorder“, also „Musik für Tonbandgeräte“ —, war ein Produkt, das in seiner Erscheinungsform über die Instrumentalmusik hinausreichte.

Parallel zu den amerikanischen Experimenten und unabhängig davon fanden auch in Europa Versuche mit Klangmontagen statt, die sich in der späteren Entwicklung als noch fruchtbarer herausstellten. Dies waren die Experimente von Pierre Schaeffer im Studio des Pariser Rundfunks, ebenfalls schon gegen Ende der Vierzigerjahre begonnen. Schaeffer wählte allerdings einen anderen Ausgangspunkt als Luenig und Ussachevsky; er verwendete nicht Instrumentalmusik, sondern hauptsächlich Geräusche. Geräuschkulissen und sogar kompliziertere Geräuschmontagen gehörten schon viel früher zu den Requisiten des Rundfunks, doch wurden sie vorher nicht zu autonomen Werken kombiniert.

Außerhalb des Rundfunks gab es bereits einige Beispiele für reine Geräuschkomposition. Noch in den Zeiten des Futurismus experimentierte Luigi Russolo mit selbstgebastelten Geräuschinstrumenten, und in den Dreißigerjahren komponierte Edgard Varèse seine „Ionisation“ für verschiedene Schlaginstrumente, Sirene und Klavier. Dieses Werk erwies sich nachträglich als epochemachend, denn es zeigte, daß nicht nur aus sogenannten musikalischen Klängen, sondern lediglich aus Geräuschen eine komplexe und differenzierte Komposition entstehen kann.

Neben Varèse komponierte in Amerika auch John Cage Geräusch-Stücke, so die „Music in metal“ für Metallschlagzeug und verschiedene Metallstücke. Schaeffer übertrug jedoch die Geräuschkomposition in den Bereich der gespeicherten Musik. In seinen ersten Versuchen verwendete er noch nicht das Magnetophon, sondern Plattenaufnahmen. Dieses Verfahren stellte sich bald als schwerfällig heraus, und im Jahre 1950 ging Schaeffer, zusammen mit seinen Mitarbeitern Jacques Poullin und Pierre Henry, zum Gebrauch des Magnetophons über.

Mit Hilfe von Band-Montagen und durch Ineinanderblenden und Vermischen von aufgenommenen Geräuschen sowie durch Anwendung von Klangtransformationsmethoden (wie Geschwindigkeitsänderung — die bei einer Bandaufnahme zugleich Transposition bedeutet —, Filtrieren, Verhallen und verschiedene Arten von Frequenz- und Amplituden-Veränderung) war es möglich, über die Geräuschpalette, wenn auch in beschränktem Maß, kompositorisch zu verfügen.

Außer Geräuschen verwendete die Pariser Komponistengruppe auch auf Band aufgenommene und dann mittels der erwähnten Methoden manipulierte Instrumental- und Vokalklänge, schließlichauch die Sprache. Die ganze Gattung wurde „musique concrète“ genannt, um anzuzeigen, daß als akustisches Ausgangsmaterial Klänge und Geräusche der realen Umwelt dienten. Die „musique concrète“ ist also noch keine eigentlich elektronische Musik. Sie stellt jedoch das wichtigste Vorstadium dar. Denn einerseits hat sie die Tonbandtechnik für kompositorische Zwecke erschlossen, anderseits gab sie durch den Hinweis auf den bisher nur wenig beachteten Bereich der differenzierten und komplexen Geräusche den Anlaß zu subtilen Klangfarbenvorstellungen, die dann später in der elektronischen Musik weiterentwickelt werden konnten.

Die unmittelbare technische Voraussetzung für die elektronische Musik entstand durch die Vereinigung von zwei bis dahin getrennten Gebieten: der elektronischen Klangerzeugung und der Tonbandtechnik. Elektronische Musikinstrumente gab es in großer Zahl und großer Verschiedenartigkeit bereits seit den Zehner- und Zwanzigerjahren — die bekanntesten sind das Theremin-Instrument, das Trantonium und die Ondes Martenot. Ihr Klang wird durch Wechselströme erzeugt, doch ist diese Musik noch nicht das, was man „elektronische Musik“ zu nennen pflegt. Um terminologische Unklarheiten zu vermeiden, muß präzisiert werden, daß unter elektronischer Musik nur Musik zu verstehen ist, die durch elektronische Tonerzeugung zustandekommt, nicht aber von Interpreten direkt gespielt, sondern in einem Studio aus ihren klanglichen Elementen synthetisiert wird, also bloß auf Tonband vorhanden ist.

Der Vorgang des Synthetisierens ist sehr mühsam, da feinste klangliche Elemente oft einzeln hergestellt werden müssen. Es erhebt sich sogleich die Frage, weshalb dies notwendig wurde. Obwohl die elektronischen Musikinstrumente eine viel reichere Klangfarbenpalette besitzen als die traditionellen Instrumente und diesen gegenüber auch insofern einen bedeutenden Fortschritt darstellen, als ihre Klangspektren innerhalb gewisser Grenzen vorausbestimmbar sind, gestatten sie noch kein wirkliches kompositorisches Eingreifen in die Mikrostruktur der Musik. Man kann sie auf bestimmte Spektren einstellen, die aber mit dem Grundton starr gekoppelt sind, was im Endeffekt über eine — wenn auch beträchtlich erweiterte — Art von Orgelregistratur nicht wesentlich hinausgeht. Da man auf den elektronischen Instrumenten genau so spielt wie auf den traditionellen Instrumenten, bleibt außerdem die auf jenen erzeugte Musik auch innerhalb der Grenzen des vom Interpreten manuell Ausführbaren.

Gerade um diese Beschränkungen zu durchbrechen, war die Einbeziehung der Tonbandtechnik erforderlich. So wurde erst das erwähnte Zusammensetzen von Klängen oder noch komplexeren musikalischen Gestalten und Strukturen aus genau definierbaren Elementen in genau definierbarer Organisation möglich. Nun konnte man jedes Element, also auch jeden Teilton separat, auf dem Band fixieren; nun konnte man — dem kompositorischen Plan gemäß — den ganzen Verlauf solcher Elemente genau bestimmen; nun konnte man durch entsprechendes Schneiden und Zusammenkleben der Bandstücke, die diese Elemente enthalten, sowie durch Aufeinanderkopieren die Komposition aus ihren Mikro-Formteilen Schritt für Schritt aufbauen.

Unabhängig vom Entwicklungsstand der Elektronik und Tonspeicherung hatte sich auch die kompositorische Situation tiefgreifend gewandelt. Gerade zu Beginn der Fünfzigerjahre war die Zeit für das Erschließen eines ganz neuen Bereiches der Musik reif geworden, vor allem durch die Ausbreitung der Reihenkomposition. Nach der seriellen Organisation der Tonhöhe tendierte das Prinzip der Vor-Ordnung dazu, sich auf die Totalität der Form auszudehnen. Serielle Organisation bedeutet, daß ein Kontinuum gewissen Proportionen entsprechend aufgeteilt, also in diskrete Elemente verschiedener Größenordnung umgewandelt wird; diese Elemente werden dann zu einer Reihe gefügt, und die Form wird aus gewissen Kombinationen solcher Reihen untereinander aufgebaut.

Die Bereiche des Rhythmus und der Dynamik, die ohnehin Kontinua darstellen, waren ohne weiteres seriell verfügbar: man wählte einen kürzesten und einen längsten Dauernwert und zwischen diesen beiden Extremen konnte man beliebige graduelle Zwischenwerte von Dauern, den gewählten Proportionen entsprechend, aufstellen. Ähnlich konnte man zwischen einem gewählten niedrigsten und einem gewählten höchsten Intensitätswert beliebige vermittelnde Intensitätswerte festlegen.

Mit den Tonhöhen war es ein wenig umständlicher. Denn obwohl diese ebenfalls ein Kontinuum bilden, ließ die traditionelle, gleichmäßig temperierte Stimmung der Instrumente eine proportionelle Aufteilung der Oktave nur in zwölf gleiche Intervalle zu. Es gab keine Möglichkeit für andere Aufteilungen, etwa in fünf oder dreizehn gleiche oder gar in ungleichmäßige Intervalle. Um das Prinzip der Zwölftonreihen auf beliebige Tonhöhen-Proportionen anwenden zu können — eine Bestrebung, die wegen des Fallenlassens der Begrenzung „Zwölf“ im rhythmischen und dynamischen Bereich auch im Bereich der Tonhöhen aktuell wurde —, mußte man zu elektronischer Klangerzeugung greifen. Denn nur mit ihrer Hilfe läßt sich das Tonhöhen-Kontinuum frei strukturieren.

Noch dringlicher war der Eingriff in den Bereich der Klangfarben. Bisher war es nicht möglich gewesen, zwischen zwei instrumentalen Klangfarben Zwischenwerte zu setzen — was könnte etwa zwischen einem Klavierklang und einem Hornklang vermitteln? Die Klangfarben bildeten kein Kontinuum; sie waren, im Gegensatz zu den quantitativ erfaßbaren Bereichen der Zeitdauer, Tonhöhe und Intensität, bloß qualitativ bestimmbar, widersetzten sich also der seriellen Organisation. Hier war der entscheidende Punkt, an dem die Diskrepanz zwischen den einzelnen kompositorischen Dimensionen nur durch Heranziehen der elektronischen Klangerzeugung beseitigt werden konnte. Diese erlaubte es, den bisher auf individuelle Spektren zersplitterten Bereich der Klangfarben in ein Kontinuum umzuwandeln. Zwischen zwei beliebig aufgebauten Spektren konnten nun sowohl kontinuierliche wie auch graduelle Übergänge durch vermittelnde Spektren, also durch Klangfarben-Zwischenwerte, geschaffen werden.

Außerdem wurde es möglich, die bisherige, scheinbare Kluft zwischen Geräusch und sogenanntem musikalischem Klang (harmonischem Spektrum) zu schließen. Durch die Aufeinanderschichtung von immer mehr Teiltönen — wobei immer mehr Schwebungen entstanden — konnte die Geräuschhaftigkeit des Klanges graduell gesteigert werden. Umgekehrt konnte man aus einem Geräusch durch adäquates Filtrieren einzelne Frequenzbereiche herausheben und so das Geräusch zu sehr schmalen Frequenzbändern abbauen, die einzelnen Sinustönen fast völlig entsprechen.

Noch ein anderer entscheidender Faktor trug zum Entstehen der elektronischen Musik gerade um 1950 bei: das damalige Stadium der Phonetik. Sprachanalysen mit elektrischen Filtern und die künstliche Sprachsynthese bildeten den Mittelpunkt derexperimentellen Sprachforschung. Die hierzu ausgearbeiteten Methoden konnten auch für die Musik nutzbar gemacht werden. So ist es kein Zufall, daß ein sehr wichtiger Anteil an der Initiierung der elektronischen Musik gerade einem Phonetiker zu verdanken ist, dem 1960 verstorbenen Universitätsprofessor Werner Meyer-Eppler, der bereits 1949 Experimente in dieser Richtung durchführte. Gemeinsam mit den Komponisten Herbert Eimert und Robert Beyer drang er auf die Gründung eines Studios für elektronische Musik. Dank dem damaligen Intendanten des Kölner Rundfunks, Hanns Hartmann, konnte dieses Bestreben bald verwirklicht werden: 1951 stellte Hartmann innerhalb des Rundfunks die entsprechenden Geräte zur Verfügung, so daß in diesem ersten Studio bald elektronische Kompositionen entstehen konnten. Leiter des Studios für elektronische Musik wurde Herbert Eimert; 1953 wurden Karlheinz Stockhausen und 1955 Gottfried Michael Koenig ständige Mitarbeiter.

Bis 1956 war das Kölner Studio das einzige seiner Art. In diesem Jahr gründete der italienische Rundfunk in Mailand das zweite Studio, in dem vor allem Luciano Berio und Bruno Maderna arbeiteten; seitdem haben mehrere Rundfunkstationen elektronische Studios eingerichtet. Außerdem stifteten Industrie-Unternehmen, die elektronische Geräte erzeugen, solche Studios. Dazu gehören die Philips-Werke in Eindhoven, die APELAC-Gesellschaft in Brüssel (dieses Studio leitet Henri Pousseur, der früher bereits mehrere Stücke in Köln und Mailand realisiert hat) und neuerdings die Siemens-Werke in München. In dem letztgenannten Studio stehen schon halb-automatisierte technische Einrichtungen zur Verfügung, die den Realisationsprozeß elektronischer Kompositionen vereinfachen. Ähnliche und noch komplexere Einrichtungen gibt es auch im neuen, von Milton Babbitt und Vladimir Ussachevsky geleiteten Studio der Universitäten Princeton und Columbia in New York.

Mit der zunehmenden Verbreitung der elektronischen Musik ist eine unvermeidliche Verflachung verknüpft. Die Mittel der elektronischen Musik werden teils degradierend, zu bequemer Produktion von Hörspiel-Klangkulissen, teils völlig unfunktionell für traditionell geformte Werke verwendet. Dabei wirken die elektronischen Mittel bloß als äußerliche Dekoration; solche Werke verleugnen den geschichtlichen Prozeß, der mit Notwendigkeit zur elektronischen Musik führte. Doch ist diese Verflachung nicht als alarmierend aufzufassen. Neue Gedanken haben und hatten immer das Los, bald nach ihrem Entstehen an Epigonen zu gelangen und ihre ursprüngliche Bedeutung einzubüßen. Zugleich kommen jedoch stets neue Gedanken auf, so daß trotz der sich anhäufenden Abfälle die Kunst nicht untergeht.

Zu Beginn der Fünfzigerjahre trachtete man im Kölner Studio danach, auf Band fixierte komplexere Klänge, die von elektronischen Instrumenten erzeugt wurden, als Ausgangsmaterial für elektronische Kompositionen zu verwenden. Ein entscheidender Schritt zur konsequenten und funktionellen Anwendung elektronischer Klangerzeugung war 1953 eine Neuerung Stockhausens. Er eliminierte die üblichen elektronischen Instrumente völlig aus der Klangproduktion und bediente sich ausschließlich der Generatoren, vor allem solcher, die reine Sinusschwingungen erzeugen. Erst auf diese Weise wurde die erwähnte vollkommene Kontrolle über die Klangsynthese gewährleistet.

Es erwies sich jedoch bald, daß diese puristische Richtung nicht weitergeführt werden kann. Einerseits stieß man bald an die Grenzen, die durch die Unvollkommenheit der technischen Mittel bedingt waren — die Zahl der einzelnen Teiltöne, die übereinander kopiert werden sollten, mußte niedrig gehalten werden, um zu einem sauberen Resultat zu kommen —, wodurch komplexere Spektren und Tongemische nicht synthetisierbar waren. Anderseits stellte sich die totale Kontrollierbarkeit als utopisch heraus. Denn fast bei jeder Synthese traten auch nicht strikt prädeterminierbare, sogenannte aleatorische Klangvorgänge auf, und zwar besonders bei der Verhallung der produzierten Spektren und Tongemische, einem Verfahren, das aus technischen und klanglichen Gründen unvermeidlich ist. So konnte man am Konzept einer total determinierten Organisation nicht festhalten und wurde gezwungen, aleatorische Vorgänge in den Kompositionsplan einzubeziehen — was sich später als äußerst fruchtbar erwies.

Mit dem Fallenlassen der totalen Kontrolle eröffnete sich die Möglichkeit, die elektronische Komposition auf jene klanglichen Bereiche auszudehnen, die wegen beschränkter Kontrollierbarkeit von der neuen Entwicklung bisher ausgeschlossen waren: die instrumentalen und vokalen Klänge. In dem 1955/56 komponierten „Gesang der Jünglinge im Feuerofen“ kombinierte Stockhausen elektronische Klänge mit einer Gesangstimme; darauf folgte etwas später eine ganze Reihe von Vermittlungsversuchen zwischen dem instrumentalen und vokalen Klangbereich einerseits und dem elektronischen anderseits, so zum Beispiel Pousseurs „Rimes“ für elektronische Klänge und Orchester. Noch aus dem Jahre 1954 stammt die bedeutendste Kombination von „musique concrète“ und Orchester: die „Déserts“ von Varèse. Auch die frühere Trennung von „musique concrète“ und elektronischer Musik wurde einigermaßen aufgehoben. Berio realisierte 1958 ein Stück — „Omaggio a Joyce“ — in welchem das musikalische Material nicht elektronisch ist, sondern ausschließlich aus menschlicher Sprache besteht; doch sind die kompositorischen Mittel, mit welchen dieses Material weiterverarbeitet wurde, die der elektronischen Musik.

Parallel zur Wandlung der elektronischen Musik und durch diese Wandlung beeinfiußt, veränderte und verflüssigte sich die serielle Konzeption des Komponierens, so daß die elektronische Musik — ursprünglich Verwirklichungsgebiet der totalen Serialität — mit der Abkehr von der völligen Durchorganisation eine tiefgreifende Funktionsänderung erfuhr. Da es sich hier um ganz aktuelle Tendenzen handelt, geht es nicht an, Prognosen aufzustellen. Eines ist sicher: die Praxis der elektronischen Komposition hat uns um neue musikalische Kategorien bereichert und die Möglichkeit zu neuen klanglichen und formalen Phantasien erschlossen.

Eine Nachricht, ein Kommentar?
Vorgeschaltete Moderation

Dieses Forum ist moderiert. Ihr Beitrag erscheint erst nach Freischaltung durch einen Administrator der Website.

Wer sind Sie?
Ihr Beitrag

Um einen Absatz einzufügen, lassen Sie einfach eine Zeile frei.

Hyperlink

(Wenn sich Ihr Beitrag auf einen Artikel im Internet oder auf eine Seite mit Zusatzinformationen bezieht, geben Sie hier bitte den Titel der Seite und ihre Adresse bzw. URL an.)