EM ist akustische Kunst für bzw. mit Lautsprechern.
Das Ziel heißt: Gestaltung des Hörerlebnisses im Raum.
Man beachte: EM ist nicht Musik für Tonträger (was man zunächst aus dem Wort ”Studio” ableiten würde, wo vor allem früher Tonträger entstanden), sondern Musik für Lautsprecher (Lautsprecher dienen normalerweise nur der Kontrolle dieser Tonträger im Studio). Das Ziel einer Produktion von EM ist die Repräsentation von Klangkunst im Raum. Dieser Raum kann geschlossen oder offen sein, natürlich oder künstlich, real / virtuell, kann verschiedene mechanische Ausmaße und in der Zeit dynamische Veränderungen annehmen, hat spezielle akustische Eigenschaften und vermittelt dem menschlichen Ohr Statisches, Dynamisches bzw. Bewegung durch das Erleben von Geschwindigkeit / Beschleunigung, vermittelt Emotion, Farbe, Helligkeit es handelt sich also insgesamt um das gestaltete Hörerlebnis in der gestalteten Raumarchitektur. Ein Raum unter solchen Prämissen kann nicht beliebig und nicht anonym sein (wie das für die Rundfunkübertragung z.B. der Fall ist: Adressaten von Rundfunksendungen sind Kopfhörer oder Lautsprecher in nicht vorbestimmten Räumen wie Walkman-Allraum, Auto, Küche, Bahnhof, Schlafzimmer … etc.; hier wird schon deutlich, dass das EM-Studio inhaltlich kaum mit dem Rundfunkstudio vergleichbar ist, wenngleich die benutzten technischen Werkzeuge identisch sind!). Merkwürdigerweise wird die Problematik um die Begriffe ”Raum & Architektur” von den Komponisten und Studios eher wenig erkannt bzw. ernst genommen, obwohl es den Kern unseres Schaffens betrifft, nämlich ”Gestaltung von Klang im Raum”! Warum sonst sieht ein typischer Produktionsraum für EM wenn nicht wie ein Büro- so doch wie ein ARD-Regie-Raum aus, obgleich eine solche Architektur vollkommen unzulänglich für EM ist? Das gleiche gilt für die Aufführung von EM: Warum wird sie meistens in herkömmlichen Konzertsälen ”abgespielt” und warum stehen keine adäquaten Räume zur Gestaltung von EM zur Verfügung?
Als Hauptgrund dafür führe ich an: die etablierte Architektur ist immer noch den optisch tradierten Vorstellungen der Repräsentationskultur des 19. Jahrhunderts verschrieben und schließt in gewisser Weise die noch nichtetablierten, also die neuen Kunstformen aus. Wir haben einen massiven Kunstgenerationenkonflikt: die etablierte Architektur steht im krassen Widerspruch zu neuen Kunstformen bzw.: die etablierte Musik steht im krassen Widerspruch zu anderen Architekturen.
Dies gilt nicht nur speziell für unsere ”neue” EM, sondern immer dann, wenn etablierte und neue Kunst zusammenstoßen, etwa im Falle der Klangkunst in Verbindung mit etablierten Musiksälen. Aber auch die Kammermusik und der Kammermusiksaal der Berliner Philharmonie erzeugen Konflikte: was für ein Kammermusiksaal ist das? dieses Monstrum mit 1200 Sitzplätzen! da haben offensichtlich ganz andere Begriffe als das Wort ”Kammermusik” bei der Bauplanung mitgespielt. Übrigens hatte man dort ursprünglich ein sog. ”Interpretationsstudio für EM” geplant, ohne zu bedenken, dass dieser Kammersaal in seiner geplanten Anwendung für die Aufführung von EM überhaupt nicht geeignet ist: man müsste die Bühne mit dem Publikumsraum vertauschen und den teuren Saal für EMProben freihalten beides ist für etabliertes Denken ausgeschlossen (man denke allein an die Aufführungen des Prometeo in diesem Saal; Nono wollte das Publikum mittig sitzen haben und die Musiker spielen "drumherum"). Das ”Interpretationsstudio” steht leer und aus der Interpretation von EM ist nichts geworden (später wird dies am Beispiel des RKS verdeutlicht)!
Heinz-Friedrich Hartig und Boris Blacher bekundeten beide Interesse an ”Raummusiken” (so auch die Titel der Werke). Etwa 1960 müssen die ersten Arbeiten entstanden sein (leider fehlen die Tondokumente): man hatte von Stockhausens ”Rotationstisch” gehört, wo man Quadrophonie mithilfe eines drehbaren Lautsprechers erzeugte, dessen Bewegung über 4 Mikrophone abgetastet und aufgezeichnet wurde, und ließ sich zu einer Version ohne Mikrophone inspirieren: um einen Ring wurde eine Widerstandsdrahtschleife gewunden, die gleichmäßig von Lautsprechern angezapft war; die Einspeisung des Stromes erfolgte über zwei Schleifer; Lautsprecherabzweige, die nahe an der Einspeisung lagen, erhielten mehr Energie als die weiter wegliegenden und so war die Richtungswirkung der sog. ”Tonmühle” realisiert. Wollte man die Zahl der Lautsprecher vergrößern, brauchte man nur die Anzapfungen zu erweitern. Der Wirkungsgrad war allerdings schlecht, weil ein erheblicher Teil der Leistung im Widerstandsdraht ungenutzt vernichtet wurde. Die spätere WDR-Rotationsmühle hatte übrigens eine optoelektrische Abtastung (war erheblich aufwendiger, aber auch erheblich besser). Den ersten öffentlichen Auftritt wagte Blacher 1962 im Rahmen der von Hans Heinrich Stuckenschmidt moderierten Reihe ”Musik im technischen Zeitalter”, die auch vom SFB-Fernsehen übertragen wurde: das zahlreiche Publikum hörte von heiteren Erklärungen des Autors begleitet - drei EM-Werke Blachers, eingespielt vom 4-Spur-Band über 4 in den Ecken aufgestellte Lautsprecher. Blacher hatte in der ihm typischen Art die Raumperspektive mit instrumental-konventionellen Klangmitteln als Verdeutlichung formaler Gestalt benutzt, ohne die Raumbewegung selbst als akustische Dimension aufzufassen. Ein ”Raum” im eigentlichen Sinn entstand also noch nicht.
1966 erhielt Blacher den Auftrag für die Oper ”Zwischenfälle bei einer Notlandung” von der Hamburgischen Staatsoper. Thema war die kybernetische Maschine und ihre Handhabbarkeit durch den Menschen: Macht / Ohnmacht der Maschine bzw. des Menschen, hier letztlich Zerstörung der Maschine durch die Menschen. Mit thematisiert wurde die elektronische Musik als Maschinenmusik und damit Feindkategorie des Menschen und das Studio wird in diesem Klischee sehr zwiespältig hinterfragt (gutes Omen für die Geschichte des TU-Studios??). Der elektroakustische Anteil konzentrierte sich auf räumliche und physisch erfahrbare Hörerlebnisse und akustische Kulissen wie z.B. eine möglichst naturalistische Flugzeugnotlandung oder die Simulation räumlicher Entfernung. Man darf nicht vergessen, dass zu dieser Zeit eine Vierspur-Tonbandmaschine eine Rarität (besonders in einem Opernhaus) war und dass man wirklich Neuland betrat. Dementsprechend groß war die Aufmerksamkeit, die man dem Projekt zollte: ”45 auswärtige Musikkritiker, 10 Opernintendanten sowie eine Reihe Generaldirektoren und Dramaturgen” waren laut Spiegel bei der UA anwesend. Personen, die bei dem Spektakel anwesend waren, berichten einhellig, es sei ein imposantes Ereignis gewesen. Es kam allerdings nur zu wenigen Folgeaufführungen und die aufwendige Produktion wurde seither nicht wieder aufgenommen. Die EM zu dieser Oper fungierte eher als Illustration des Bühnengeschehens und bildete keinen eigenständigen musikalischen Verlauf. Aus dem umfangreichen Tonbandmaterial wurden später einige Teile zu neuen, eigenständigen Stücken umkomponiert (man hatte ja schließlich 3 Jahre an der Realisierung der ”Notlandung” gearbeitet!).
Die Bundesrepublik Deutschland hat sich auf der Weltausstellung 1970 in Osaka der Weltöffentlichkeit mit Musik präsentiert. Nach heftigen Beratungen wurde durchgesetzt, vor allem zeitgenössische Musik vorzustellen. Noch im Sommer 1969 wurde das ursprüngliche Konzept für den Kugel-Pavillon verändert. Bestehen blieb zwar der architektonische Entwurf von Fritz Bornemann mit dem Vorschlag Karlheinz Stockhausens für eine kugelförmige Halle. Entschieden wurde aber auch, daß neben Stockhausen noch andere deutsche Komponisten zu Gehör kommen sollten: Erhard Großkopf, Eberhard Schöner, Gerd Zacher, Bernd Alois Zimmermann sowie Boris Blacher erhielten Kompositionsaufträge. Die Veranstaltung wurde im Ganzen gesehen durch Werke von Karlheinz Stockhausen dominiert.
Die Planung der Studiotechnik durch die Firma Siemens, ein 8-kanaliges Mischpult für die Ansteuerung der im Kugelpavillon montierten acht Lautsprecherringe vorzusehen, wurde nun von dem Team der Technischen Universität Berlin unter Leitung von Boris Blacher, Fritz Winckel, Manfred Krause, Claus Amberg und Rüdiger Rüfer durch eine steuerbare Beschallung ergänzt, die Klangbewegungen im Raum erlauben sollte. Das TU-Team konnte (wie oben ausgeführt) Erfahrungen mit 4-kanaliger Tonprojektion durch Blachers ”Zwischenfälle bei einer Notlandung” vorweisen, so daß man sagen kann: die Auseinandersetzung mit Raumklang hatte nun entwicklungstechnische Folgen und löste eine Reihe interessanter Kompositionen aus.
Zuerst wurde die von Stockhausen gewünschte, sehr hallige Akustik geändert, die die Ortung der bewegten Schallquellen nahezu unmöglich gemacht sowie Echos und Brennpunktwirkungen begünstigt hätte. Man entwarf und realisierte eine mehrschalige Schallabsorptionskonstruktion in Leichtbauweise (Mero-Kuppel). Die Nachhallzeit betrug nunmehr ca. 2.2 Sekunden.
Für die Raumklangsteuerung wurde eine 7x7 - Matrix mit elektronisch steuerbaren Knotenpunkten konzipiert, die die auf 7 begrenzten Tonkanäle des Mischpults auf insgesamt 49 Lautsprechergruppen verteilen sollte. Der achte Kanal wurde für die zur Steuerung der Matrix benötigten Steuersignale reserviert. Die von Stockhausen vorgesehenen zwei 1-Zoll-4-Kanal-Magnetophone wurden durch zwei mechanisch gekoppelte 4-Kanal-35mm-Perfomaschinen ergänzt, die das synchrone Abspielen von insgesamt acht Spuren erlaubten. Die Steuerspur enthielt 14 Steuertonkanäle, 7 für die Steuerung der Lautsprecher (kodiert mit Amplitudenmodulation) und 7 für die Helligkeitssteuerung der 49 Scheinwerfergruppen (kodiert mit Frequenzmodulation).
In einem TU-Hörsaal wurde eine provisorische Wiedergabeanlage installiert, um wenigstens einen ungefähren Eindruck von der Raumklangwirkung zu erzielen. Grundsätzlich konnte bereits in Berlin die Steuerung der Klangbewegung aufgezeichnet werden. Es war aber auch möglich, dies vor Ort in Osaka selbst zu tun. Für die manuelle Kontrolle der Raumklangbewegung wurden spezielle Geräte entwickelt, u.a. die ”Rotationsmühle” sowie die sogenannte Sensorkugel, die entsprechend den Lautsprecherorten am Pavillon-Himmel auf der Bedienungskugel örtlich entsprechende Steuerknöpfe (Sensoren) besaß: drückte man einen bestimmten Sensor auf der Kugel, so hörte man den Klang vom entsprechen Kuppelort. Die Auswirkungen dieser Geräte auf das Schaffen Stockhausens wurden ausgiebig in der Fachliteratur diskutiert; ich möchte speziell auf sein Werk ”Spiral” hinweisen, welches am deutlichsten die Idee einer Rotationsbewegung aufgreift.
Die knappe Vorbereitungszeit von ca. 9 Monaten hatte hektische Aktivitäten zur Folge, aber die Anlage wurde dennoch termingemäß verschifft und installiert. Die Musikdarbietungen im Kugelpavillon organisierte man so, daß vormittags im 15-Minuten Rhythmus die ”anderen” Auftragskompositionen und nachmittags allein die Werke von Stockhausen präsentiert wurden. Für jede Einspielung musste ein spezielles Routing und die richtige Fadereinstellung manuell erfolgen, weil eine Automation zu dieser Zeit nicht verfügbar war; diese Arbeiten übernahmen japanische Studenten. Die technischen Einrichtungen arbeiteten im wesentlichen störungsfrei ein halbes Jahr lang über die gesamte Dauer der EXPO, obwohl in der Regenzeit der untere Teil der Halle unter Wasser stand und die Verstärker auf Holzkonstruktionen aufgebockt werden mußten.
Man sollte sich die Situation im Kugelpavillon vergegenwärtigen: das Publikum ist umringt von einer dreidimensionalen Lautsprecherlandschaft; der Meister (Stockhausen) führt von der integrierten Technik aus Regie über die Raummusik. Es geht, gemessen an der traditionellen Aufführungspraxis, eher wie in einer Klang-Galerie zu: anstelle der Bühne haben wir verteilte Podien (Bilder), das Publikum befindet sich im Zentrum und nimmt Platz auf variablen Sitzkissen (keine bequemen Sesselreihen!).
Bedauerlicherweise konnte sich diese wegweisende Raumklangtechnik nicht durchsetzen, obwohl die meisten Komponisten den Wunsch nach einer funktionierenden Raumklangsteuerung artikuliert hatten: die Osaka-Kugel wurde abgerissen und verschrottet und hat direkt keine weiteren Spuren hinterlassen. Die Osaka-Raumklangsteuerung ging verloren. Man darf bei der Ergründung dieses unseligen Vorganges nicht vergessen, dass die ursprünglich mutige Konzeption, nämlich zeitgenössische Musik darzubieten, gleich nach der ersten Vorführung aufgeweicht wurde, weil die EM bei den Offiziellen auf kein positives Echo gestoßen war. Man hörte von nun an abwechselnd klassische Musik und EM damit war das Interesse an der EM und deren Werkzeuge irgendwie verloren gegangen [1] .
In den Produktionen des TU-Studios finden wir immer wieder Versuche raumakustischer Abbildung, aber diese haben niemals überzeugend funktioniert {haben wir uns vor Begeisterung und unter der Suggestion wiederholten Abhörens vieles nur eingebildet?}. Als Grund mag gelten: die Mehrkanal-Technik (Quadrofonie reicht, wie wir längst wissen, nicht aus) war anfangs zu aufwendig und es bestand wegen der vorherrschenden Stereotechnik in der Medienindustrie und im Rundfunk zunächst kein massenhafter Bedarf an ihr. In den 70er und 80er Jahren erzielte man deshalb auch keine wirklichen Fortschritte: das Halaphon stand, weil es ein zu teures Unikat und zu schwierig zu bedienen war, keinem anderen Nutzer als dem Strobel-Studio selbst zur Verfügung; die Möglichkeiten bestimmter Computerprogramme (Cmusic) waren vorläufig von der normalen Studiorealität abgekapselt; die akusmatische ”Projektions”-Technik der Franzosen blieb auf dem technischen Stand der 70er Jahre stecken, die heutige Surroundtechnik verspricht wegen ihrer Matrizierung keine echte räumliche Perspektive und die noch so ausgefeilte Anwendung ohrbezogener Filterkurven in der Stereosimulation ist für eine Raumbeschallung kaum zu gebrauchen. Erstaunlich ist auch, dass es auf dem Markt kein einziges Mischpult (man bedenke den Sinn von ”Mischen”!) gibt, das in der Lage wäre, in ergonomisch vertretbarer Weise mehrere unabhängige Klangspuren auf z.B. 8 Lautsprecher frei und variabel in der Zeit zu verteilen. Selbst teuerste Digitalkonsolen (mit der frohen Botschaft ”mit denen man alles machen kann”) ermöglichen z.B. kein ”Panning” zwischen zwei geradzahligen Gruppen, geschweige denn ein freies Panning zwischen beliebigen bzw. mehr als zwei Gruppen. Alle Verknüpfungen, Steuerungen und die gesamte Logik basieren auf der törichten Annahme, daß man es immer nur mit Stereo zu tun hat. Mit dieser technischen Vorgabe ist grundsätzlich all das nicht möglich bzw. wird verhindert, was ”Raumklang-Konzepte” voraussetzen. Für eine Studioplanung, die gerade ein solches Raumklangkonzept realisieren soll, wird deshalb eine gesonderte Werkzeug-Entwicklung erforderlich, weil der Markt noch kein sinnvolles Angebot hergibt.
Auf die Opernproduktion "Zwischenfälle bei einer Notlandung" (1966) und die Raumklangsteuerung für den Kugelpavillon auf der Expo Osaka (1970) wurde bereits hingewiesen; im Katalog der Studien- und Diplomarbeiten fallen noch folgende Themen auf (alle Arbeiten unter der Verantwortung von Prof. Manfred Krause):
Nach der Osaka-Aktion 1970 wurde, wie in der Aufzählung erkennbar, erst wieder ab 1977 zum Thema ”Raum” geforscht. Für die Produktion kamen zwei ”Exoten” zum Einsatz, die allerdings noch nicht den Durchbruch zur Raumklangsteuerung darstellten:
der ”Rotosizer”, der max. 2 Klangquellen auf 4 Ausgänge schaltete und in einstellbarem Tempo links- bzw. rechtsherum rotieren lassen konnte
der ”Bewegungssimulator”, der neben dem Stereo-Panning auch den Dopplershift realisieren konnte und als Erweiterung eines Analogsynthesizers gedacht war: von diesem Gerät wurden Steuerspannungen für die in der Gleichung vorkommenden Reziprok-, Quadrat- und Quadratwurzelwerte mathematisch exakt erzeugt; man konnte den Abstand zur vorbeisausenden Quelle und deren Geschwindigkeit entweder manuell einstellen oder durch externe Steuerspannungen manipulieren - allerdings nur in einer Richtung. Beide Geräte baute Wolfgang Schulz, der (als Student) über mehrere Jahre hinweg der wichtigste Hardware-Entwickler (um nicht zu sagen ”Bastler”) im Institut war.
Aus verschiedensten Gründen beschränken sich fast alle Raumklang-Steuerungen auf die alleinige Verrechnung von Intensitäten und liefern wegen Unterschlagung laufzeitbedingter und spektral differenzierter Ortung oder wegen unzureichender Schallfeldberechnung unbefriedigende Ergebnisse. Eine non-real-time-Produktion für nur 4 Lautsprecher mit Berücksichtigung möglichst aller Lokalisationskriterien war seit 1984 in unserem Institut mit Computerprogrammen (CARL-Software mit Cmusic; darunter z.B. ein Modell von Chowning) und ansonsten mithilfe der herkömmlichen Tonbandtechnik bedingt möglich von einer Echtzeit-Produktion waren wir weit entfernt. Denn was heute selbstverständlich ist (nämlich mindestens über ein sog. 16-Spur-Studio verfügen zu können), war im ”Tonbandzeitalter” 1954 bis ca. 1980 undenkbar: man hatte gerade 2-Spur- und ab ca. 1962 4-Spur-Tonbandmaschinen (8-Kanalproduktionen waren zu dieser Zeit ausgeschlossen!). Im Umgang mit dem Werkzeug Tonband(-maschine) als KlangErzeuger, umformer und speicher musste man sich stets mit der begrenzten Spur- und Lautsprecherzahl arrangieren. Raumklangkonzepte, die Klangereignisse zur gleichen Zeit auf mehreren Tonspuren vorsehen, stießen allein deswegen schon auf erhebliche technische Schwierigkeiten.
Wenn wir vom ”Tonbandzeitalter” sprechen, so gab es wenig später das ”Synclavier-Zwischenzeitalter” (das Synclavier II war ca. 1979 mit dem Fairlight der erste Hochleistungs-Audiocomputer). Das Synclavier II allerdings hatte Einschränkungen, die dem Tonband vorläufig noch eine unersetzbare Rolle zuwies: die 16-stimmige Ausführung der Synthesizerkarten kannte, genauso wie die Sample-to-disk-Option nur einen monophonen Ausgang. Sämtliche Raumklangbewegungen wurden schrittweise am Synclavier einprogrammiert und nacheinander Spur für Spur wegen der monophonen Ausgänge synchronisiert auf Band aufgezeichnet; erst nach Abschluß dieses zeitaufwendigen Prozesses konnte eine Schicht erstmals auf ihre Raum- und Zeit-Richtigkeit überprüft werden.
Man kann sagen, dass die Produktionen der Epoche 1978 bis 1988 zwar immer komplexere Raumklänge lieferten, jedoch durch die Beschränkung auf die Quadrophonie immer noch das Makel der schlechten Seitenabbildung und der Ortungslöcher trugen. Man muss sich auch vergegenwärtigen, dass unser kleiner Studioraum gar keinen Platz für mehr als 4 Lautsprecher hatte (Studiomonitore hatten noch riesige Ausmaße!). Das Studio stellte im großen Ganzen das dar, was ich oben bereits als ”ARD-Studio” gebrandmarkt hatte; mit anderen Worten: es war für die Raumklangproduktionen eigentlich noch nicht geeignet.
Das Interesse an der Raumklangsteuerung ließ aber niemals nach. Allmählich entwickelten sich zwei Projekte, die in unterschiedlichen Konzepten das gleiche Ziel verfolgten: eine echtzeitfähige Raumklangsteuerung über eine dynamisch steuerbare Matrix. Das eine Projekt wurde ”MIDI-Mixer” genannt, das andere RKS (RaumKlangSteuerung). Beide beschäftigten etliche Studenten in Studien- und Diplomarbeiten, beide sahen den Computereinsatz vor. Beide bereiteten den Boden für die spätere Raumklangsteuerung ∑1.
Der ”Tonraum” von Bernhard Leitner im TU-Lichthof ist eine klangarchitektonische Arbeit, die die digitale Steuerung des Klanges über bis zu 24 Lautsprecher nutzt. Bei diesem Beispiel wird besonders deutlich, wie Gerätetechnik die künstlerische Idee beflügelt. Wir brauchen nur nach dem Grund zu fragen, warum Komponisten überhaupt zum Instrumentarium des Elektronischen Studios greifen, und schon haben wir eine Antwort darauf, wie Apparate (nämlich die Instrumente) Musik verändern. Der Künstler greift u.a. dann zu diesem neuen Instrumentarium, wenn das alte seinen Anforderungen und Phantasien nicht mehr genügt. Dies betraf in den letzten Jahrzehnten vor allem die Gestaltung von Musikräumen und architektonischen Klangräumen (auch konzeptionelle Kunst mit Lautsprechern, wie sie in Klanginstallationen, Klangskulpturen etc. bekannt geworden sind).
Bernhard Leitner, dem wir bereits im ersten Abschnitt begegnet sind, gewann 1982 den Kunst-am-Bau-Wettbewerb für den ”Ton-Raum” im Hauptgebäude der TU. Er nutzte 2 Raumklangsteuergeräte: das CAS von David Bertollo New York und das RKS.1 von Werner Schaller TU Berlin. Inzwischen wurde das System auf digitale Zuspieler (CD’s und HD-Recoder) umgestellt. Derzeit sind 10 von Leitner komponierte Ton-Räume gespeichert. Jeweils einer davon wird zu bestimmten Tageszeiten (nämlich zwischen den Vorlesungen) abgerufen, z.B. Prickelnder Raum, Klang-Gewölbe, Verschlingungen, Raum-Kneten, Flacker-Raum, Zischel-Raum, Raum-Wogen. Der Klang wird im Ton-Raum primär als raumplastisches Material verstanden. Leitner hat verschiedentlich auch konzertartige Vorführungen seiner Raumklang-Architektur angeboten.
Das Schaller’sche RKS.1 kann 4 Klänge voneinander unabhängig auf bis zu 24 Lautsprechern abstrahlen; Klangquellen sind externe Mikrofone oder Klangspeicher. Das RKS liefert Phantomschallquellen durch Intensitätswichtung. Ein Steuerrechner liefert die eigentlichen Daten an das RKS, das die Performance ausführt. Die grafisch unterstützte Anwendung erlaubt die Generierung und Abspeicherung von verschiedensten Klangfiguren (sog. Modulen), die dann durch Reihung und Überlagerung als Raumklangpartitur abgespielt werden kann. Die technische Basis der 4x24 Matrix bilden multiplizierende Wandler. Da Schaltgeräusche nicht ganz zu beheben waren, musste dieses Konzept verändert werden.
Der anderer Weg, nämlich die Verwendung von VCAs, wurde anschließend eingeschlagen und hat außerhalb der Universität unter Federführung von Werner Schaller zu einem ausgereiften standalone-System, dem RKS-2 geführt. Es wurde u.a. an die Philharmonie Berlin ausgeliefert. Allerdings kommt es dort kaum zum Einsatz, weil keine ausreichenden Probenzeiten von der Verwaltung eingeräumt werden und der Ort Philharmonie Aufführungen mit EM aus verschiedensten Gründen {die anfänglich diskutiert wurden} undenkbar macht. Über dieses RKS-Vorbild wurde im Studio lange diskutiert; wir meinten folgende Nachteile erkannt zu haben: den hohen Preis (durch die gesonderte Hardware), die umständliche Bedienung (die ja in gewisser Weise Ideen des Halaphons durch Vorgabe bestimmter Überblendkurven aufgreift) und die damit verbundene Abstraktion zur Aufführungspraxis.
1988 wurde deshalb von Thorsten Radtke e.a. noch ein anderes, zunächst 4-kanaliges aber preiswerteres und von den technischen Daten her sehr gutes System entwickelt, wieder mit multiplizierenden Wandlern, diesmal aber mit logarithmischer Kennlinie und mit Ausschluß der Störungen durch die Schaltung im Nulldurchgang. Für diesen sog. ”MIDI-Mixer”, der bis zu 15 Quellen auf 4 Lautsprecher verteilen konnte, hat Thomas Seelig später eine grafische Bedienoberfläche für den ATARI entwickelt, mit der der soundpath der 15 Quellen über die Maus einfach gezeichnet und editiert sowie angezeigt und synchronisiert ausgegeben wurde. Da die Steuerinformation aus MIDI-Events bestand, konnte natürlich jedes MIDI-Gerät, also auch ein einfaches Keyboard, genutzt werden. Das Konzept sah 4 Modi vor: den absoluten und relativen Mode sowie Eingabe in kartesischen XY- bzw. zylindrischen R-Phi-Koordinaten. Im Absolut-Mode konnte man die absoluten Koordinatenpunkte adressieren: ein ”Ort” im Absolut-Mode war eindeutig definiert durch zwei Noten bzw. Tasten; die Velocity bestimmte die Schnelligkeit, die von einem Zustand in den anderen führte. Im Relativ-Mode gab man Geschwindigkeiten in x- und y-Richtung bzw. für Winkel und Entfernung unabhängig ein (an den Grenzen wurde der soundpath sozusagen wie beim Lauf der Kugel auf einem Billardtisch winkelgerecht reflektiert). Während die kartesischen Koordinaten eine direkte lineare Übertragung der Raumgeometrie darstellten, erlaubte die zylindrisch-orientierte Eingabe mehr eine sinnliche Übertragung der Blickrichtung des Beobachters auf das räumliche Geschehen und eignete sich vor allem für rotierende Klangbewegungen; hierbei war noch besonders die Umschaltung in den ”Entfernungsmode” interessant, der dafür sorgte, dass mit zunehmender Entfernung auch der Pegel abnahm (Kennlinie war in Stufen einstellbar).
Etliche Aufführungen fanden mit diesem MIDI-Mixer statt. Er war vor allem für die Live-Performance bestens geeignet. Selbstverständlich haben wir auch ”Spiral” von Stockhausen aufgeführt! Leider reichte das Geld nur für eine 4-kanalige Ausführung (also eine 4x4-Matrix). Die Lokalisation hatte natürlich die gleichen Nachteile, die oben bereits bei der Quadrophonie kritisiert wurden.
Ein weiteres Raumklangprojekt unter Federführung von Manfred Krause und Werner Schaller war und ist die Orthophonieforschung. Die Orthophonie nutzt bei Anwendung erster Ordnung ein Viermembranen-Mikrofon mit orthogonal aufeinander stehende Richtcharakteristiken: eine Kugel und 3 Achten. Wie auch in der Intensitätsstereophonie möglich und üblich, kann durch Wichtung und Addition/Subtraktion der 4 Mikrofonsignale, die theoretisch das Schallfeld an einem Punkt abtasten, jede dreidimensionale Richtung charakterisiert werden. Ein entscheidender Vorteil der Anordnung besteht nun darin, daß erst bei der Wiedergabe die Anzahl der Lautsprecher festgelegt werden muss und dafür nur 4 Mikrofonsignale aufgezeichnet und später im Studio entsprechend decodiert bzw. verrechnet werden müssen der Aufnahmeaufwand ist also sehr gering. Zur Orthophonie höherer Ordnung müssen die erforderlichen, bündelungsstärkeren Mikrofone {besonders Quadrupole} noch entwickelt werden; eine Anwendung virtueller Orthophoniequellen hoher Ordnung mit erwartungsgemäß guter Ortung ist in Arbeit.
Zum Abschluss meines Überblickes möchte ich noch kurz die Wichtigkeit der Klang-Installationen hervorheben. Mit dem Festival INVENTIONEN’84 (veranstaltet zusammen mit dem BKP des DAAD) begann die Förderung internationaler Klangkünstler. Mit den Festivalkontakten begann auch die eigene Aktivität. Besonders der Kanadier Robin Minard hat seit 1987 eine regelrechte Installations-Kultur angeregt und mitgestaltet. Was nun unser Thema angeht, so ist schon meinen einleitenden Worten zu entnehmen, wie sehr Installationsarbeiten mit Raumklang und Klangräumen zu tun haben. In diesen letzten 10 Jahren hat sich die Technik in großen Sprüngen weiterentwickelt und auch die Installateure haben davon profitiert: man hat die Welt der Endloskassette und die Stereophonie längst verlassen und nutzt jeweils die neuen Möglichkeiten der Raumklangsteuerung und der akusmatischen Musik. Die Vorarbeiten im Studio berücksichtigen mehr und mehr auch die Live-Elektronik (speziell die Software MAX hat in diesem Sinne eine wichtige Bedeutung gewonnen).
Bei der Projektierung des neuen Elektronischen Studios der TU Berlin 1995/96 spielten sämtliche Überlegungen, die allgemein und speziell in diesem Vortrag vorgestellt wurden, eine Rolle; vor allem wurde erkannt, dass weder ein Rundfunkstudio noch ein Computerarbeitsraum entstehen durfte.
Am ehesten diente das Studio der Strobelstiftung in Freiburg als Vorbild: es verfügte über einen großen Proben- bzw. Aufführungsraum mit angrenzenden Bearbeitungs-Studios. Der große Studio-Raum stellte quasi den entrückten Aufführungs- und Aktionsraum dar, in dem Interpreten, Tonmeister und Komponisten mit der ganzen Aufführungs-Technik einschließlich der Raumklangsteuerung (Halaphon) und mit mindestens 8 Lautsprechern das bevorstehende Konzert proben konnten. Dieser Raum verdeutlicht so schön das definierte Ziel: die Aufführung unter bestimmten Raumbedingungen; jede Aufführung bedarf einer speziellen Anpassung an seinen Aufführungs-Ort und das Studio sollte diese Raum-Situation simulieren können.
Das für die TU erarbeitete Raum-Konzept konnte (mit Abstrichen natürlich) realisiert werden. Das Halaphon allerdings wurde nicht übernommen; dafür beauftragte die TU die Firma APB-Tools[3] mit der Entwicklung einer Raumklangsteuerung, die den hier im Vortrag angeführten Erkenntnissen und Forderungen entspricht.
Der Surround Matrix Mixer ∑1 basiert auf einem Programm, welches eine summierende dynamische Matrix mit 256 Knotenpunkten auf der Pro-ToolsIII Hardware implementiert. Die grafische Benutzeroberfläche (Bildschirm) erlaubt dem Anwender bis zu 16 beliebig kombinierbare externe Quellen oder interne Harddiskspuren in Echtzeit individuell durch den zweidimensionalen Raum zu bewegen. Dieser wird durch bis zu 16 auf dem Bildschirm beliebig zu plazierende LautsprecherIcons symbolisiert.
Die Bewegungen jedes Eingangskanals (entweder automatisch berechnet oder über die Maus bzw. externe MIDI-Steuerung wie Joystick, Dataglove etc.) können synchronisiert gegen Timecode aufgezeichnet und wiedergegeben werden. Die Überblendfunktionen zwischen den Lautsprechern (vergleichbar der Kennlinie eines zweidimensionalen Panpots bzw. eines ”Flächen-Panpots”) können bei Bedarf mittels graphischer Editierung individuell oder für alle gemeinsam eingestellt werden. Sämtliche TDM-PlugIns können wegen der ProTools-Plattform sowohl in Eingangs- als auch Ausgangskanälen eingeschleift werden, was eine große Flexibilität in der räumlichen Abbildung (z.B. durch sinnvolle Filterung) und Klangumformung zuläßt!
Die Grafik kann mit dem Grundriß der Einspiel- oder Produktionsstätte unterlegt werden (Studio, Theater, Konzertsaal etc.), so daß die Plazierungen der Lautsprecher-Icons und die daraus resultierenden Überblendcharakteristika leichter angepaßt werden können.
Der Vorteil dieser dynamischen Matrizierung liegt zum einen in der graphischen Bedienoberfläche und der Echtzeitfähigkeit, zum anderen wird hier erstmalig das ”Schichtungs-Konzept” der Stereo-Produktion auf die mehrkanalige Raumklangproduktion erweitert.
Nach 1995 nimmt die Entwicklung alternativer Raumklangsteuerungen dank neuer Software ständig zu. Im Studio sind folgende Entwicklungen zu nennen, die zukünftig alle auf die akustische Kunst Einfluss nehmen werden:
[1] Hatten diese Umstände in Osaka zur Folge, dass in den 70er Jahren das öffentliche Interesse für EM so dramatisch dahinschmolz?? Andererseits aber wohnten immerhin rund 1 Million Besucher den Stockhausen-Konzerten in Osaka bei (ein für die zeitgenössische Musik wirklich durchschlagender und einmaliger Erfolg!)
[3] Die Entwickler von APB-Tools sind ehemalige Mitarbeiter des Studios