dieser Artikel wurde 1994 von einem unbekannten Verfasser für eine LV in der TU geschrieben!
Die Geburt der Computermusik lässt sich ziemlich genau auf das Jahr 1955 zurückdatieren. In diesem Jahr stattete die Rockefeller-Stiftung zwei verdiente US-amerikanische "Tape Music"-Komponisten mit einem großzügigen Budget aus; damit sollten sie die experimentellen Studios und Zentren in aller Welt bereisen und einen Bericht über deren Zustand anfertigen. Otto Luening und Vladimir Ussachevsky besuchten in Paris den Erfinder der "Musique Concrète", Pierre Schaeffer, fuhren nach Bonn zu Werner Meyer-Eppler, der zu den Urvätern der "Elektronischen Musik" gehört und trafen Herbert Eimert, Leiter des Studios für Elektronische Musik des WDR in Köln. In Mailand nahmen sie zu Luciano Berio und Bruno Maderna im Studio des RAI Kontakt auf. So lernten sie die wichtigsten Pioniere des neuen Mediums und ihre Arbeiten kennen.
In Amerika mußten sie feststellen, daß die Neue Welt keine vergleichbaren Aktivitäten und Zentren aufzuweisen hatte. Die Universitäten und Institutionen verweigerten größeren Projekten die Unterstützung, anstatt hervorragende Talente wie Edgar Varèse (der in Amerika lebte und in diesen Jahren nichts zuwege brachte) zu fördern.
In Illinois allerdings stießen sie auf Lejaren Hiller und Leonard Isaacson, deren Forschung von besonderer Bedeutung für die Zukunft sein sollte: Hiller und Isaacson untersuchten Möglichkeiten, Computer als kompositorische Hilfsmittel zu verwenden. Zunächst ließen sie den Computer nach vorgegebenen Rechenregeln Daten für konventionelle Partituren erzeugen; ihre Arbeit kann aber doch als Vorstufe zur direkten Klangerzeugung im Rechner aufgefaßt werden.
Schließlich führte die anzufertigende Studie Luening und Ussachevsky nach New Jersey zur Telefongesellschaft Bell, in deren Labors ein Forschungsprogramm zur digitalen Klanganalyse und -Synthese lief. Ziel der Untersuchungen war die digitale Übertragung von Telefongesprächen; man verwendete Computer bei der Entwicklung von Techniken zur parallelen Übertragung mehrerer Gespräche auf einer Leitung. Einer der Ingenieure bei Bell, Max Mathews, dachte über die direkte Berechnung und Erzeugung von Klängen im Computer nach; er realisierte seine Ideen 1957 in einem Programm namens MUSIC I, das im Folgejahr durch MUSIC II ersetzt wurde. Mit Hilfe dieser Programme konnten nur sehr einfache Klänge erzeugt werden: MUSIC I simulierte einen, MUSIC II vier Dreieck-Oszillatoren.
Diese Programme liefen auf einem der ersten kommerziell verfügbaren Computer, einer IBM704, dessen Kapazitäten sehr eingeschränkt war. Dieser Rechner arbeitete mit Röhrentechnologie und erlaubte Dateneingabe nur auf Lochkarten. Erst mit dem Aufkommen der Transistortechnologie und der darauf beruhenden zweiten Computer-Generation veränderte sich diese Situation. Für einen Computer dieser Art (eine IBM 7094), den die Bell-Labs erworben hatten, verfasste Mathews im Jahr 1960 MUSIC III, sein erstes umfassendes Programm zur direkten Klangsynthese.
Mathews Projekt fand bei der nahegelegenen Univerity of Princeton schnell Interessenten. Die nächste Version von Mathews Programm, MUSIC IV, entstand unter Mitwirkung verschiedener Komponisten und begründete eine Familie von Programmen, deren Ankömmlinge in vielen Studios der ganzen Welt eingesetzt werden. An der Universität wurde MUSIC IV weiterentwickelt und für Komponisten ohne Computer-Erfahrung zugänglicher gemacht.
Die Fortschritte der Computer-Technologie besiegelten das Schicksal von MUSIC IV vor seiner Vollendung. Mathews hatte alle MUSIC-Programme in der Maschinen-Sprache des jeweiligen Rechners geschrieben; mit der Einführung der IBM 360-Serie, die mit integrierten Schaltkreisen arbeitete, stand eine Klasse von Computern mit wesentlich höherer Leistung zur Verfügung. Da die IBM Großrechnerserien nicht einmal untereinander kompatibel sind, mußten Programme für jede Generation neu geschrieben werden. Um diesen Mißstand für die Zukunft zu vermeiden, ging Mathews dazu über, seine Programme in FORTRAN, einer der ältesten und verbreitetsten Computer-Hochsprachen zu schreiben.
Hochsprachen abstrahieren von konkreten Rechnertypen und vereinfachen die Programmierung. Ein Hochsprachen-Programm ist eine gewöhnliche Textdatei, wie sie etwa mit einem Textverarbeitungsprogramm erzeugt wird. Ein sogenanntes Complier-Programm "übersetzt" den kodierten Text in Programm-Code, den der Rechner ausführen kann. Im allgemeinen können Textdateien unproblematisch zwischen unterschiedlichen Rechnersystemen ausgetauscht werden; schließlich enthalten sie keinen konkreten Bezug zu einem bestimmten Rechner. Um ein Hochsprachen-Programm von einem Rechner zu einem anderen zu übertragen, genügt es also, den Programm- oder Quelltext auf der Zielmaschine neu zu kompilieren.
Hochsprachen leiden gegenüber der direkten Maschinenprogrammierung allerdings meistens unter einer gewissen Effizienzeinbuße: sie laufen langsamer. Vor allem in den ersten Jahren der Computermusik stellte dieser Umstand ein bedeutendes Manko für den Komponisten dar.
Die Berechnung von Klangdaten ist äußerst aufwendig; für eine Sekunde Musik in CD-Qualität auf zwei Kanälen müssen 88200 Samplewerte zur Verfügung gestellt werden. Der Aufwand zur Berechnung eines dieser Werte hängt von der Komplexität des zur Synthese vewendeten Programms ab. Erst in unseren Tagen erreichen Computer Rechenleistungen, die die die Berechnung einer Sekunde Klang befriedigender Komplexität in weniger als einer Sekunde abwickeln können. Mit der vor dreißig Jahren verfügbaren Technologie lag diese Schwelle zur "Echtzeit"-Digitalsynthese selbstredend in unabsehbarer Ferne; zwischen der Eingabe von Algorithmen und Werten zur Berechnung der Musik und dem Erhalt des Resultats lag immer eine Phase des Wartens. Selbstredend hat die Dauer dieser Wartephase Auswirkungen auf den kreativen Prozess. Wir werden noch sehen, wie unterschiedliche Komponisten diesem Problem begegnen.
Mathews jedenfalls schrieb die nächste und bekannteste Fassung seines Programms, MUSIC V (1968), aus Portabilitätsgründen in FORTRAN. Das Programm war einfacher als seine Vorgänger und auf die speziellen Eigenheiten von FORTRAN-Compilern ausgelegt. Währenddessen schuf Barry Vercoe am Massachusetts Institute of Technology MUSIC 11, eine sehr schnelle Implementierung in der Maschinensprache der verhältnismäßig langlebigen PDP-11 Serie von Digital Equipment. MUSIC 11 stellte in Bezug auf Rechenzeit- und Speicherverbarauch einen großen Fortschritt dar und wurde somit für eine Familie kleinerer und billigerer Rechner verfügbar. Vercoe erweiterte das System um Eingabehilfen wie eine Klaviatur und interaktive Computergraphiken.
Alle MUSIC-Programme arbeiten nach einem ähnlichen Prinzip. Der Vorgang des Komponierens teilt sich in zwei Abschnitte:
Die Definition eines "Orchestras", das aus "Instruments" besteht, und das Erstellen einer Notenliste, des "Score".
Ein Instrument ist eine beliebig komplexe Verknüpfung von sogenannten "Unit Generators". Jeder Unit Generator hat eine bestimmte Funktion und damit verbundene Einstellmöglichkeiten, Parameter. Die frühen Versionen der MUSIC-Programme sahen Unit-Generators vor, die neben elementaren Rechen- und Signalverarbeitungsoperationen wie Addtion, Multiplikation und Verzögerung Sinusoszillatoren und Hüllkuvengeneratoren verwirklichten. Durch die Weiterentwicklung der Programmserie kamen immer mehr Unit-Generators mit komplexeren Funktionen hinzu: verschiedene Typen von Filtern, Ring-Modulatoren, Hallsimulatoren etc.. Oszilatoren können mittlerweile beliebige Wellenformen erzeugen, Hüllkurvengeneratoren können unterschiedliche Anstiegs- und Abstiegscharakteristika verwirklichen.
Instruments werden in einer Textdatei definiert, wobei jeder verwendete Unit-Generator in einer Zeile durch Nennung seines Namens und seiner Parameter beschrieben wird. Die Paramter umfassen einen beliebig zu benennenden Ausgang und einen oder mehrere Eingänge; der Wert eines Eingangs kann durch eine Konstante (Zahl) oder durch den Ausgang eines anderen Unit-Generators im selben Insturment bestimmt werden. Stattdessen kann aber auch ein beliebiger Name für den Parameter vergeben werden, der im Score aufgegriffen wird.
Der Score besteht aus einer Liste von Ereignissen mit Zeitangaben. Die Zeitangabe kann sich auf den Anfang des Stücks oder auf den Abstand zum vorhergehenden Ereignis beziehen (zwei gleichzeitig stattfindenden Ereignissen wird eine Zeitdifferenz von Null zugewiesen). Ein Ereignis beziehungsweise eine Note wird in einer Zeile definiert, die neben dem Namen des Instruments, das das Ereignis wiedergeben soll, beliebig viele Werte für die Variablen dieses Instruments enthält. Die Ereignisse sind völlig unabhängig voneinander, es gibt keine den Controllern der MIDI-Konvention entsprechenden Konzepte, um eine kontinuierliche Werteveränderung über mehrere Noten festzulegen. Allgemein ist keinerlei hierarchische Struktur, die etwa den Spuren, Sequenzen oder Parts der MIDI-Sequencer entsprechen würde, vorgesehen.
Die Technik der damaligen Zeit erlaubte kaum andere Eingabeformen als Text. Für die Instrumenten-Definition hat sich eine anschaulichere graphische Notation (siehe Abbildung) durchgesetzt, die sich als Vorlage für eine graphische Bedienoberfläche, die auf jedem modernen Rechner zu realisieren wäre, anbietet. Tasächlich hat das Pariser Experimentalmusik-Institut IRCAM eine Hardware für den NeXT-Computer entwickelt, die Klangsynthese in Echtzeit nach einem ähnlich modularen Verfahren erlaubt und die graphische Programmiersprache MAX zur Eingabe benutzt.
Das Konzept der Instrumentendefinition aus frei verschaltbaren Modulen stellte eine Parallele zu den etwa zur selben Zeit entwickelten spannungsgesteuerten analogen Synthesizersystemen dar. So konnten Erfahrungen mit der einen Technologie zu einem gewissen Grad auf die andere übertagen werden. Die analogen Studios erlaubten wesentlich spontaneres und intuitiveres Arbeiten; für die langen Wartezeiten und die unübersichtliche Eingabe wurde der Computermusiker nur durch die theoretisch unbeschränkten Möglichkeiten, die Präzision und Reproduzierbarkeit seines Mediums entschädigt.
Die Attraktivität der frühen, allein auf Additiver Synthese beruhenden MUSIC Programme litt zudem unter der unübersehbaren Menge von Parametern und der Komplexität der damit verbundenen künstlerischen Entscheidungen. Dieser Umstand erklärt die enorme Bedeutung, die John Chownings Forschungen für die Computermusik hatten. Chowning nutzte den Computer, um die Möglichkeiten der Frequenzmodulation für die Klangerzeugung zu erforschen; er hatte entdeckt, daß die Modulation der Frequenz eines Oszillators durch einen anderen Oszillator, dessen Frequenz ebenfalls im Hörbereich liegt, interessante Spektren erzeugte. Er legte eine mathematische Analyse dieser Zusammenhänge vor (die hier nicht wiedergegeben werden kann). Ein effektiver Algorithmus zur Erzeugung frequenzmodulierter Schwingungen wurde in die MUSIC Programme integriert und an die japanische Firma Yamaha lizensiert; die Folgen sind bekannt.
In den Siebziger Jahren arbeitete Chowning an Methoden der Simulation natürlicher Instrumente und menschlicher Stimmen. Er komponierte einige Stücke in FM-Technik, die auf einer Wergo-CD erschienen sind; sein Stück "Phone", das sich mit Sprach- und verwandten Klängen beschäftigt, stellt mit Sicherheit einen seltenen Höhepunkt der Computermusik dar und ist auch für ungeübte Hörer elektroakustischer Musik ohne weiteres zugänglich.
Mathews MUSIC-Programme setzten sich schnell in den verschiedensten Studios der Welt durch. Ihr musikalischer Nutzen blieb allerdings durch die prinzipiellen technischen Probleme eingeschränkt: zum einen konnten sich nur wenige Komponisten mit dem neuen Medium ohne die Möglichkeit des interaktiven Experimentierens anfreunden; zum anderen waren in vielen Studios die Digital-Analog-Wandler von unbefriedigender Qualität. Mathews war das Problem der Eingabe wohlbewußt; noch zu den Zeiten der IBM 7094 beschäftigte er sich mit einem graphischen Eingabe-System, das mit einem der ersten Computer-Bildschirme und einem Lichtgriffel funktionierte. Viele der heute selbstverständlichen Funktionen und Eingabetechniken von Kompositionsprogrammen waren schon in Mathews GRIN Programm angelegt. Die Entwicklung dieses Systems fand mit dem Ende der 7094 Serie leider ein abruptes Ende.
Die aus Frankreich stammende Tradition der "Musique Concrète" ist Ursprung einer wesentlichen Entwicklung in der Computermusik: entgegen Mathews ursprünglichem Ansatz der Klangerzeugung im Computer gingen einige Forscher und Komponisten dazu über, den Computer zur Verarbeitung bereits vorhandener Klänge zu nutzen. Jean Claude Risset hatte in den Bell Labs mit Mathews gearbeitet und später in Frankreich einige Stücke für Computer-generierte Bänder und natürliche Instrumente geschrieben (Dialogues, Songes). Er erweiterte MUSIC V um die Möglichkeit, kurze Klangfragmente zu verwalten, die mit einem Analog/Digital-
Wandler in den Speicher des Computers gelesen werden konnten. Dieses Material konnte analysiert und verschiedenen Manipulationen unterzogen werden, um dann beispielsweise mit synthetischem Material in Verbindung gebracht zu werden.
Die technischen Grundlagen zu diesem Prozess gehen auf Forschungen der Bell Labs zurück, wurden jedoch erst durch James Moorer in Standford zu künstlerisch brauchbaren Werkzeugen. Moorers Analyseverfahren, das unter dem Namen "Phase Vocoder" bekannt wurde, beruhrt auf einem Datenreduktionsverfahren. Wie beim in der elektronischen Musik gebräuchlichen (Kanal-) Vocoder unterteilt der Phase Vocoder das Frequenzspektrum des zu analysierenden Signals in Bänder. Die Anzahl der Frequenzbänder ist theoretisch unbegrenzt; je mehr Bänder verwendet werden, desto steilflankiger müssen die verwendeten Filter ausgelegt werden. Hier muß jedoch ein prinzipielles Problem des Filters berücksichtigt werden: je steilflankiger ein Filter ausgelegt ist, desto träger reagiert es auf Änderungen im Signal. Abhängig von der Art des zu analysierenden Signals wird die Anzahl der Bänder zwischen wenigen Hundert und einigen Tausend liegen. Anders als beim konventionellen Kanal-Vocoder muß Anzahl und Lage der Bänder so gewählt werden, daß zu jedem Zeitpunkt jede einzelne im Signal enthaltene Sinusschwingung in ein seperates Frequenzband fällt, oder, mit anderen Worten, daß sich nie zwei unterschiedliche Partialwellen im selben Band aufhalten. Falls dieser Zustand gegeben ist (was bei geräuschhaften und gewissen perkussiven Signalen schwer zu verwirklichen ist), liefert die Analyse pro Band nicht nur einen zeitlich verlaufenden Wert für die Amplitude, sondern auch für die Frequenz (oder "Feinstimmung") der Partialwellen in den einzelnen Bändern.
Die gewonnenen Werteverläufe können eine Bank von Sinusoszillatoren steuern, die das Signal perfekt rekonstruieren. Sie bieten sich aber auch zur gezielten Manipulation durch den Künstler an: Partialwellen können einzeln verstimmt, in ihrer räumlichen Position variiert, verstärkt oder abgeschwächt werden. Den Anhänger der "Musique Concrète" ermöglichte dieses Verfahren neben solchen feinsinnigen Manipulationen vor allem, Dauer und Tonhöhe eines Signals unbhängig voneinander zu beeinflussen - ein Wunsch, der seit der künstlerischen Beschäftigung mit Tonbandgeräten bestand.
So fand der Computer, bisher eher Anbetungsgegenstand der orthodexen Anhänger der Kölner Schule, Einzug in den Studios etwa der GRM (Group de Recherche Musicale). Von den Nachfahren Pierre Schaeffers ist bekannt, daß sie anfänglich den Rechner ausschließlich zur Klangmanipulation verwendeten; die eigentliche Komposition beziehungsweise Montage des Materials wurde im analogen Studio auf Tonbändern realisiert. So begegneten sie einer der Unzulänglichkeiten der damaligen Systeme: für jede noch so minimale Veränderung in einem umfangreichen MUSIC V-Score muß das Stück komplett neu berechnet werden. Aus technischen Gründen gab es keine Möglichkeit, Ereignisse einzeln berechnen zu lassen und in einem getrennten Arbeitsschritt zu einem Stück zusammenzufügen.
Andere Künstler vor allem in den USA, darunter Charles Dodge, Jim Randall und Benjamin Boretz fühlten sich eher den Traditionen der seriellen Komposition oder den Lehren Milton Babbitts verpflichtet. Das strenge Regelsystem ihrer Kompositionsmethoden legte sie in vielen künstlerischen Entscheidungen fest, die andere nur durch direktes Experiment treffen konnten; vielleicht fühlten sie sich deshalb durch die eingeschränkten Interaktionsmöglichkeiten der damaligen Systeme weniger behindert.
Noch radikaler verfolgte der Deutsche Gottfried Michael König am Institut für Sonologie in Utrecht / Niederlande die Erforschung des seriellen Kompositionsprinzips. Seine PROJECT-Programme erzeugten nach statistischen und seriellen Regeln Daten, die von Hand in konventionelle Instrumental-Partituren übertragen werden mußten. Auf diesem Weg entstanden verschiedene Stücke für Instrumentalensembles und Klavier. Die zweite Fassung seines Kompositionsprogramms, PROJECT 2, stellte er anderen Komponisten zur Verfügung; eine Erweiterung des Programms zur Steuerung einer VOSIM Synthese-Hardware wurde hinzugefügt. VOSIM ist ein Klangerzeugungsverfahren, das auf Arbeiten des Phonetik-Spezialisten Werner Kägi beruht; er interessierte sich für die Erzeugung von Sprach- und verwandten Klängen.
Wie König nutzten Lejaren Hiller und Iannis Xenakis den Computer in erster Linie zur Erzeugung komplexer kompositorischer Strukturen. Hillers bekanntestes Werk HPSCHD entstand in den Jahren 1967 - 69 in Zusammenarbeit mit John Cage. Die Länge des Werks ist unbegrenzt und wird nur durch die Interpreten bestimmt; es wird von einem bis sieben Chembalisten aufgeführt, die nach Belieben eines von 51 Tonbändern starten können.
Xenakis komponierte auf einer IBM 7090 zwei Stücke "ST/10-1" und "080262" für Instrumentalensemble, die 1962 in der französischen Zentrale von IBM uraufgeführt wurden. Da er von den klanglichen Errungenschaften der elektronischen wie auch der frühen Computermusik enttäuscht war, beschäftige er sich in den Siebziger Jahren am Pairser Center d´ Études de Mathématique et Automatique Musicales (C.E.M.A.Mu.) mit der Gestaltung von Multi-Media Spektakeln großen Aufwands. Klangwiedergabe und Licht wurden während der Aufführung von speziellen Computerprogrammen gesteuert. Gegen Ende der Siebziger Jahre wandte er sich wieder der digitalen Klangerzeugung zu; sein Projekt ist unter dem Namen UPIC bekannt geworden und schließt pädagogische Arbeit auch mit Kindern ein.
Der Wunsch nach interaktiveren Systemen zur digitalen Klangerzeugung und Komposition führte noch in den Sechziger Jahren zur Entwicklung sogenannter hybrider Systeme. Das revolutionäre Konzept der Spannungssteuerung ermöglichte die effektive Verbindung analoger Klangerzeugung und digitaler Steuerung. Analoge Synthesizer erzeugen Klang ihrer Natur nach in Echtzeit und sind in dieser Hinsicht den damaligen Systemen zur direkten digitalen Synthese überlegen. Andererseits standen bei Verwendung digitaler Rechner wesentlich raffiniertere Systeme zur Steuerung und Komposition zur Verfügung. Mit Digital / Analog-Wandlern ließen sich ihre Daten in Steuerspannungen für die Synthesizer übersetzten. Um ausreichend feine Kontrolle über den zeitlichen Verlauf dieser Steuerspannungen zu gewährleisten, mußten die Werte längst nicht so häufig wie zur direkten Erzeugung eines Audiosignals berechnet werden; diesen Anforderungen wurden die Rechner der damaligen Zeit gerecht, so daß vermittels dieses "arbeitsteiligen" Verfahrens Echtzeitsysteme hergestellt werden konnen.
In diesem Zusammenhang sind vor allem das GROOVE System, das Max Mathews im Jahr 1970 vorstellte, sowie das MUSYS III System (1969) des Briten Peter Zinovieff zu nennen. Letzteres erlaubte dem Komponisten, nicht weniger als 256 Oszillatoren und umfangreiche Filterbänke von zwei PDP 8 Computern zu steuern. Das System, das Zinovieff privat finanzierte, wurde später erweitert, um Synthesizer vom Typ VCS 4 und Synthi 100 seiner Firma EMS zu steuern. Die Zahl der Werke, die mit hybriden Systemen verwirklicht wurden, ist bescheiden. Die Siebziger und Achziger Jahre brachten eine Vielzahl von Systemen hervor, die sowohl Klangerzeugung als auch Steuereung digital, aber in unterschiedlichen technischen Einheiten realisieren. Die Technologie der Siebziger Jahre erlaubte die Konstruktion digitaler Oszillatoren und anderer Klangerzeugungs und -Verarbeitungsmodule; die verwendete Hardware war dabei auf die spezielle Anwendung ausgelegt und keineswegs so flexibel wie ein konventioneller programmierbarer Computer. Um dennoch die Vorteile des Computers zu nutzen, verband man beide Systeme, wie man es schon bei den hybriden Systemen getan hatte.
Wieder war Peter Zinovieff unter den ersten, die die neue Technologie erforschten; sein VOCOM Systeme erlaubte 1972 die Steuerung einer digitalen Oszillatorbank durch die PDP 8 Computer, die bislang MUSYS betrieben hatten. Ähnliche Bemühungen führten am Dartmouth College in New Hampshire, USA zur Entwicklung eines Prototypen des "Synclavier"-Synthesizers, der später durch die Firma New England Digital weiterentwickelt und vermaktet wurde. John Appleton, Sydney Alonso und Cameron Jones stellten das Gerät 1975 in einer Fassung vor, die bis zu 32 Synthesizerstimmen durch eine Kombination aus additiven und Frequenzmodulations-Techniken realisieren konnte.
Viele Systeme dieser Art hatten ihren Ursprung in einem akademischen Umfeld, wurden aber durch Unternehmen unter kommerziellen Erwägungen entwickelt und ausgestaltet. Den meisten von ihnen war wenig kommerzieller Erfolg beschieden; die Firma Crumar etwa hatte auf der Basis eines Prototyps für eine Oszillatorbank der Bell Labs den "Synergy"-Synthesizer entwickelt, dessen interessante Klangerzeugungseinheit leider in den ersten Versionen für den Musiker nicht zugänglich war.
Abseits von kommerzielen Zwängen wurden verschiedene Systeme beispielsweise am IRCAM entwickelt. Giuseppi di Giugno begann 1976 die Arbeiten am 4A, einem Synthesizier, dessen 256 digitale Oszillatoren und Hüllkurven durch einen gewöhnlichen PDP 11 Rechner gesteuert werden konnten. Die Nachfolgemodelle 4B und 4C stellen 64 Oszillatoren mit Frequenzmodulationsmöglichkeiten sowie 32 Hüllkurven-Generatoren zur Verfügung. Mit diesen Geräten entstanden David Wessels "Anthony" (1977) und Tod Machovers "Soft Morning, City" (1980).
Diesen "gemischt digitalen" Systemen war zueigen, daß sie aufgrund ihrer festgelegten Hardware-Architektur in ihrer Funktion mehr oder weniger unflexibel waren; hier lag ihr größtes Defizit gegenüber der direkten Software-Synthese, wie sie Max Mathews eingeführt hatte. Die Achtziger Jahre brachten eine Technologie hervor, die dieses Problem zumindest teilweise löste. Schnelle digitale Schaltkreise erlaubten die Konstruktion von Rechnern, die schnell genug waren, um durch ein Computerprogramm vorgegebene Klangsynthese-Verfahren in Echtzeit auszuführen. Durch ihre Programmierbarkeit konnten diese Geräte den Anforderungen angepasst werden und auch zur Konstruktionszeit nicht vorhergesehene Aufgaben erfüllen.
Die Firma Digital Music Systems bot schon 1979 ein Gerät namens DMX-1000 an, das mit Hilfe eines "gewöhnlichen" Computers beliebigen Typs programmiert und während der Klangerzeugung gesteuert werden konnte. Eigens für dieses Gerät wurde eine an MUSIC 11 angelehnte Programmiersprache, MUSIC 1000, entwickelt. Der Kanadier Barry Truax programmierte den DMX 1000 und einen angeschlossenen PDP 11 Rechner, um seine Version der "Granular-Synthese" in Echtzeit verwirklichen zu können und komponierte 1986 mit diesem System "Riverrun".
Di Giugno entwarf am IRCAM mit dem 4X ein frei programmierbares Klangerzeugungs und -Verarbeitungssystem großer Leistungsfähigkeit, das der Leiter des Instituts, Pierre Boulez, bei der Realisation seines monumentalen Werks "Répons" einsetzt. Boulez hat seit 1981 viele Versionen des Stücks veröffentlicht und aufgeführt und hat die Arbeit daran noch nicht für abgeschlossen erklärt. Boulez konfrontiert in "Répons" ein Instrumental-Ensembles mit sechs Perkussions-Solisten, deren Instrumente durch Mikophone abgenommen und im 4X klanglich manipuliert werden.