Computermusik

Computermusik ist ein Begriff, der innerhalb der Akademie ursprünglich verwendet wurde, um ein Studienfach in Zusammenhang mit den Anwendungen der Rechentechnologie in der Musik-Zusammensetzung zu beschreiben; besonders das, von der Westkunstmusik-Tradition stammend. Es schließt die Theorie und Anwendung neuer und vorhandener Technologien in der Musik, wie gesunde Synthese, Digitalsignalverarbeitung, gesundes Design, Schallverbreitung, Akustik und psychoacoustics ein. Das Feld der Computermusik kann seine Wurzeln zurück zum Ursprung der elektronischen Musik, und den allerersten Experimenten und Neuerungen mit elektronischen Instrumenten am Ende des 20. Jahrhunderts verfolgen. Mehr kürzlich, mit dem Advent der persönlichen Computerwissenschaft und dem Wachstum der Hausaufnahme, wird die Begriff-Computermusik jetzt manchmal verwendet, um jede Musik zu beschreiben, die mit der Rechentechnologie geschaffen worden ist.

Geschichte

Viel von der Arbeit an der Computermusik hat sich auf die Beziehung zwischen Musik-Theorie und Mathematik gestützt.

Der erste Computer in der Welt, um Musik zu spielen, war CSIRAC, der entworfen und von Trevor Pearcey und Maston Beard gebaut wurde. Mathematiker Geoff Hill hat den CSIRAC programmiert, um populäre Musikmelodien vom sehr Anfang der 1950er Jahre zu spielen. 1951 hat es öffentlich den Obersten Bogey March gespielt, dessen keine bekannten Aufnahmen bestehen.

Jedoch hat CSIRAC Standardrepertoire gespielt und wurde nicht verwendet, um das Musikdenken oder die Zusammensetzungspraxis zu erweitern, die aktuelle Computermusik-Praxis ist.

Die ältesten bekannten Aufnahmen der erzeugten Musik des Computers wurden durch den 1-Zeichen-Computer von Ferranti, eine kommerzielle Version der Baby-Maschine von der Universität Manchesters im Herbst 1951 gespielt. Das Musik-Programm wurde von Christopher Strachey geschrieben. Während einer von der BBC registrierten Sitzung hat die Maschine geschafft, sein Weg durch das "Blöken-Blöken Schwarze Schafe zu arbeiten" "Rettet Gott den König" und Teil "In der Stimmung".

Zwei weitere Hauptentwicklungen der 1950er Jahre waren die Ursprünge der gesunden Digitalsynthese durch den Computer, und von algorithmischen Zusammensetzungsprogrammen außer dem Routine-Play-Back. Max Mathews an Glockenlaboratorien hat die einflussreiche MUSIK entwickelt, die ich programmiere und seine Nachkommen, weiter Computermusik durch einen 1962-Artikel in der Wissenschaft verbreitend. Unter anderen Pionieren haben die musikalischen Chemiker Lejaren Hiller und Leonard Isaacson an einer Reihe von algorithmischen Zusammensetzungsexperimenten von 1956-9, manifestiert in der 1957-Premiere des Illiac Gefolges für das Streichquartett gearbeitet.

Frühe Computermusik-Programme sind normalerweise in Realtime nicht gelaufen. Programme würden seit Stunden oder Tagen auf Computern von vielen Millionen Dollar laufen, um ein paar Minuten der Musik zu erzeugen. Die Arbeit von John Chowning an der FM-Synthese von den 1960er Jahren bis zu den 1970er Jahren und dem Advent von billigen Digitalchips und Mikrocomputern hat die Tür zur Echtzeitgeneration der Computermusik geöffnet. Bis zum Anfang der 1990er Jahre hat die Leistung von Mikroprozessor-basierten Computern den Punkt erreicht, dass die Echtzeitgeneration der Computermusik mit allgemeineren Programmen und Algorithmen möglich geworden ist.

Fortschritte

Fortschritte in der Rechenmacht und Software für die Manipulation von Digitalmedien haben die Weise drastisch betroffen, wie Computermusik erzeugt und durchgeführt wird. Mikrocomputer der aktuellen Generation sind stark genug, um sehr hoch entwickelte Audiosynthese mit einem großen Angebot an Algorithmen und Annäherungen durchzuführen. Computermusik-Systeme und Annäherungen sind jetzt allgegenwärtig, und im Prozess so fest eingebettet, Musik zu schaffen, dass wir ihnen kaum eine zweite Aufmerksamkeit zuwenden: Computergestützte Synthesizer, Digitalmixer und Effekten-Einheiten sind so gewöhnlich geworden, dass der Gebrauch der digitalen aber nicht analogen Technologie, um Musik zu schaffen und zu registrieren, die Norm, aber nicht die Ausnahme ist.

Forschung

Trotz der Allgegenwart der Computermusik in der zeitgenössischen Kultur gibt es beträchtliche Tätigkeit im Feld der Computermusik, als Forscher fortsetzen, neue und interessante computergestützte Synthese, Zusammensetzung und Leistungsannäherungen zu verfolgen. Weltweit gibt es viele Organisationen und Einrichtungen, die dem Gebiet des Computers und der elektronischen Musik-Studie und der Forschung, einschließlich des ICMA (Internationale Computermusik-Vereinigung), IRCAM, GRAME, SEAMUS (Gesellschaft für die Electro Akustische Musik in den Vereinigten Staaten), CEC (kanadische Electroacoustic Gemeinschaft), und eine große Zahl von Einrichtungen des höheren Lernens von der Welt gewidmet sind.

Computererzeugte Musik

Computererzeugte Musik ist Musik, die durch, oder mit der umfassenden Hilfe, ein Computer zusammengesetzt ist. Obwohl jede Musik, die Computer in seiner Zusammensetzung oder Realisierung verwendet, einigermaßen computererzeugt wird, ist der Gebrauch von Computern jetzt so weit verbreitet (im Redigieren von Schlagern, zum Beispiel), dass der Ausdruck computererzeugte Musik wird allgemein verwendet, um eine Art Musik zu bedeuten, die ohne den Gebrauch von Computern nicht geschaffen worden sein könnte.

Wir können zwei Gruppen der computererzeugten Musik unterscheiden: Musik, in der ein Computer die Kerbe erzeugt hat, die von Menschen und Musik durchgeführt werden konnte, die sowohl zusammengesetzt und durch Computer durchgeführt wird. Es gibt ein großes Genre der Musik, die organisiert, synthetisiert, und auf Computern geschaffen wird.

Computererzeugte Hunderte für die Leistung durch menschliche Spieler

Viele Systeme, um Musikhunderte zu erzeugen, haben wirklich kurz vor der Zeit von Computern bestanden. Einer von diesen war Musikalisches Würfelspiel (Musikwürfel-Spiel; das 18. Jahrhundert), ein System, das Werfen der Würfel zu zufällig ausgesuchten Maßnahmen von einer großen Sammlung von kleinen Ausdrücken verwendet hat. Wenn geflickt, zusammen haben sich diese Ausdrücke verbunden, um Musikstücke zu schaffen, die von menschlichen Spielern durchgeführt werden konnten. Obwohl diese Arbeiten mit einem Computer im modernen Sinn nicht wirklich zusammengesetzt wurden, verwendet es eine rudimentäre Form der zufälligen kombinatorischen in der computererzeugten Zusammensetzung manchmal verwendeten Techniken.

Die erste Digitalcomputermusik in der Welt wurde in Australien vom Programmierer Geoff Hill auf dem CSIRAC Computer erzeugt, der entworfen und von Trevor Pearcey und Maston Beard gebaut wurde, obwohl es nur verwendet wurde, um Standardmelodien des Tages zu spielen. Nachher war einer der ersten Komponisten, um Musik mit einem Computer zu schreiben, Iannis Xenakis. Er hat Programme auf der FORTRAN Sprache geschrieben, die numerische Daten erzeugt hat, die er in durch traditionelle Musikinstrumente zu spielende Hunderte abgeschrieben hat. Ein Beispiel ist ST/48 von 1962. Obwohl Xenakis diese Musik mit der Hand gut zusammengesetzt haben könnte, musste sich die Intensität der Berechnungen verwandeln die probabilistic Mathematik in die Musiknotation wurde am besten zur Zahl zerkauenden Macht des Computers verlassen.

Computer sind auch in einem Versuch verwendet worden, die Musik von großen Komponisten der Vergangenheit wie Mozart zu imitieren. Eine gegenwärtige Hochzahl dieser Technik ist David Cope. Er hat Computerprogramme geschrieben, die Arbeiten anderer Komponisten analysieren, um neue Arbeiten in einem ähnlichen Stil zu erzeugen. Er hat dieses Programm zur großen Wirkung mit Komponisten wie Bach verwendet, und Mozart (ist sein Programm Experimente in der Musikintelligenz berühmt, wegen "die 42. Symphonie von Mozart" zu schaffen), und auch innerhalb seiner eigenen Stücke, seine eigenen Entwicklungen mit diesem des Computers verbindend.

Musik hat gedichtet und hat durch Computer geleistet

Später hatten Komponisten wie Gottfried Michael Koenig Computer erzeugen die Töne der Zusammensetzung sowie der Kerbe. Koenig hat algorithmische Zusammensetzungsprogramme erzeugt, die eine Verallgemeinerung seiner eigenen Serienzusammensetzungspraxis waren. Das ist der Arbeit von Xenakis nicht genau ähnlich, als er mathematische Abstraktionen verwendet hat und untersucht hat, wie weit er diese musikalisch erforschen konnte. Die Software von Koenig hat die Berechnung von mathematischen Gleichungen in Codes übersetzt, die Musiknotation vertreten haben. Das konnte in die Musiknotation mit der Hand umgewandelt und dann von menschlichen Spielern durchgeführt werden. Seine Programme Projekt 1 und Projekt 2 sind Beispiele dieser Art der Software. Später hat er dieselbe Art von Grundsätzen in den Bereich der Synthese erweitert, dem Computer ermöglichend, den Ton direkt zu erzeugen. SSP ist ein Beispiel eines Programms, das diese Art der Funktion durchführt. Alle diese Programme wurden von Koenig am Institut für Sonology in Utrecht in den 1970er Jahren erzeugt.

Verfahren wie diejenigen, die von Koenig und Xenakis verwendet sind, sind noch im Gebrauch heute. Seit der Erfindung des MIDI Systems am Anfang der 1980er Jahre, zum Beispiel, haben einige Menschen an Programmen gearbeitet, die MIDI-Zeichen zu einem Algorithmus kartografisch darstellen und dann entweder Produktionstöne oder Musik durch die gesunde Karte des Computers kann oder eine Audiodatei für andere Programme schreiben Sie, um zu spielen.

Einige dieser einfachen Programme basieren auf der fractal Geometrie, und können Midi-Zeichen zu spezifischem fractals oder fractal Gleichungen kartografisch darstellen. Obwohl solche Programme weit verfügbar sind und manchmal als kluge Spielsachen für den Nichtmusiker gesehen werden, haben einige Berufsmusiker ihnen Aufmerksamkeit auch gelenkt. Die resultierende 'Musik' kann mehr Geräusch ähnlich sein, oder kann ziemlich vertraut und angenehm klingen. Als mit viel algorithmischer Musik und algorithmischer Kunst im Allgemeinen hängt mehr unterwegs ab, in dem die Rahmen zu Aspekten dieser Gleichungen kartografisch dargestellt werden als auf den Gleichungen selbst. So, zum Beispiel, kann dieselbe Gleichung gemacht werden, sowohl ein lyrisches als auch melodisches Musikstück im Stil der Mitte des neunzehnten Jahrhunderts und einen fantastisch dissonanten Missklang zu erzeugen, der an die avantgardistische Musik der 1950er Jahre und der 1960er Jahre mehr erinnernd ist.

Andere Programme können mathematische Formeln und Konstanten kartografisch darstellen, um Folgen von Zeichen zu erzeugen. Auf diese Weise kann eine irrationale Zahl eine unendliche Folge von Zeichen geben, wo jedes Zeichen eine Ziffer im dezimalen Ausdruck dieser Zahl ist. Diese Folge kann der Reihe nach eine Zusammensetzung an sich oder einfach die Basis für die weitere Weiterentwicklung sein.

Operationen wie diese und noch mehr wohl durchdachte Operationen können auch auf Computermusik-Programmiersprachen wie Max/MSP, SuperCollider, Csound, Reine Daten (Pd), Keykit und Chuck durchgeführt werden. Diese Programme, die jetzt leicht auf den meisten Personalcomputern geführt sind, und sind häufig zu komplizierteren Funktionen fähig als diejenigen, die die stärksten Großrechner-Computer vor mehreren Jahrzehnten nötig gemacht hätten.

Dort bestehen Sie Programme, die "menschlichen klingende" Melodien durch das Verwenden einer riesengroßen Datenbank von Ausdrücken erzeugen. Ein Beispiel ist Band in einem Kasten, der dazu fähig ist, Jazz, Niedergeschlagenheit zu schaffen, und schaukeln Sie instrumentales Solo mit fast keiner Benutzerwechselwirkung. Ein anderer ist Impro-Schirm, der eine stochastische Grammatik ohne Zusammenhänge verwendet, um Ausdrücke und ganzes Solo zu erzeugen.

Eine andere 'kybernetische' Annäherung an die Computerzusammensetzung verwendet Spezialhardware, um Außenstimuli zu entdecken, die dann durch den Computer kartografisch dargestellt werden, um die Leistung zu begreifen. Beispiele dieses Stils der Computermusik können in der Arbeit der mittleren 80er Jahre von David Rokeby (Sehr Nervensystem) gefunden werden, wo Bewegungen des Publikums/Darstellers zu MIDI Segmenten 'übersetzt' werden. Kontrollierte Musik des Computers wird auch in den Leistungsstücken vom kanadischen Komponisten Udo Kasemets wie Marce (ntennia) l Zirkus C (ag) elebrating Duchamp (1987), eine Verwirklichung des Prozess-Stück-Erratum-Musicals von Marcel Duchamp das Verwenden eines elektrischen Musterzugs gefunden, um ein Fülltrichter-Auto von Steinen zu sammeln, die auf einer an einen Analog:Digital Konverter angeschlossenen Trommel abzulegen sind, die Steineinflüsse zu einer Kerbe-Anzeige (durchgeführt in Toronto vom Pianisten Gordon Monahan während der 1987-Hundertjahrfeier von Duchamp), oder seine Installationen und Leistungsarbeiten kartografisch darstellend (z.B. Spectrascapes) gestützt auf seinem Spielraum von Geo (sono) (1986) 15x4-Kanal computergesteuerter Audiomixer. In diesen letzten Arbeiten erzeugt der Computer Ton-scapes von Ton-Proben der Band-Schleife, lebender Kurzwelle oder Sinuswelle-Generatoren.

Computergestützte algorithmische Zusammensetzung

Computergestützte Algorithmische Zusammensetzung (CAAC, ausgesprochenes "See-Ack") ist die Durchführung und der Gebrauch von algorithmischen Zusammensetzungstechniken in der Software. Dieses Etikett wird aus der Kombination von zwei Etiketten, jeder abgeleitet, der für den fortlaufenden Gebrauch zu vage ist. Das Etikett computergestützte Zusammensetzung hat an der Genauigkeit Mangel, generative Algorithmen zu verwenden. Musik, die mit der Notation oder sequencing Software erzeugt ist, konnte als computergestützte Zusammensetzung leicht betrachtet werden. Algorithmische Zusammensetzung des Etiketts ist besonders ebenfalls zu breit, in dem sie den Gebrauch eines Computers nicht angibt. Der Begriff computergestützt, aber nicht computergestützt, wird auf dieselbe Weise wie Computergestütztes Design verwendet.

Videogesteuerter Soundtrack-Komponist

Videogesteuerter Soundtrack-Komponist ist ein neues Konzept, insofern als die erzeugte Musik durch ein verbundenes Video gesteuert wird. Dieser Prozess ist von Tunepresto entwickelt worden und ist als ein kommerzielles Produkt, Abaltat Muse für Benutzer verfügbar, um ihre eigene Musik zu schaffen, die auf ihren Videobildern oder Lichtbildervorträgen gestützt ist. Der Prozess ist mit einer Analyse der Farbensättigung in den Bildern zusammen mit der Berechnung der Dauer der Gesamtlänge verbunden. Der Benutzer wählt dann einen Stil der Musik, und ein Soundtrack wird mit der mit den Regeln des gewählten Musikstils verbundenen Videoanalyse-Information geschaffen. Die erzeugte Musik ist ohne Königtum, da der Benutzer der Schöpfer der Musik ist.

Maschinenimprovisation

Maschinenimprovisation verwendet Computeralgorithmen, um Improvisation auf vorhandenen Musik-Materialien zu schaffen. Das wird gewöhnlich durch die hoch entwickelte Wiederkombination von Musikausdrücken getan, die aus der vorhandenen Musik herausgezogen sind, entweder lebend sind oder bespielt sind. Um glaubwürdige Improvisation im besonderen Stil zu erreichen, verwendet Maschinenimprovisation das Maschinenlernen und Muster, das Algorithmen vergleicht, um vorhandene Musikbeispiele zu analysieren. Die resultierenden Muster werden dann verwendet, um neue Schwankungen "im Stil" der ursprünglichen Musik zu schaffen, einen Begriff der stilistischen Wiedereinspritzung entwickelnd.

Das ist von anderen Improvisationsmethoden mit Computern verschieden, die algorithmische Zusammensetzung verwenden, um neue Musik zu erzeugen, ohne Analyse von vorhandenen Musik-Beispielen durchzuführen.

Das statistische Stil-Modellieren

Das Stil-Modellieren bedeutet, eine rechenbetonte Darstellung der Musikoberfläche zu bauen, die wichtige stilistische Eigenschaften von Daten gewinnt. Statistische Annäherungen werden verwendet, um die Redundanzen in Bezug auf Muster-Wörterbücher oder Wiederholungen zu gewinnen, die später wiederverbunden werden, um neue Musikdaten zu erzeugen. Das Stil-Mischen kann durch die Analyse einer Datenbank begriffen werden, die vielfache Musikbeispiele in verschiedenen Stilen enthält. Maschinenimprovisation baut auf eine lange Musiktradition des statistischen Modellierens, das mit Hiller und dem Illiac Gefolge von Isaacson für das Streichquartett (1957) und der Gebrauch von Xenakis von Ketten von Markov und stochastische Prozesse begonnen hat. Moderne Methoden schließen den Gebrauch der lossless Datenkompression für die zusätzliche Syntaxanalyse, den Vorhersagenachsilbe-Baum und die Schnur ein, die durch den Faktor-Orakel-Algorithmus sucht (grundsätzlich ein Faktor-Orakel ist ein nite-Zustandautomat, der in der geradlinigen Zeit und Raum auf eine zusätzliche Mode gebaut ist).

Gebrauch der Maschinenimprovisation

Maschinenimprovisation fördert Musikkreativität durch die Versorgung automatischer Modellieren- und Transformationsstrukturen für die vorhandene Musik. Das schafft eine natürliche Schnittstelle mit dem Musiker ohne Bedürfnis danach, Musikalgorithmen zu codieren. In der lebenden Leistung spritzt das System das Material des Musikers auf mehrere verschiedene Weisen wiederein, eine Darstellung des Semantik-Niveaus der Sitzung und einer klugen Wiederkombination und Transformation dieses Materials in Realtime erlaubend. In der Off-Lineversion kann Maschinenimprovisation verwendet werden, um das Stil-Mischen, eine durch die memex imaginäre Maschine von Vannevar Bush begeisterte Annäherung zu erreichen.

Durchführungen

Das erste System, das Maschinenimprovisation mittels Modelle von Markov und Stil-Modellieren-Techniken durchführt, ist Continuator, der von François Pachet an Sony CSL Paris 2002 entwickelt ist.

Die Durchführung von Matlab der Faktor-Orakel-Maschinenimprovisation kann als ein Teil des Computerhörvermögen-Werkzeugkastens gefunden werden.

OMax ist eine in IRCAM entwickelte Softwareumgebung. OMax verwendet OpenMusic und Max. Es basiert auf Forschungen über das stilistische Modellieren, das von Gerard Assayag und Shlomo Dubnov und auf Forschungen über die Improvisation mit dem Computer durch G. Assayag, M ausgeführt ist. Chemillier und G. Bloch (auch bekannt als OMax Brothers) in der Ircam Musik-Darstellungsgruppe.

Musiker, die mit der Maschinenimprovisation arbeiten

Gerard Assayag (IRCAM, Frankreich),

Jeremy Baguyos (Universität Nebraskas an Omaha, die USA)

Tim Blackwell (Goldschmied-Universität, Großbritannien),

George Bloch (Komponist, Frankreich),

Marc Chemiller (IRCAM/CNRS, Frankreich),

Nick Collins (Universität von Sussex, das Vereinigte Königreich),

Shlomo Dubnov (Komponist, Israel / die USA),

Mari Kimura (Juilliard, New York City),

George Lewis (Universität von Columbia, New York City),

Bernard Lubat (Pianist, Frankreich),

François Pachet (Sony CSL, Frankreich),

Joel Ryan (Institut für Sonology, die Niederlande),

Michel Waisvisz (STEIM, die Niederlande),

David Wessel (CNMAT, Kalifornien),

Michael Young (Goldschmied-Universität, Großbritannien),

Pietro Grossi (CNUCE, Institut für den nationalen Forschungsrat, Pisa, Italien),

Toby Gifford und Andrew Brown (Universität von Griffith, Brisbane, Australien).

Davis Salks (Jazzkomponist, Hamburg, Pennsylvanien, die USA)

Das lebende Codieren

Das lebende Codieren (manchmal bekannt als 'interaktive Programmierung', 'Programmierung während der Übertragung', 'gerade rechtzeitig' programmierend), ist der Name, der dem Prozess gegeben ist, Software im schritthaltenden als ein Teil einer Leistung zu schreiben. Historisch wurden ähnliche Techniken verwendet, um frühe Computerkunst zu erzeugen, aber kürzlich ist sie als eine strengere Alternative zu Laptop-Musikern wer erforscht worden, lebende Codierer fühlen häufig, haben am Charisma und Schwung von Musikern Mangel, die lebend leisten.

Allgemein inszeniert diese Praxis eine allgemeinere Annäherung: Eine der interaktiven Programmierung, (Teile) Programme zu schreiben, während sie interpretiert werden. Traditionell haben die meisten Computermusik-Programme zum alten geneigt schreiben Modell/kompilieren/führen, das sich entwickelt hat, als Computer viel weniger stark waren. Diese Annäherung hat Codeniveau-Neuerung durch Leute ausgesperrt, deren Programmiersachkenntnisse bescheidener sind. Einige Programme haben Echtzeitkontrolleure allmählich integriert und (zum Beispiel gestikulierend, Softwaresynthese und Parameter-Kontrolle geMIDI-steuert). Bis neulich, jedoch, hatte der Musiker/Komponist selten die Fähigkeit zur Echtzeitmodifizierung des Programm-Codes selbst. Diese Vermächtnis-Unterscheidung wird durch Sprachen wie Chuck, SuperCollider, und Aus dem Stegreif etwas gelöscht.

TOPLAP ad hoc wurde das Konglomerat von für das lebende Codieren interessierten Künstlern 2004 gebildet, und fördert den Gebrauch, die Proliferation und die Erforschung einer Reihe der Software, Sprachen und Techniken, um das lebende Codieren durchzuführen. Das ist eine parallele und zusammenarbeitende Anstrengung z.B mit der Forschung am Ton-Laboratorium von Princeton, der Universität Kölns und Computational Arts Research Group an der Queensland Universität der Technologie.

Siehe auch

Weiterführende Literatur

  • Ariza, C. 2005. "Die Landschaft von Computergestützten Algorithmischen Zusammensetzungssystemen befahrend: Eine Definition, Sieben Deskriptoren und ein Lexikon von Systemen und Forschung." In Verhandlungen der Internationalen Computermusik-Konferenz. San Francisco: Internationale Computermusik-Vereinigung. 765-772. Internet:
http://www.flexatone.net/docs/nlcaacs.pdf
  • Ariza, C. 2005. Ein Offenes Design für die Computergestützte Algorithmische Musik-Zusammensetzung: athenaCL. Doktordoktorarbeit, New Yorker Universität. Internet:
http://www.flexatone.net/docs/odcaamca.pdf
  • Eisberg, P. 1996. "Das Entziehen der Zukunft: Die Suche nach Musikkonstruktionen" Computermusik-Zeitschrift 20 (3): 24-27.
  • Chadabe, Joel. 1997. Elektrischer Ton: Die Vergangenheit und Versprechung der Elektronischen Musik. Oberer Sattel-Fluss, New Jersey: Prentice Hall.
  • Chowning, John. 1973. "Die Synthese von Komplizierten Audiospektren mittels der Frequenzmodulation". Zeitschrift der Audiotechnikgesellschaft 21, Nr. 7:526-34.
  • Doornbusch, P. 2009. "Eine Chronologie / Geschichte von Elektronischen und Computermusik und Zusammenhängenden Ereignissen 1906 - 2011" http://www.doornbusch.net/chronology /
  • Perry, Mark und Thomas Margoni. 2010. "Von Musik-Spuren bis Google-Karten: Wer Besitzt Computererzeugte Arbeiten?". Computergesetz und Sicherheit Rezension 26: 621-29.
  • Abendessen, M 2001. "Einige Bemerkungen auf der Algorithmischen Zusammensetzung." Computermusik-Zeitschrift 25 (1): 48-53.

Backenhörnchen / Konzept
Impressum & Datenschutz