Erleben wir den Tod des Albums?

Eine kurze Geschichte des Albums
In den 60er Jahren wurde das Album gegenüber den Singles zum führenden Schallplatten-Format – zumindest in Rock und Folk. Populäre Musikformen wurden zuvor vor allem durch Singles und EPs, also durch Kurzformate verkauft. Pop-Alben gab es schon auch, doch diese bestanden in der Regel aus ein bis zwei Singles plus Füllmaterial. Das Füllmaterial bestand meist aus Standards, die auch zum Live-Set eines Acts gehörten. Da viele Live-Konzerte damals kürzer dauerten als heute, vielleicht 20 bis 30 Minuten, füllten aber auch die Live-Stücke selten ein Album.

Das Füllmaterial verschwand bei Bands zusehends, die ihre Kunst ernst nahmen, d.h. als Autoren ihres Songmaterials auftraten. Bei den Beatles kann man diese Tendenz daran festmachen, dass ab dem 1965er Album Rubber Soul keine Fremdkompositionen mehr auf ihre Alben kamen. Sodann wurde das Format Album für Rockbands ab 1964/65 ein Anlass von Wettbewerb untereinander, zum Beispiel zwischen den Beatles und den Beach Boys. Dieser Wettbewerb bescherte uns Alben wie Rubber Soul, Pet Sounds, Revolver und das in den 60ern nicht mehr erschienene Smile, über dem Brian Wilson zusammenbrach. Als das finale Kunstwerk in dieser Reihe kann man Sgt. Pepper sehen, das erste Album, das in einem Gatefold-Sleeve erschien und die Texte abgedruckt hatte. Wie kein anderss Kunstwerk seiner Zeit sprach Pepper zu einer ganzen Generation und läutete die Zeit der Konzeptalben ein: Alben, die die klassischen Grossformate wie Konzert und Oper konkurrenzierten. Es entstanden mit Tommy und Quadrophenia Rock-Opern und mit Hair, Jesus Christ Superstar oder der Rocky Horror Picture Show Rock-Musicals. Diese Grossformate wiesen eine durch die einzelnen Songs hindurchgehende Erzählung auf.

Das Album als Leitmedium wurde zum ersten Mal von der Tanzmusik (Disco bis Techno und Dubstep) in Frage gestellt, wo kleinere Formate dominierten und heute noch dominieren. Das Aufkommen der CD in den 80er Jahren festigte das Format des Albums eher.

Neuste Entwicklungen
Wir leben in einer Zeit, in der das Album als Leitmedium vielleicht abtreten muss. Andere Formate wie Vinyl-Releases oder Kassetten-Releases in kleinen Auflagen sprechen Sammler und Liebhaber an.

Im März 2011 erschien in Death To The Shiny Disc von Ethan Kaplan @ Blackrimglasses ein Artikel, der den Tod der CD und damit des Albums verkündet.

Simon Reynolds stellt fest, dass die heutigen Alben (bzw. Musik überhaupt) lausig produziert sei und diese Tatsache trägt
zum Verlust der Aura des Albums bei. Musik muss in iPods und auf Copmputerlautsprechern, ja über das Mobiltelefon gut klingen. Für meien Hi-Fi-Anlage, für die ich so richtig Geld ausgegeben habe, produziert niemand mehr.

Ich bleibe dran und berichte, was passiert, aber vorläufig stelle ich fest, dass immer noch Alben produziert und veröffentlicht werden.

Geschichte und Bedeutung der elektronischen Klangerzeugung

Einleitung

Elektronisch (wie auch akustisch) erzeugte Klangkompositionen spielen in der Musik eine vergleichbare Rolle wie die konkrete Poesie sie in der Literatur spielt. Im Zentrum der gestalterischen Arbeit mit Sounds steht neben der Arbeit an der Form immer auch die Arbeit an der Substanz, am (Klang-)Material.

Die Vorgeschichte des Sounds beginnt bereits bei Debussy oder dem frühen Stravinsky, die beide das klassische Orchester klangmalerisch einsetzen.

Als die ersten Musiker thematisieren die Futuristen (Luigi Russolo) das Geräusch als Material für die Komposition. Die Lärmquellen der modernen Großstadt – Maschinen, Fuhrwerke, Hupen, Schreie usw. – bilden das Orchester, für welches die futuristischen Komponisten ihre Musik schreiben. Der amerikanische Komponist Charles Ives komponiert Stücke aus der akustischen Perspektive des Flaneurs in der Grosstadt: Blaskapellen laufen herbei und vorbei, sie werden lauter, kreuzen einander und verschwinden wieder im akustischen Hintergrund. Ives erfindet quasi das Mischen von Tonspuren bevor es Mischpulte gibt.

Früh schon werden neue elektrische Instrumente erfunden (beispielsweise das Theremin oder das Trautonium). Auch Radioempfänger sind beliebte elektronische Klangerzeuger, von John Cage, Karlheinz Stockhausen oder Holger Czukay eingesetzt. Seit den Sechziger Jahren tritt der Synthesizer seinen Siegeszug in allen Sparten der Musik an: in der Klassik, im Jazz und in der Popmusik.

Doch auch die mit klassischen und elektroakustischen Instrumenten erzeugten Klänge werden immer häufiger elektronisch bearbeitet. Gitarren klingen seit den Sechzigern elektrisch (Byrds, englischer Beat und Rhythm’n’Blues). Kein Wunder hat der konservative Zeitgeist sie als furchtbarer Lärm wahrgenommen. Die Byrds klingen wie der von ihnen besungene Lear Jet. Die Beatles elektrifizieren den Rock’n’Roll, die Stones und die Yardbirds elektrifizieren den Rhythm’n’Blues, so dass er wie aus der Steckdose klingt.

Spätestens seit den Sechzigern werden Effektgeräte wie WahWah, Fuzz oder Distortion während dem Spielen («Real-Time») für die Klangbeeinflussung der Instrumente eingesetzt. Medientheoretisch besehen ist die elektrische Gitarre ein Zeichen für die unaufhaltsame Elektrifizierung der Welt im Sinne McLuhans. Sie hatte eine mächtige kulturelle und politische Wirkung und war eine der wichtigsten Etappen auf dem Weg zur elektronischen Musik.

Im Free-Jazz, der sich Mitte Sechzigerjahre entwickelt, überblasen die Musiker die Töne aus ihren Blasinstrumenten mehr und mehr (Albert Ayler, später John Zorn), um sie nicht als reiner Ton, sondern als Sound zu spielen. Auch Gitarristen spielen ihr Instrument mit Bogen, Ketten, Federn oder Schrauben (Fred Frith) wie ehedem John Cage sein Klavier präpariert, um ihm ganz neuartige Töne und Klangfarben zu entlocken, um es beispielsweise wie ein Perkussionsinstrument zu spielen.

Auch im Aufnahmestudio arbeitet man mehr und mehr am Sound. Was die Beatles 1966 und 1967 im Studio machen, können sie live kaum mehr aufführen, weshalb sie von da an keine Konzerte mehr geben. Von nun an wird das Aufnahmestudio auch als eine Stätte von Postproduktionsverfahren verwendet, um Musiker/-innen und Bands einen eigenen Sound zu verpassen. Elektronik ist heute aus der meisten Musik, die vorgibt, noch immer mit «klassischen» Instrumenten zu arbeiten, kaum mehr wegzudenken.

Der Sound macht auch die strukturell einfachste (Pop-)Musik identifizierbar und fungiert dadurch als Träger kultureller Überkodierung (zeitgeschichtlicher Stil, Individualität, Kollektividentität, Ideologie etc.).

Techno

Am Ende der Achtzigerjahre wird die elektronische Musik unter dem Etikett «Techno» zur Jugendleitkultur. Vor allem in der Tanzmusik werden computergenerierte oder -verarbeitete Sounds von Produzierenden, DJs und Tanzenden bevorzugt. Was durch Avantgardekreise in den Siebzigern und Achtzigern begonnen wird (Kraftwerk, Suicide, Giorgio Moroder, Cabaret Voltaire, Heaven 17), tritt nun an, in vielen Dimensionen ausgeschšpft zu werden.

Diese populärmusikalische Entwicklung schlägt einen völlig anderen Weg als die akademische Tradition (Stockhausen, Boulez, …) ein, die die elektronischen Soundmöglichkeiten in den Fünfzigerjahren entdeckt und erforscht hat. Dort erkennt man angesichts der Vielfalt der synthetischen Klangmöglichkeiten die Notwendigkeit, der potentiellen kompositorischen Beliebigkeit angemessene Strukturen entgegenzusetzen und findet diese in einem elitären für die Masse der Konzertbesuchenden und Musikkonsumierenden weitgehend unverständlichen Serialismus. Dagegen experimentiert die DJ- und Technokultur leichtherzig mit den Klangmöglichkeiten herum. Als Beschränkungen existieren hier nicht kompositorische Parameter, sondern die etablierten Formate wie House, in deren Rahmen diese Experimente stattfinden. Ebenfalls generiert man aus den bestehenden Formaten neue, beispielsweise «Intelligent Listening» (IDM), Ambient oder «Jungle». Aus House wird später Click-House, aus IDM entsteht Glitch.

Neben diesen Linien gibt es auch Entwicklungsstränge, die aus anderen Musikrichtungen zu etwas Ähnlichem führen wie zu IDM oder Glitch. Auch im Postrock, in der improvisierten Musik, im Jazz wird der Computer im Laufe der 90er Jahre immer häufiger als Klangquelle oder als Klangprozessor eingesetzt. Dabei entsteht vielfach eine Musik, die eng mit Stilen der elektronischen Tanz- und Ambientmusik verwandt ist. An der Jahrtausendwende ist jeder Stil mit jedem anderen Stil kombinierbar. Waren ein paar Jahre früher Producer und DJs den Musiker/-innen klanglich weit voran, gewannen die letzteren schrittweise Territorium zurück. Avant ist jetzt nicht mehr so sehr die Medienkunst, sondern Leute wie Fennesz, die ein Instrument spielen und dessen Klänge im PC prozessieren.

Man könnte die Geschichte statt als Geschichte der Stile (und damit auch der Label und Personen) auch als Geschichte des Samplematerials (und damit verbunden der Technologie) schreiben. Wie im Hip Hop zuvor wurde das Klangmaterial zuerst den Schallplatten der DJs entnommen. Auf dem PC wurden diese Samples zunehmend mehr verarbeitet (Laub, Jan Jelinek), kürzer (Algorithm, Akufen) oder aus ganz anderen Quellen als es Schallplatten sind entnommen (defekte CDs – Clicks’n’cuts -, Mikrophonaufnahmen – Matthew Herbert, Matmos -, Störgeräuschen elektronischer Geräte – Pole, System Error -, Instrumenten oder der Stimme – Maja Ratkje). So sind an der Jahrtausendwende Glitches sehr «en avant». Störgeräusche aus Computern bilden bei der zugehörigen Stilrichtung das musikalisch-kompositorische Material. Die Unvorhersehbarkeit, das Unberechenbare der Glitches leistet einer Musik Vorschub, die die Offenheit improvisierter oder alleatorischer Musik hat.

Zur Bedeutung elektronisch erzeugter Musik

Was in der Komposition notiert wird und was als Gegenstand der klassischen Harmonielehre fungiert, der Ton, ist eine abstrakte Einheit. Das zeigt sich darin, dass ein einziger Ton auf unvorstellbar viele Arten erklingen kann. Die möglichen Klangfarben eines Tons beschränken sich in der traditionellen Musik auf die Klangfarben der verfügbaren Instrumente. Synthesizer und andere elektronische Instrumente haben auf die eine oder andere Weise die Fähigkeit, in einer oder in vielen Dimensionen, Klangfarben zu variieren (wenn dies auch selten genug geschieht, weil man auf die eingebauten Klangmöglichkeiten von Synthesizern, die Presets, zurückgreift). Elektronische Musik ist deshalb nicht eine Musik, die aus den traditionellen Strukturen der Töne besteht, sondern auf der Substanz der Klänge. Deshalb kommt es bei elektronisch bearbeiteter oder erzeugter Musik nicht so sehr auf die Komposition der Töne an, sondern vielmehr auf die Modulation der Klänge, der Sounds. Aufgebaut ist elektronische Musik nicht vor allem auf einem kulturell strukturierten Bestand an distinkten Tönen, sondern sie wird aus vorliegendem oder gegebenem Klangmaterial generiert, wobei die Klangmöglichkeiten ein in vielen Dimensionen kontinuierliches Feld bilden. Die Philosophen G. Deleuze und F. Guattari sagen vom Synthesizer als dem Erzeuger der meisten Gegenwartssounds: Er «variiert kontinuierlich sämtliche Parameter und bewirkt, dass nach und nach völlig heterogene Elemente sich irgendwie ineinander verwandeln».

Synthetische Klänge verweisen deshalb auf einen Erzeugungs- oder Verarbeitungsprozess, in dessen Verlauf Ausgangsklangmaterialien (Sinustöne, Samples, Tracks) be- und verarbeitet werden. Auch das, was am Ende eines Produktionsprozesses steht, kann wieder als Ausgangsmaterial dienen. Das Ende ist ein willkürlich gesetzter, immerzu vorläufiger Abbruch eines immerwährenden Produktionsprozesses. Der Wiener Fennesz zum Beispiel beantwortet in einem Interview die Frage, wie ein Stück entstehe, wie folgt: «Ganz unterschiedlich. Bei einigen (Stücken) kann ich überhaupt nicht mehr sagen, wie ich das gemacht habe. Für gewöhnlich bleibst du bei einem Klang hängen. Dann probierst du Effekte aus, stellst den Klang ruhig einmal auf den Kopf. Dann fängst du an zu schneiden und zu arrangieren. Das kopierst du runter auf zwei Spuren, die zerlegst du wiederum, rechnest neue Effekte hinzu, schneidest etc. – ein ständiges Multiplizieren. Das Ziel, also der Track, entsteht erst im Arbeitsprozess selber.» (zitiert nach F. Klopotek, How They Do it, 2002, S. 110)

Deshalb spricht man im Zusammenhang mit elektronischer Musik nicht mehr von Werken als den Resultaten des Kompositions- bzw. Produktionsprozesses. Ein Werk ist nämlich eine aktualisierte, in sich geschlossene Struktur, die in ihrer perfektionierten Ausarbeitung, dem Song bzw. der Komposition, zu einer Integrität gelangt ist, in die nicht mehr eingegriffen werden soll. Wo in der traditionellen Musik fertige Werke geschrieben, präsentiert und aufgeführt werden, stellt die elektronische Musik den Produktionsprozess zwischen Ausgangsklangmaterial und vorläufigem Resultat dar. Wo man zu elektronischer Musik nicht tanzt, sondern zuhört, erkennt man die Operationen, die das Hörbare, den Sound, generieren und prozessieren. Man hört mit zunehmender Hörerfahrung den Produktionsprozess selbst, die Kräfte werden hörbar, die Musik und Klang hervorbringen: nämlich die kollektiven Gedanken, die Phantasien, die leichten und schweren Träume der Zeit, in der dieser Sound entstanden ist.

Mit der Integrität des Werkes verschwindet auch dessen Autorschaft: Beim klassischen Songwriting gibt es einen oder mehrere Autoren zu jedem Werk. In der elektronischen Tanz- und Listening-Musik weicht die Autorfigur dem Produzenten bzw. DJ, der ausgehend von der Arbeit anderer Produzenten und DJs neue Klänge hervorbringen. Ein elektronisches Stück transportiert deshalb wenig personelle Identität: Es wird zumeist in einen Namenlosen Umschlag verpackt, auf der Vinylscheibe ein Label mit einem Projektnamen, der eher auf Maschinen (X-101) und und Zukunftswesen (Drexciya) verweist.

Kriterien zur Beurteilung dieser Musik bleiben weitgehend unbekannt, hält man an den herkömmlichen Kategorien fest, die für das Songwriting gegolten haben. Diese Kriterien fallen weg, da es sich nicht mehr um Songs, sondern um Tracks handelt. Ebenso ist es mit «instrumentellen bzw. gesanglichen Virtuosität». Die Virtuosität liegt nicht im Solovortrag, sondern in der Fähigkeit, neue bisher ungehörte Sounds zu generieren. Auch die Struktur der Tracks besteht aus anderen Elementen als bei den klassischen Kompositionsformen. Als neue und wichtige Grundelemente fungieren beispielsweise die Loops, die ein Sample oder ein Pattern wiederholen, oder die Operationen, mit denen Klänge verarbeitet und verändert werden.

Literaturliste
aaaaaaaaaaaaa
H.U. Humpert, Elektronische Musik. Geschichte – Technik – Kompositionen, Mainz 1987

Pesch, Martin; Linernotes zu New Forms (CD 2001)

T. Holmes; Electronic and Experimental Music. second edition; New Yoork & London, 2002 (Routledge)

Was bewirken die modernen Aufzeichnungstechnologien in der Musik?

Technologischer Wandel

Durch die im 20. Jahrhundert gewonnenen technischen Möglichkeiten der Aufzeichnung und Reproduktion von Schallereignissen gelingt es uns, Geister zu bannen. Eine Schallplatte/CD auflegen heisst, ein vergangenes Ereignis wieder aufleben zu lassen. Billie Holliday ist tot, die Beatles haben sich getrennt. Dennoch bleibt die Musik, die diese Musiker gespielt, und die Lieder, die sie gesungen haben, zugänglich, nicht nur als Notation, sondern als Interpretation, nicht nur als Niederschrift von Tönen, sondern als Aufzeichnung, von der her die Tonkomposition und – ungleich wichtiger – der Sound erfahrbar bleiben.

HisMastersVoice

His Master’s Voice; Quelle: Wikimedia Commons

Abbildung wird Konstruktion

Zunächst hatten Aufnahmen vor allem eine abbildende Funktion: Eine Schallaufzeichnung wurde gemacht, wo es galt, einen grossen Moment oder eine aussergewöhnliche Person einzufangen und zu konservieren. Die Stars dieser Epoche waren in der Regel grosse performative Künstler/-innen. Ihre Leistungen konnten jetzt für die Nachwelt erhalten werden, wie ja auch die Leistungen von Malern und Schriftstellern erhalten bleiben. Die Überlieferung stellte zwar bestimmt nicht die primäre Motivation dar, Musik aufzuzeichnen. Viel wichtiger war die Distribution. Der Tenor Enrico Caruso konnte dank der Schallplattenaufnahme überall in der modernen Welt gehört und seine Stimme bewundert werden. Die modernen Aufnahmetechnologien weckten so den Durst eines wachsenden internationalen Marktes nach neuen Popstars.

Die ersten Stars auf Schallplatte waren vor der Aufnahme einem lokalen oder urbanen Publikum als grosse Live-Interpreten bekannt. Diese Bekanntheit war die Bedingung dafür, dass sie aufgezeichnet wurden. Später dann begann das Verhältnis von Liveauftritt und Aufzeichnung sich umzukehren. Seit den 60er Jahren, teils schon zuvor, produzieren Musiker/-innen Musik im Studio und gehen dann mit diesen Stücken auf Tournee. Damit wird die Aufnahme das Original, die Interpretation die Kopie, wo dieses Verhältnis früher gerade umgekehrt war.

In neuster Zeit scheint sich dieses Verhältnis zwischen Live- und aufgezeichneter Musik wieder umzukehren. Im Zeitalter der umfassenden Verfügbarkeit von aufgezeichneter Musik erhält das Liveerlebnis wieder einen besonderen Wert (G. Schulze: Auf der Suche nach dem unwiederholbaren Erlebnis; NZZ 63/2008, S. B3) und es kann für Musiker finanziell interessant sein, die Musik erst nach der Tournee zu veröffentlichen.

Notation und Aufnahme

Damit löst die Schallaufzeichnung allmählich die Notenniederschrift (die Sheetmusic) ab. Bis zu den 60er Jahren des 20. Jahrhunderts wurde die meiste Pop-Musik vor allem als Sheetmusic vertrieben. Spitzenkomponisten wie Cole Porter schrieben ihre Lieder und Stücke auf, Musikverlage verkauften die Noten an Interpreten, die diese Stücke dann eine bestimmte Zeit lang sangen oder spielten, stets bemüht, mit einem aktuellen und beliebten Programm aufwarten zu können. Seit den Beatles und der Rockmusik geht Musik als Aufzeichnung um die Welt, das heisst sie wirkt vor allem als Aufzeichnung und nicht mehr als Sheetmusic.

Notation von J.S. Bach

Handschriftliche musikalische Notation von J. S. Bach; Quelle: Wikimedia Commons

Mehr zum Thema: Historie der Schallaufzeichnung (PDF) des Deutschen Rundfunkarchivs.