Vintage Lautsprecher mit Saba Blackcones nach Dr.Götz Wilimzig

Vintage Lautsprecher Bauart Wilimzig mit Saba Blackcones

Der Autor dieser Zeilen war nicht schlecht erstaunt über die unerwartet hohe Klangqualität die aus diesen alten Vintagelautsprecher der Gehäusebauart Wilimzig bestückt mit jeweils einem Saba Blackcones 20 cm Tief-Mitteltöner  und einem 10 cm Hochtöner nur getrennt durch einen Kondensator mit 2,2 Microfaraday Kapazität. Große Verwunderung und Staunen kennzeicheneten den Moment an dem der Autor diese Laustprecherkonstruktion das erste mal zu Ohren bekam! Hatten besagte Lautsprecher gegenüber heutigen gebräuchlichen „modernen“ Modellen nicht einen eingeschränkten Frequenzbereich der zu mindestens auf dem Frequenzgangschrieb erst mal  weniger gut oder „high endig erschien?

Der Klang

Der Klang der aus diesen Lautsprechern verströmte war einfach nur Musik. Nennenswerte Verfärbung Fehlanzeige, Breiten- und Tiefenstaffelung vorhanden. Er spielte absolut langzeittauglich und völlig unauffällig die ihm zugreichte Musik natürlich und stressfrei ab. Aufgrund seiner Konstruktion sind natürlich keine Tiefbassorgien zu erwarten aber auch nicht jede Platte hält selbst redend eine solche für uns bereit. Zudem sei bemerkt das die allermeisten raumakustisch unbehandelten Wohnräume für eine wirklich saubere und lineare Wiedergabe des Tieftonbereiches  meist auch nicht wirklich gut geeignet sind und die Wiedergabe -sofern auf der Aufnahme auch vorhanden- von tieffrequenten Tonmaterial  dann zu weiteren klangtechnischen Wiedergabeproblemen führt. Ohne eine hinreichende Linearisierung des Raumes oder durch eine digitale Entzerrung auf den Hörplatz mittels DSP Technik lässt sich dann kaum auf Dauer die vollständige Zufriedenheit des Hörers (wieder)herstellen. Die Stärke der Wilimzig-Konstruktion ist handgemachte und gut aufgenommene Musik aus Jazz und Klassik und auch sehr viele Rocktitel lassen sich auf ihm sehr gut hören. Diese Konstruktion zeichnet sich durch einen enorm guten Wirkungsgrad aus und bereits mit 0,25-0,5 Watt wird der Raum komplett mit Musik ausgefüllt! Der Autor verwendete einen digitalen Class D-Verstärker (SMSL SA-98E) dessen Ruhestromaufnahme sich ganze 2,5 Watt aus dem Netz genehmigte. Bei zimmerbefüllender Lautstärke schwankte die Leistungsaufnahme dieses Amps zwischen 2,5 und 3 Watt und bei extremen Passagen auch mal kurzzeitig bis 4 Watt. Über 40 Jahre alte Breitbandtechnik gepaart mit modernster Class-D Digitaltechnik mutiert so zu einem rekordverdächtigen Energiesparwunder der Neuzeit! Die klanglichen Leistungen bereits dieser Kombination ließen beim Autor viele Fragen zurück in wie weit die Technik insbesondere für die Heimtonwiedergabe gemeinhin als HIFI bezeichnet sich in den letzten 40-50 Jahren überhaupt weiterentwickelt haben und in welche Richtung….. Vieles auch zuweilen sehr teures aus dem Segment konnte am Ende in der Summe der Wiedergabeeigenschaften nicht mit dieser „alten Technik“ wirklich mithalten…..

Erst Lautsprecher vom Schlage einer Klein und Hummel O 410, ME Geithain 901 oder KS Digital ADM 10 zeigten dann deutlich das Musikwiedergabe noch besser geht. Aber der Vergleich würde zugegebenermaßen „hinken“. Die Wilimzigkonstruktion ist ein Design für die gepflegte Heimtonwiedergabe während es sich bei den genannten Vergleichslautsprechern um „ernsthafte“ Studiomonitore/Arbeitsgeräte der höchsten Qualitätskategorie handelt die zudem in der Anschaffung auch mehr wie ein Ei mit Butterbrot kosten. Trotzdem bereitete es dem Autor immer wieder eine Freunde gelegentlich einfach nur locker Musik über die Wilimzigkonstruktion zu hören. Das was dieser Lautsprecher kann und macht das macht er wirklich zufriedenstellend und überzeugend für den häuslichen Musikgenuß. Beim Abhören alter Monoaufnahmen ist es zwar weniger gut möglich die Breite des Monofensters förmlich mit dem Zentimetermaß in einzelnen Zentimetereinheiten auszumessen, wie es über hervorragene Studiomonitore jederzeit ohne Probleme möglich ist, aber trotzdem weiss das klangliche Resultat unter der Rubrik „privates Hörvergnügen“ zu überzeugen. Viel schlimmer oder wirklich störend wäre es wenn ein Lautsprecher bei der Wiedergabe nenneswerte tonale Verfärbungen oder zu große Unlinearitäten besonders in dem fürs menschliche Ohr empfindlichsten Bereich zwischen 1-4 kHz zeigen würde. In den Tagen und Wochen in der der Autor bislang immer wieder vergleichend auf die Wilimzig-Lautsprecherkonstruktion umschaltete blitzte dem Autor dabei immer wieder die Feststellung des bekannten Lautsprecherentwicklers Paul Klipsch durch den Kopf der einmal sagte: „We live in the midrange“.

Die Verstärkerfrage

Der Autor dieser Zeilen hält es für ein Gerücht das derartige Lautsprecher „zwingend“ einem Röhrenverstärker als Antrieb benötigen würden wie an vielen Stellen immer wieder behauptet. Man könnte -aber auch aus klangtechnischer Sicht muss man es wirklich nicht! Ratsam ist lediglich ein Verstärker und ein Quellengerät das sauber und linear geradeaus spielt an diesen Lautsprechern einzusetzen. Der Konstrukteur dieses Lautsprechers machte seinerzeit unter den Röhrenverstärkern herausragende Erfahrungen mit einem V 73 Kommando-Lautsprecherverstärker aus ehemaligen Rundfunkbeständen. Ein Gerät welches mit allen Schaltungsvorurteilen der Hifiszene bricht und trotzdem in seinem Ausgangsleistungsbereich qualitativ seine Gleichen sucht…. Diese Kommandoverstärker verfügten seinerzeit über eine Ausgangsleistung von 4 Watt welches für dieses hochempfindliche Lautsprecherdesign schon mehr als genug bedeutet.Entwicklt wurde der V73 seinerzeit von der Zentraltechnik des NWDR für die ARD. Die Betriebseinführung war 1955 und die Fertigung des  vollsymmetrischen Gegentakt-Verstärker  reichte bis in die 60er Jahre hinein.In diesem Profiverstärker war technisch alles verwirklicht was der sogenannten“audiophilen“ Röhrenlehre klar wiederspricht. Pentodenschaltung, Gegentakt, ultrascharfe Gegenkoppelung, Elkos im Signalweg und Seelengleichrichter…..Gegen diesen kleinen schweren grauen Block versagt fast alles was kommerziell als Triodenverstärker erhältlich ist. Besagter Verstärker stellt ohne Frage und Zweifel und ganz anders als manche kommerziellen vermeintlich „audiophil-hifidelen“ Nachfolger der 1980er bis 2000er Jahre ein Meilenstein in der Entwicklung des Röhrenverstärkerbaues dar!

Dr. Götz Wilimzig Lautsprecher

Dr. Götz Wilimzig Lautsprecher mit Saba Blackcones

Resumee

Der Wilimzig Lautsprecher stellt einen gelungenden und geschickten Kompromiss für die klassische Heimtonwiedergabe für Raumgrößen bis etwa 20 Quadratmeter dar.  Die für die meisten Musikrichtungen essentiellen Frequenzbereiche werden im Prinzip zufriedenstellend abgedeckt während tieffrequente Schallereignisse durch den konstruktionbedinten Pegelabfall dieser Konstruktion in raumakustisch unbehandelten Wohnräumen zu keinem Akustikdesater führen können. Wer mehr Tiefton benötigt kann jederzeit durch nachrüsten von ein bis zwei aktiven Ripolen den Frequenzgang nach unten vervollständigen. Dabei sollten dann aber folgerichtig vorgegangen werden und der Frequenzgang auf den Hörplatz mittels einer wertigen DSP-Lösungen linearisiert oder mittels eines raumakustischen Ausbaus die allgemeinen Wiedergabebedingungen in Richtung sauberer Wiedergabe des Tieftonbereiches am Hörplatz konsequent und sauber umgesetzt werden! Es ist klanglich oft wenig zielführend einen -3 dB Frequenzgang bis 20 Hz-30Hz hinunter wiedergabekonstruktiv zu verwirklichen und nicht gleichzeitig akustisch wirkungsvolle Maßnahmen zu einem linearen Frequenzgang am Hörplatz umzusetzten! Der Wilimziglautsprecher ist eine sinnige „Realkonstruktion“ in der mit klarem Blick auf die in Wohnräumen zumeist problematisch vorherschenden akustischen Bedingungen ein gutes Stück weit Rücksicht genommen wird.

Bild | Veröffentlicht am von | Kommentar hinterlassen

Audiokabel ohne Schirmung oder doch ins Kloster ?

Seit langer Zeit gilt die  Abschirmung eines Audiokabels als ein selbstverständlicher und scheinbar unverzichtbarer Bestandteil jeder hochwertigen Signalverbindung. Manche Kabeltypen/Hersteller warten dabei sogar mit einem doppelten Abschirmgeflecht auf um damit besonders gut gegen eine Übertragung der „böse“ Störungen von außen auf das zu übertragende Signal zu verhindern.

Weit verbreitet ist bis heute die Auffassung, dass die Masse als Schirm benötigt werde, um Störungen abzuleiten.  Auf die Audiotechnik bezogenen sind induktiv und kapazitativ eingekoppelte Störungen sowie hochfrequente Störsignale in der Betrachtung wichtig. Induktive Störfelder passieren dabei ungehindert die Schirmung und wirken auf beide Tonadern ein. Somit ist gegenüber induktiven Störfeldern der Schirm faktisch nutzlos. Die Auswirkungen induktiver Störfelder lassen sich lediglich durch sehr kleine Abstände der Tonadern minimieren und durch deren Verdrillung kompensieren. Anders als bei induktiven Störungen kann eine Kabel-Schirmung gegenüber kapazitiven Störungen durchaus helfen. Die Störungen werden dann gegen Masse abgeleitet und koppeln nicht mehr in die Tonadern ein. Der Nachteil: Die Masse ist überall etwas verschieden….. Bereits im letzten Artikel “Klingende Netzkabel” oder der Trend zum “Edelstromkabel” wurde beleuchtet das eine veränderte Erdungssituation der Einzelkomponenten Ursache für ein verändertes Klangbild innerhalb einer Audioinstallation bilden kann. Dazu kommt erschwerend das gegen hochfrequente Störungen der Schirm in weitaus weniger Fällen, als oftmals angenommen, wirklich „ordentlich“ funktioniert. Es kann sogar dazu kommen, dass je nach einstreuender Frequenz die vermeintlich schützende Abschirmung sich als eine kapazitiv an die Tonadern gekoppelte Antenne auswirkt! Ohne eine Kabelabschirmung würde die kapazitive Störung direkt in die möglichst eng verdrillten Tonadern einkoppeln. Beide Tonadern werden von der Störung gleichermaßen addierend erfasst  und erscheinen dadurch als Gleichtaktsignal. Das Nutz- als Differenzsignal zwischen den symmetrischen Tonadern wird davon nicht betroffen. An dieser Stelle müssen wir nun für einen Moment das Kabel gedanklich verlassen und auf die Auswirkungen und Bedingungen der daran angeschlossenen Gerätehardware betrachten. Es wird an dieser Stelle zu einem unumgänglich Muß, das die Ein- und Ausgänge der an der Kabelverbindung beteiligten Gerätehardware eine ausreichend große Unsymmetriedämpfung aufweisen. Bei einer punktuell in eine Tonader einkoppelnde Störung wird es wichtig, dass der analoge Audioausgang eine sehr niedrige Ausgangsimpedanz besitzt, um diese Störung auch auf die andere Tonader koppeln zu können. Die Störung ist dann auf beiden Tonadern gleich groß und erscheint somit wieder als Gleichtaktsignal. Im AES Paper 5248 behandelte Stephen H. Lampen (Belden) im Jahre 2000 theoretisch den Transport von Audiosignalen über UTP Kabel. In dem AES Paper blieb es zunächst einmal Theorie, da die Firma Belden nicht über Audiogeräte mit einer Unsymmetrie-Dämpfung größer als 80 dB verfügte.

Ein spannendes Symposium im Kloster Banz sollte Jahre später die Theorie die von Stephen H. Lampen in besagten AES Paper formuliert wurde bestätigen. Ausrichter des Symposiums war die Firma Stagetec. Auf dem Seminar gab es zu diesem Thema eine kleine Vorführung mit 300 m ungeschirmten UTP-Kabel und einem angeschlossenen dynamischen Mikrofon. Ohne Frage stellt dieses ein Versuch mit extremen Mitteln zur Verdeutlichung der Theorie dar. Auf dem benachbarten Adernpaar lag zusätzlich ein Messton von 1 kHz und einem Pegel von 22 dBu! Selbst bei maximal möglicher Mikrofonverstärkung war der Messton nicht zu entdecken, weder traten Brummstörungen auf. Messtechnisch konnte dabei eine Übersprechdämpfung mit etwa 140 dB bei 1 kHz  ermittelt werden! Um die Frage nach dem Nutzen des Schirmes  dabei experimentell zu untermauern, wurde dazu die Störempfindlichkeiten auf verschiedenen Kabeln unter Verwendung von NEXUS-Baugruppen jeweils mit einem 120 m langen geschirmten Kat-5 S-STP-Kabel und einem 300 m langen Kat-5 UTP-Kabel getestet. Bei der Messung der Ausgangsspannungs-Unsymmetrie konnte das UTP-Kabel bis zu 30 dB bessere Werte als das S-STP-Kabel erreichen und trotz mehr als doppelter Länge. Ursache ist erwartungsgemäß die viel kleinere Massekapazität des UTP-Kabels. Unerwartete Ergebnisse brachten hingegen die Übersprechmessungen für benachbarte Kanäle. Hier konnte das ungeschirmte UTP-Kabel mit bis zu 20 dB besseren Werten aufwarten!

Kritisch wurde gezielt nach weiteren möglichen Nachteilen von UTP-Kabeln gesucht. Dazu wurde eine unsymmetrische Störquelle simuliert in dem  beide Adern mit einem leicht unsymmetrischen Signal beaufschlagt wurden und auch hierbei waren die Übersprechdämpfungen auf dem UTP-Kabel in weiten Bereichen um 35 dB besser! In dieser Versuchsanordnung wurde dann zusätzlich die Symmetrie auf die vom Pflichtenheft 3/5 verlangten Minimalwerte verschlechtert. Das führte bei dem S-STP-Kabel zu keiner Veränderung, da der Schirm dies verhinderte. Bei dem UTP-Kabel zeigten sich dagegen dramatische Veränderungen: Die Übersprechdämpfungen entsprachen etwa denen des S-STP-Kabels. Unterm Strich bedeuteten die Ergebnisse des Versuches, das mit hochqualitativen Ein- und Ausgängen – und nur dann – ungeschirmte UTP-Kabel als analoge Signalwege erheblich bessere Übersprechwerte als ihre geschirmten S-STP-Pendants zulassen. Gegenüber üblichen Audiokabeln verglichen stellt das für die Messungen verwendete S-STP-Kabel allerdings ein extrem hochwertiges Kabel dar! UTP-Kabel wären auch dann die bessere Wahl, wenn entweder der Audioeingang oder der Audioausgang nicht ganz so optimal wie das beim Test verwendete NEXUS-System wären (Ausgangswiderstand etwa 8 Ohm, parasitäre Massekapazität liegt im Bereich von einigen 10 pF – alle Werte übertreffen bei weitem die Forderungen des entsprechenden Pflichtenheftes), aber dennoch mindestens die Grenzwerte des Pflichtenhefts 3/5 erreichen. Der Einsatz geschirmter Kabel hingegen wird umso sinnvoller, je schlechter die Symmetrie der angeschlossenen Geräte oder je größer die parasitäre Massekapazität ist bzw. wenn keine Erdfreiheit gegeben ist.

Dieser Test ließ noch einmal sehr deutlich werden welchem absolut überragenden Einfluss die technische Qualität der Audiokomponenten im Vergleich zur Kabelfrage am Ende zukommt. Der nicht selten in den letzten Jahren vielbeschworene „Kabelklang“ stellt in Wirklichkeit nichts weiter dar, wie die Interaktion der Übertragungsstrecke mit den Ausgangs- und Eingangsparametern der beteiligten Audiokomponenten. Vielmehr „schlachten“ dabei die unterschiedlichen technischen Parameter unterschiedlicher Kabel die elektrotechnischen Schwächen mancher vermeintlich als hochwertig geltenden Audiogerätschaften aus…..

Veröffentlicht unter Audioverbindungen, Digitale Audiotechnik, Stromversorgung | Verschlagwortet mit , , , , , | Kommentar hinterlassen

Gezähmter Hornklassiker – oder welches Potential in alten Vintagedesigns unter Zuhilfenahme modernster Technik steckt

Durch einen Thread in einem Forum bin ich auf ein sehr interessantes Konzept aufmerksam geworden. Ein aktiviertes und dabei mit Class-D Digitalendstufen angetriebenes Klipsch La Scala Hornsystem kombiniert mit einem Lautsprecher Management System HD2 der Firma Four Audio. Diese interessante Kombination aus alter und neuer Technik übte auf mich eine große Neugierde und Anziehungskraft aus. Wurde dabei doch ein 50 Jahre altes Lautsprecherdesign wie es die Klipsch La Scala letztendlich darstellt mit Aktivierung und modernster Digitaltechnik „verheiratet“.

Klipsch La Scala

Die Klipsch La Scala wurde 1963 vorgestellt. Der Audiopionier Paul W. Klipsch baute diese für die Kampagne von Winthrop Rockefeller für das Gouverneurs-Amt von Arkansas als Ansagelautsprecher. Als tragbare und preiswerte Version des revolutionären Klipschorn® betrachtet, hatte die La Scala auch nach dem Wahlkampf Erfolg. Trotz des etwas groben, unfertigen Aussehens klang die Dreiwege-La Scala mit seinem Horn-Loading so gut, dass sich Interessenten fanden die den Lautsprecher auch im heimischen Wohnzimmer verwenden wollten.

Seit damaligen Wahlkampftagen praktisch unverändert, wurde das Design der La Scala weiter optimiert. Heute gibt es diese in hochwertigen Furnieren aus Kirsche, Nussbaum und schwarzer Esche. Das Hoch- und Mittelton-Horn wurde mit einem Lautsprechergrill abgedeckt. Die Wände des Basshorngehäuses bestehen jetzt aus 2,5 cm dicken Faserplatten statt 1,9 cm dickem Sperrholz und bieten mehr Unterstützung, verringern die Resonanzen und liefern einen reineren Bass.

Klare Hochtöne, extreme Leistung und den unübertroffenen, verzerrungsarmen Bass ist das Markenzeichen der La Scala. Die Horn-Load-Treiber der La Scala besitzen einen hohen Wirkungsgrad und können große Lautstärken bei geringem Stromverbrauch und ohne hörbare Verzerrungen entwickeln.

Der Umbau

Zunächst wurde die originale analoge Frequenzweiche der La Scala ausgebaut und die zur Einzelansteuerung insgesamtbbenötigten 3×2 Ausgänge pro Lautsprecherkanal praktisch für jedes Chassis einzeln nach außen geführt. Jedes Chassispaar (Stereo) bekam dabei seine eigene Class D-Digital-Endstufe zugeteilt. Ausgeführt wurde das Projekt von niemanden geringerem als Prof. Anselm Goertz also einer der führenden Fachleute und eine wirkliche Kapazität auf dem Fachgebiet.

Maßnahmen die von Prof. Anselm Goertz durchgeführt wurden:

Entfernen der passiven Weiche
Nahfeldmessung aller Chassis
Bestimmung der optimalen Trennfrequenzen
Glättung des Frequenzganges (20 Hz-17kHz leicht abfallend zu den Höhen)
Symmetrierung des linken und rechten Lautsprechers in Bezug auf den Raum sowie die Laufzeitkorrektur aller 4-Wege mit Optimierung der Phasenfehler
Selbstredend sind insbesondere letztere Maßnahmen auf einen Sweetspot den Hörplatz bezogen durchgeführt worden.

Die Einmessung wurde mithilfe eines sehr umfangreichen Monkey Forest Messystems durchgeführt dessen sinnvolle Bedienung als auch der richtigen Interpretation der entstehenden Messdaten mit der Kompetenz und Erfahrung der ausführenden Person steht und fällt. Gilt es doch bei einer solchen Neueinstellungen faktisch vom Nullpunkt her anzusetzen und zunächst die optimalen Arbeits- und Ansteuerungseinstellung der einzelnen Chassis zu ermitteln. Optimaler Klang kann u.a. nur erwartet werden, wenn sich die Lautsprecherchassis bei der Musikwiedergabe stets im „grünen Bereich“ das heißt mit einem Minimum an möglichen Verzerrungen bewegen. Auch der Optimierung der Gruppenlaufzeiten der einzelnen Chassis gehörte zu den weiteren Optimierungsmaßnahmen. Es ist nicht unbedingt das geeignete Feld für den typischen Hobbybastler -so denn die Endresultate höchsten Ansprüchen genügen sollen. Am Ende wurde der Frequenzbereich durch ein Paar 13,5 Zoll SV Sound Subwoofer als vierten Weg Richtung 20 Hz hinunter erweitert.

Über Four Audio

Zunächst ein paar Sätze zum Unternehmen Four Audio das in Endkundenkreisen bislang wenig bekannt sein dürfte.

Die Gründung der Firma Four Audio erfolgte im Jahr 2007 allerdings reichen die Ursprünge des Systems deutlich weiter zurück und gehen bis auf die 1980er Jahre zurück. Damals wurden am Institut für Technische Akustik der RWTH Aachen erste Versuche unternommen, FIR Filter zur Lautsprecherentzerrung zu verwenden. Die damals verfügbaren Signalprozessoren besaßen allerdings nur eine geringe Rechenleistung und so waren für relativ kurze FIR Filter schon viele spezielle FIR Prozessoren notwendig. Bereits in den frühen 90er Jahren wurde der Vorgänger des HD2 (HUGO) fertiggestellt und erfolgreich von den involvierten finanzierenden Lautsprecherherstellern verkauft. Zum ersten Mal war das Konzept steilflankiger Frequenzweichenfilter ohne Phasenverzerrungen und die Möglichkeit der Wiedergabe mit nahezu perfekt flachem Amplitudengang und linearer Phase basierend auf der komplexen Entzerrung gemessener Lautsprecherübertragungsfunktionen kommerziell verfügbar. Ab 1997 waren parametrische EQs und die Möglichkeit frei einstellbarer IIR-Frequenzweichenfilter verfügbar. Ein Teil der Forscher stellte auch nach Verlassen der Universität noch einen Großteil ihrer Zeit zur Verfügung, um die zweite Generation des Controllers zu entwickeln. Vor allem die Flexibilität und die Kommunikation mit dem Gerät wurden verbessert.

Nach fruchtbaren Diskussionen mit diversen Lautsprecherherstellern entschlossen sich vier der ehemaligen Weggenossen Four Audio zu gründen, um den Controller sowie Messtechnik und Software zu vertreiben und ihre Kenntnisse und Erfahrungen in Hard- und Softwareentwicklung, Signalverarbeitung, Messtechnik, Lautsprecherentwicklung und Sound-Installationen einzubringen. Parallel zu all diesen Entwicklungen mauserte sich Monkey Forest von einem Labortool für Signalverarbeitung und Messung zu einem ausgewachsenen Meßsystem für Messungen von Impulsantworten, Auswertung raumakustischer Parameter, Mikrophonkalibrierung, Berechnung von Thiele-Small Parametern, Klirrfaktor und Maximalpegelmessungen, und und und … Nach der Gründung von Four Audio 2007 wurde der ELF zur Messung der dreidimensionalen Richtcharakteristik von Lautsprechern entwickelt und kommerziell verfügbar gemacht.

Langjährige Erfahrungen in der Praxis sowie gute Kontakte zu Lautsprecherherstellern und Universitäten bilden auch heute die Quelle der Inspiration für weitere Verbesserungen und Neuentwicklungen.

Four Audio HD 2 Controller

Der Hörraum

Der Hörraum besitzt eine Fläche von 55 Quadratmester bei einem Raumvolumen von ca. 220m3. Die Decke verläuft vom Hörplatz zu den Lautsprechern hin schräg bis auf 7,00 Meter Höhe hinauf. Die Wände sind mit 1,5 cm starken Akustikputz beschichtet, die Decke mit Rigips verkleidet und die Rückwand mit 4 Bassabsorbern (Resonatoren) ausgestattet. Einige weiteren Stellen im Raum sind mit Basotect versehen und als Bodenbelag dient ein dicker Teppichboden aus Wolle. Die Möbelierung ist sparsam gehalten. Selbstredend benötigt man für so einen bombastischen Hörraum entsprechend kräftige Lautsprecher. Ein „normal dimensionierter Lautsprecher“ würde in einem Raum mit diesen Ausmaßen schlichtweg verhungern zumal der Hörabstand zu den Lautsprechern 4,50 Meter betrug.

Der Klang

Es wurde ausschließlich über CD gehört. Als Quelle diente ein CEC TL 51 der über Digital AES/EBU dem Four Audio HD 2 Controller das Musiksignal zulieferte. An Musik wurde buchstäblich querbeet ohne hastiges zappen gehört. Zunächst das Miles Davis Jahrhundertwerk mit dem dieser auch größte Berühmtheit erlangen sollte: „Kind of Blue“. Glücklicherweise wurde jene Miles Davis Aufnahme die in zwei Aufnahmesitzungen in den 30th Street Studio anno 1959 eingespielt wurden auf eine sehr haltbaren Bandsorte vom Typ Scotch 190 aufgezeichnet, die im Vergleich zu manchen später verwendeten Ampex Bandsorten der späten 1960er und 1970er Jahre sich als äußerst langzeitstabil erwiesen. Echte Mehrspurtechnik um auch einen nachträglichen Abmischungsvorgang zu ermöglichen gab es zu jener Zeit noch nicht und so musste die relative Lautstärke der einzelnen Stimmen und die Abstimmung zwischen den Musikern durch eine passende Anordnung im Studio und der Lautstärkereglung unter diesen selber erfolgen. Fred Plaut vormals Toningenieur in Sachen Klassik machte die Aufnahme mit 7 Mikrophonen vorrangig vom Typ Neumann U 49 deren Signal auf drei Tonspuren verteilt wurden. Die Aufnahme wurde mit etwas Nachhall der damals noch aus einer Hallkammer stammte klanglich abgerundet. In etwa zu selben Zeit der Kind of Blue Aufnahme existierte bereits in den USA eine Firma namens EPSCO deren CEO Bernie Gordon ein 11Bit/22khz-ADDA-System entwickelt hatte…….! Digitaltechnik war auch der technische Hintergrund der Telarc Einspielungen von Stravinskys Firebird unter Robert Shaw sowie Aaron Coplands Appalachian Spring / Fanfare for the Common Man unter Louis Lane die als nächstes in den CD-Player wanderten. Berühmt geworden sind die Telarc-Digitalaufnahmen durch ihre sehr klares und sauberen Klangbild. Zum Erscheinen dieser Aufnahmen vor mehr als 30 Jahren überschlug man sich förmlich mit Lobpreisungen für die außerordentliche Aufnahme- und Klangqualität. Noch weitgehend untypisch für jene Zeit wurde bei Telarc bei der Produktion und Weiterverarbeitung des Tonmaterials durchgängig digital produziert. Zu jener Zeit gab es bereits in Österreich beim ORF und in Deutschland beim WDR und dem Bayrischen Rundfunk in München erste volldigitale Installationen mithilfe IRT modifizierter digitaler Neve-Konsolen aus England. Die mächtigen Signalaussteuerungswerte der Telarc-CDs im Tieftonbereich konnten zu jener Zeit so manchem Tieftöner seine konstruktiven Grenzen aufzeigen. Für beide Telarc Aufnahmen wurde ein von Soundstream modifizierter Honeywell Datenrecorder der das Audiosignal mit 16Bit/50 kHz aufgezeichnete verwendet. Für die Konvertierung auf die für die CD notwendigen 44,1 kHz wurde seinerzeit der Studer SFC 16 Samplerateconverter eingesetzt. Die Firma Stockham Audio präsentierte bereits 1978 das erste kommerzielle digitale Recording System mit Random-Access Editing. Ein früher Vorläufer heutiger DAW-Audioworkstations auf Rechnerbasis. Damals beruhten derartige Minicomputer vielfach auf der Hardwarebasis eines DEC PDP-11 und VAX7xx. Diese Systeme waren u.a. auch bei RCA Records in New York im Einsatz, um Aufnahmen die im Soundstreamformat gefertigt wurden auch digital editieren zu können. Ähnliche Systeme wurden zu dieser Zeit bei JVC und der Tokio Broadcasting Company verwendet. In 1977 sorgte die digitale Restoration alter Caruso-Aufnahmen bei der RCA mithilfe eines Minicomputers auf Basis des DEC PDP-11 und der von Soundstream Chefprogrammierer Robert Ingebretsen dafür programmierten Software für beachtliches Aufsehen. Nachdem Dr. Stockham mit seiner Technologie bereits 1973/74 die berühmten Watergates Tapes erfolgreich analysieren konnte, wurde dieser 1979 zum Billboard Trendsetter des Jahres für seine Verdienste am Soundstream Digitalmastering und Editing System gewählt. Durch die Aufnahmen in besagte Zeit für einen Moment zurückversetzt wurde mir schnell bewusst, wie sachlich und technisch fundiert in manchem Vergleich zu heute über das Thema Digital- versus Analogtechnik berichtet wurde und dabei eine klare Unterscheidung der Bedeutung der Begriffe „Reproduktion“ und „Fidelity“gezogen werden konnte….. Desweiteren wanderte Dizzy Gillespie´s „An Electrifying Evening“, Mahlers Symphonie Nr.5 unter Helmut Haenchen mit dem Netherlands Philharmonic Orchestra vom Pentatone Team aufgezeichnet als auch eine alte WDR Mono Einspielungen des Turandot aus dem Jahre 1956 mit dem Kölner Rundfunkchor und Kölner Rundfunk-Sinfonie-Orchester unter der Leitung von Georg Solti in den CD-Player. Ich konnte im Laufe der Jahre schon so „einige“ Anlagenkonfiguration hören. Daraus folgt nicht selten eine gewisse Routine als auch Abgeklärtheit in Sachen Anlagen- und Klangbewertung. Wenn es denn passiert wie bei Andreas geschehen, dass der Autor beim Hören im positiven Sinne wirklich überrascht und merklich tief beeindruckt ist, handelt es sich auf jeden Fall um ein Klangerlebnis weitab vom alltäglich erlebbaren. Besonders betonen möchte ich an dieser Stelle nochmal die sehr gute Hochtonauflösung die besagte Installation dabei aufzeigte. Bevorzugt werden von mir allgemein Geräte und Konfigurationen die eigenklanglich nicht nennenswert in Erscheinung treten. Eine eigenklangliche Ausrichtungen einer Wiedergabeanlage birgt bekanntlich nicht selten die Gefahr das diese am Ende oft nicht auf jede Art von Musik- und Tonmaterial gleichermaßen passt. Dieses kann sich gelegentlich negativ je nach der Beschaffenheit des gerade gehörten Tonmaterials rächen. Von der Art des Tonmaterials sehr breit aufgestellt leg der Autor folglich besonders großen Wert auf ein neutrales agieren der entsprechenden Geräteschaften. Sollten tatsächlich klangveränderne Eingriffe vorgenommen werden, so gibt es eigens auch für diesen Zweck geeignete Geräte. Jegliche klangliche Eingriffe können damit kontrolliert dosiert und bewusst vorgenommen werden, so dass die Ergebnisse jederzeit auch wieder reproduzierbar sind bzw. auch wieder reversibel sind. High End Audio ohne Einschränkungen im besten Sinne. Letztere Begrifflichkeit ist für den Autor völlig unabhängig von der ursprünglichen Herkunft des verwendeten Equipments Maßgabe und Programm zugleich. Chrom, Edelstahl, Holz oder auch Acryl als äußere Design- und Gestaltungsmaßnahmen sind natürlich immer gern gesehen, treten aber in der persönlichen Bewertungsskala hinter der Eigenschaft der „ neutralen Klangverrichtung“ auf den zweiten Rang zurück. Grundsätzlich schließt die Verwendung eines „exorbitanten“ Gehäusedesigns niemals die neutrale Klangverrichtung aus.

Ausgewählte Aufnahmen:

Resümee

Die bei Andreas gehörte Anlagenkonfiguration ließ zu jeder Zeit und mit jedem gehörten Tonmaterial eine einwandfreie und klare Bewertung der entsprechenden Tonkonserve zu. Nichts wurde verfärbt, die Lokalisation der Schallereignisse als auch die Raumdarstellung in Höhe, Breite und Tiefe war einwandfrei. Die gehörte Konfiguration war nicht einfach „nur“ Musikanlage sondern erfüllte vollends die Anforderungen die auch an sehr guten Tonregieanlagen gestellt würden. Zu keinem Zeitpunkt wurde der Gedanke auf die jeweils verwendete Wiedergabetechnik gelenkt. Es spielte „nur“ die jeweilige Musik je nach der Beschaffenheit der verwendeten Tonkonserve –nicht mehr und auch nicht weniger. Die Gewährleistung von sauberer Musikreproduktion ohne einer vordergründigen Verblendung durch übersteigerte dogmatische Verehrungsformen oder gar rituell religiösen Huldigung eines speziellen Konzeptes vorzeitig zu erliegen. Die Technik trat vornehm in den Hintergrund und während des machtvollen und opulenten Einsatzes der Kesselpauken insbesondere bei den verwendeten Telarc-Einspielungen verwandelte sich der Hörraum wahrhaft zu einem Auditorium und ließ spürbar die stabile Betondecke erzittern. Das war wirklich großes Tonkino. Die Wiedergabe insbesondere des Tieftonbereiches gelang ohne wahrnehmbare Kompressionserscheinungen. Nach einem solchen Erlebnis bekommt man förmlich eine veränderte Sicht auf besagte Telarc- Einspielungen die offenbar für wirklich große und ausgewachsene Fullrange-Wiedergabesysteme in großen Räumen jenseits des Puppenstubenstatus erstellt wurden. Amerika im besten als auch wohl typischen Sinne, alles mindestens immer eine Nummern größer….. Bei besagter Rezeption der Telarc-Aufnahmen stellte sich ein durchaus vergleichbares Gefühl als wenn man das erste Mal vom New Yorker John F. Kennedy International Airport in die Stadt fährt und die Ausmaße der riesigen Wolkenkratzer und Strassenschluchten beginnen auf einen zu wirken ein…. Spätestens danach wird klar, dass eine einigermaßen realistisch wirkende „illusorische“ Darstellung bzw. Nachbildung aus der Konserve nur auf einer wirklich großen „Bühne“ mit entsprechender Höhen- und Breitenausdehnung gelingen kann. Gleiches gilt für eine sinnvolle und ganzheitliche Rezeption genannter Telarc-Aufnahmen. Hierbei wurden wieder einmal besonders deutlich, wie wichtig für eine realistisch großorchestrale Abbildung die Größe und das Volumen des Hörraumes und eine damit sinnvoll korrelierende Lautsprechergröße und akustischer Leistungsabgabe ist! Einen Versuch oder die Hoffnung einer zu tiefst beeindruckenden realistischen Darstellung solcher Musikprogramme in typisch nach europäischen Raummaßen gestalteten „Puppenstuben“ verwirklichen zu können wird dabei wohl immer nur ein bescheidener Versuch bleiben. Auch ein Ausweichen auf Wiedergabe über sehr teure Kopfhörer wird ein derartiges Erlebnis noch weniger ersetzen können. Es ist zwar ohne weiteres möglich in akustisch geeigneten kleineren Räumen mit sehr guten Studiomonitoren das gehörte kognitiv richtig zu interpretieren, einzuschätzen und auch zu bearbeiten -ähnlich wie man ein 4m2 großes Wandgemälde auf einem hochqualitativ hochwertigen Foto deutlich kleineren Ausmaßes sicher beurteilen und betrachten kann, aber die gesamte Machtwirkung des Bildes kann erst in voller Größendarstellung dargestellt auf den Betrachter bruchfrei übertragen werden. In der professionellen Szene hat man das schon sehr lange erkannt und hat aus gutem Grund in großen Tonstudiokomplexen Tonregien mit Flächen zwischen 70-80m2 bei Raumhöhen um die 4,20 Meter eingerichtet. Das betreiben eines solch großen Aufwandes ermöglicht es die Gesamtwirkung einer großorchestralen High End Klassikproduktion unter minimaler Abforderung/Anstrengung über geleistete Abstraktionsleistung „Dritten“ weitgehend bruchfrei vorführ- als auch erfahrbar machen zu können. Grundsätzlich kann es bei der Wiedergabe über Tonkonserve mithilfe einer „exorbitanten“ Wiedergabeanlage niemals darum gehen die komplette Wirkung eines Livekonzertes vollends damit zu substituieren, sondern es gilt das komplette klangliche als auch dynamische Potential einer entsprechenden Tonaufnahme möglichst bruchfrei, unkomprimiert als auch unmittelbar überhaupt erfahrbar machen zu können.

Veröffentlicht unter Digitale Audiotechnik, Studiomonitore | Verschlagwortet mit , , , , , , , , , , , , , , , , , , , , , , , , , , | Kommentar hinterlassen

„Klingende Netzkabel“ oder der Trend zum „Edelstromkabel“

Die Diskussion um hochwertige Netzkabel mit Verbesserungen auf der Audioseite ist durchaus ein nachvollziehbares Thema. Um weitere unnötige Verwirrungen zu vermeiden möchte der Autor mal etwas Licht ins Dunkel bringen.

Die wesentliche Ursache für „klingende Netzkabel“ ist in der Erdung zu suchen. Besagte „Edelstromkabel“ haben oft alle einen deutlich größeren Querschnitt als die normal üblichen 0,75 Quadratmillimeter der typischen Eurokabel sowie bessere Stecker die besser in der Netztleiste kontaktieren. Früher war es in Tonstudios Standard dass dort auch ein Erdsystem vorhanden war wobei jedes der Geräte mit dicken Kupferleitern sternförmig an Erde angeschlossen wurde, so dass es innerhalb der Installation kein unterschiedliches Erdpotential mehr gab. Tat man es nicht so hatte man mit merkwürdigen Problemen zu kämpfen weil zwischen den Analgenkomponenten keine stabile ausreichend niederohmige Erde vorhanden war. In der heutigen Realität bildet der Schutzleiter die Erde und dessen Querschnitt bestimmt damit den Erdquerschnitt. Es kommt heute dazu das jedes Gerät seit CE mit einer Störschutzfilter an seinem Netzeingang ausgestattet sein muß. Der Störschutzfilter soll alle Störungen und HF die auf den Netzleitungen vagabundiert –einschließlich der durch Schaltnetzteile im Gerät selbst verursachten Störungen in den Schutzleiter ableitet werden. Dadurch fließt je nach Verschmutzung der Netzleitung ein mehr oder minder großer Erdstrom über den Schutzleiter gegen den Erdzentralpunkt. Sind die Erdquerschnitte der einzelnen Geräte nicht ausreichend niederohmig, bilden sich unterschiedliche Erdpotentiale zwischen den einzelnen Geräten aus, die dann als Störung in die analoge oder digitale Audioverbindung hineingelangen und dort etwas verursachen was man nicht als eine generelle Art von Störung definieren kann sondern von dem mehr oder weniger zufällig entstandenen Aufbau abhängt. Damit sind auch gewisse klangliche Merkwürdigenkeiten beim Einsatz von verschiedenen Wordclocksystemen gemeint. Irgendwelche billigen oder vielmehr billig gemachten Baumarktsteckleisten besonders wenn u.U. mehrere aneinander hängen lassen den Schutzleiterwiderstand in Richtung Steckdose immer größer werden…. wo dann in bunter Vielfalt noch die einzelnen Geräte eingesteckt sind die alle mit relativ hochohmigen Kabeln Störschutzfilter-Ausgleichsströme an das Gesamtgebilde abgeben werden. Die Lösung des Problems ist Kupfer, wenn man es an alle Geräteteile mit einem entsprechend dicken Kupferdraht großen Querschnittes an einer Stelle solide kontaktieren kann… und natürlich Netzkabel mit ordentlichen 2,5er Querschnitt als auch Netzleisten und Stecker die fest und gut kontaktieren.

Wie Störpotential aus dem Netz auf der Audioseite wirkt hängt desweiteren noch von der Qualität des Netzteils ab. Für die Klangqualität ist die Ladekapazität des Netzteils verantwortlich und man ersetzt zum Teil eine zu geringe Ladekapazität durch ein niederohmiges Netzkabel mit größerem Querschnitt und damit geringen Eingangswiderstand.
Hochfrequenz die zwangsläufig auf dem Netz ist geht seltsame Wege. Man findet diese auch auf dem Schutzleiter. Jenseits der Megahertzgrenze ist ein Stück Draht allerdings nicht einfach ein Stück Draht mehr sondern ein komplexer Widerstand und wenn wir von einem 0,75 Quadrat Standardnetzkabel ausgehen das nun wirklich auf ein sehr niederohmiges Erdsystem verbunden wäre kann man nicht sagen wie effektiv es eine HF Störung die aus dem Störschutzfilter eingeleitet wird ableiten kann und es ist auch noch ein Unterschied ob das Kabel aufgewickelt ist oder nicht.Man kann davon ausgehen dass am Eingang des Netzteils immer noch ein relevanter HF-Salat entsteht und zusätzliche interne HF wenn im Gerät ein Schaltnetzteil verbaut ist…..Diskrete Verstärker haben meist eine wesentlich kleiner Unterdrückung von Störungen auf der Speisespannung als ein Op Amp, aber selbst bei OPs gibt es eine alte Regel dass die Störunterdrückung von der Stromversorgung auf den Ausgang bei negativer Versorgungsspannung 20 dB schlechter als bei positiver Versorgungsspannung ist. Sobald HF auf der Speisung liegt findet sich diese auch auch irgendwo im Audioweg wieder. Da hängt es dann von der Schaltungsauslegung mit HF-Sperren ab, ob eine Störung auftritt oder nicht. Bei einer korrekten Erdverkabelung mit großem Querschnitt kommt es meist nicht zu hörbaren Verbesserungen durch Einsatz von Versorgungskabeln mit großem Querschnitt, wohl aber wo die beschriebene Erdverkabelung durch den Einsatz mit Versorgungskabeln großen Querschnittes rein zufällig entstanden ist und kein ordentliches Erdsystem vorhanden war
Es kann aber natürlich nicht Schaden wenn man generell gegen die HF durch ferritummantelte Netzkabel in ausreichender Länge etwas tut …

Veröffentlicht unter Stromversorgung | Kommentar hinterlassen

Vom Sinn und Nutzen hoher Samplingfrequenzen bei HD-Digital Audio

Je nach kulturellem Hintergrund werden die Herren Nyquist, Shannon oder Kotelnikow, als die Väter des Abtasttheorems benannt. Das Abtasttheorem besagt, dass ein Signal, welches einer Bandbegrenzung unterliegt (also irgend eine höchste vorkommende Frequenz besitzt) und mit einer Abtastfrequenz abgetastet wird, die höher, als das Doppelte der höchsten vorkommenden Signalfrequenz ist, genau so wieder rekonstruiert werden kann.
Wohlgemerkt, das Abtasttheorem bezieht sich weder auf digitale Signale, noch lässt es Spielraum für eine begrenzte zeitliche Auflösung. Das rekonstruierte Signal ist identisch mit dem Originalsignal! Um aus (analogen) Abtastwerten wieder das originale Signal zu erzeugen, bedarf es des sogenannten Rekonstruktionsfilters. Als Rekonstruktionsfilter dient ein Tiefpassfilter, welches die höchste vorhandene Frequenz im Nutzsignal passieren lässt, aber alle Frequenzanteile die gleich oder größer als die halbe Abtastfrequenz sind, sicher unterdrückt. Wohl bemerkt, dieses Filter ist zwingend zur Rekonstruktion erforderlich und dieses Filter beeinträchtigt nicht das Nutzsignal, da es alle Frequenzen des Nutzsignals passieren lässt.
Eine höhere Abtastfrequenz hat somit eine höhere Bandbreite zur Folge oder auch eine höhere Auflösung.Wir erinnern uns das eine Verdopplung der Samplingfrequenz den Zugewinn von 1 Bit an Auflösung jeweils zur Folge hat! Wenn wir jedoch richtig gute A/D-Wandler verwenden, bei denen die 24 bit nicht mehr die Abtastwerte begrenzen, weil bereits andere Glieder in der Übertragungskette die Qualität des Signals beeinträchtigen, dann bringt auch eine Erhöhung der Abtastfrequenz keinen Gewinn für die zeitliche Auflösung. Richtig gute A/D Wandler im Sinne von echten 24 Bit an echt vprhandener Auflösung bedeutet das man bei dem Wandlern auch tatsächlich einen Rauschabstand von 144 dB über den Nutzfrequenzbereich messen kann! Würde man bei einem „24 Bit AD-Wandler“ allerdings beispielsweise nur 98 dB Rauschabstand messen dann bedeutet das eine echte bzw. effektive Auflösung von lediglich 16 Bit und bei 110 dB entspreche die effektive Auflösung dann nur 18 Bit….- egal was nominal an Bits auf dem AD-Wandler drauf steht… und der Rest ginge im Grundrauschen des Gerätes dann zwangsläufig unter…
Eine vergrößerte Bandbreite ist die Folge einer erhöhten Abtastfrequenz. Eine höhere Abtastfrequenz kann auch zu einer höheren zeitlichen Auflösung führen – muss es aber nicht! Keinesfalls ist eine höhere Nutzbandbreite gleich zu setzen mit einer höheren zeitlichen Auflösung! Hier wird also Ursache und Wirkung verdreht und es werden mit dieser Behauptung auch andere Einflüsse übersehen.

Ein Rechnenbeispiel:

Verglichen mit dem Audiosignal einer CD bringt der Übergang von 44,1 kHz zu 96 kHz in der Abtastfrequenz eine Erhöhung der zeitlichen Auflösung um das 2,17 fache, also um 6,7 dB.
Bei einer Veränderung der Bitbreite von 16 bit auf 24 bit (echte bit) unter Beibehaltung der Abtastfrequenz von 44,1 kHz vergrößert sich die zeitliche Auflösung um volle 48 dB! Oder besser gesagt, man kann die Zeit 256 Mal feiner auflösen. Die Audioabtastfrequenz bestimmt lediglich die höchste im Audiosignal darstellbare Frequenz. Die Audioabtastfrequenz bestimmt jedoch nicht die zeitliche Auflösung! Dies ist ein weit verbreiteter Irrtum!
Die höchste zu übertragende Nutzfrequenz wir durch die Abtastfrequenz bestimmt. Die zeitliche Auflösung des Nutzsignals wird durch die Amplitudenauflösung der Abtastwerte bestimmt sprich der tatsächlich effektiven Bit-Tiefe (Bitanzahl) die über den tatsächlichen Rauschabstand des AD-Wandlers bestimmt werden.
Die Beobachtungen das eine erhöhte Abtastfrequenz wirklich etwas bringt -außer die Erhöhung der oberen Grenzfrequenz stützen sich nach meinem Erfahrungsstand auf übliche A/D-Wandler am Markt und für die gilt, dass die effektive Bitbreite nicht immer ausreichend ist -sprich die nominalen 24 Bit garnicht wirklich nutzbar sind sondern die untersten 5-8 Bit im Grundrauschen des AD-Wandler verloren gehen.Die Beobachtungen vielerorts sind ganz bestimmt richtig beobachtet – nur die Erklärungen sind leider unvollständig und falsch. Eine Erhöhung der Abtastfrequenz kann tatsächlich zu einer Verbesserung der zeitlichen Auflösung führen, aber nicht durch die höhere Bandbreite, sondern durch die Erhöhung der Zahl der Stützstellen bei der Rekonstruktion!(Wir erinnern uns das durch eine Verdopplung der Abtastfrequenz ein Bit jeweils dazugewonnen werden kann…)
Die Erfahrungen vielerorts können in so fern bestätigt werden, dass es viele Fälle gibt, bei denen sich durch eine Verdopplung der Abtastfrequenz die zeitliche Auflösung verbessert. Dies geschieht jedoch nicht, durch die mögliche erhöhte Bandbreite des Audiosignals, die nun übertragen werden kann, sondern durch eine genauere Rekonstruktion des D/A-Wandlers auf Grund der Verdopplung der Stützstellen.
Für Anwender, die mit 28 oder gar 32 bit ihr Audiosignal quantisieren können, bringt eine Erhöhung der Abtastfrequenz keine erkennbaren Vorteile mehr! Wohl gemerkt mit 28 Bit ist dann auch der tatsächlich messbare Rauschabstand von 156 dB des Wandlersystem gemeint!
Den Zusammenhang zwischen feiner zeitlicher Auflösung und großer Bitbreite bei der Wandlung hat z.B. die Fa. Stage Tec erkannt und bietet deshalb seit nunmehr 15 Jahren einen A/D-Wandler mit extrem großer Bitbreite an, den TrueMatch-Wandler. Die große effektiv nutzbare Bitbreite ist das Geheimnis, weshalb z.b. der TrueMatch-A/D-Wandler eine hörbar große Tiefenstaffelung besitzt. Dieser Wandler ist einfach sehr genau in den Abtastwerten und daher kommt eine viel bessere räumliche Darstellung heraus. Das ist im dem Fall keine Hexerei sondern technisch ganz nüchtern real. Das hat im genannten Fall echte technische Hintergründe und ist keine Marketingparole die nur erdacht auf dem Schreibtischen von Werbefachleuten stattfand.Ein Beispiel aus einer Messumgebung mit der vorhandenen EMV die auf die Messtechnik an normalen Einsatzorten der Audiotechnik stets einwirken würde ist dabei ein gutes Stichwort und zwar gerade gegen unnötig hohe Samplingfrequenzen, denn umso höher tendenziell die eingesetzte Samplingfrequenz ist umso mehr HF-Müll wird in die entstehende WAV-Datei digitalisiert die nichts mit dem eigentlichen Audiosignal zutun hat….nach dem Motto jede HF sucht sich „irgendwo“ sicher ihre Demodulationsstrecke….

Vor dem Hintergrund von HF-Auswirkungen führten die Wissenschaftler Ashihara Kaoru und Kiryu Shogo vom japanischen Institut ETL verschiedene Experimente und Hörversuche durch, deren Ergebnisse auf der 7. AES Convention (Paper No. 5401) der Fachwelt präsentiert wurden. Hiernach wird die Existenz eigentlich unhörbarer Frequenzen unter anderem dann wahrgenommen, wenn sie zusammen mit weiteren komplexen, nicht sinusförmigen Signalen über ein nichtlinear übertragendes System wiedergegeben werden. Durch diese nichtlinearen Übertragungseigenschaften werden die höherfrequenten Signale in den Hörfrequenzbereich demoduliert. Übertragungsglieder der Audiokette, bei denen das nichtlineare Übertragungsverhalten relativ stark ausgeprägt ist, sind z.B. die Lautsprecher, über die das Musiksignal wiedergegeben wird. Unterschiede, die bei Hörversuchen via Übertragungsketten mit unterschiedlichen oberen Grenzfrequenzen (> 20 kHz) durchaus herausgehört werden, lassen sich auf zusätzliche niederfrequente Intermodulationsprodukte u.a. der Lautsprecher zurückführen, die dann auftreten, wenn diese mit höherfrequenten (Nutz-) Signalen angeregt werden. Vor diesem Hintergrund ist es keine gute Idee ein Audiosystem insbesondere Lautsprecher mit Signalen unnötig hoher Bandbreite jenseits der 20 kHz zu beaufschlagen.

Veröffentlicht unter Digitale Audiotechnik | Verschlagwortet mit , , , , , , , , , , , , , , , , , , , , , , , , , , , | Kommentar hinterlassen

Computer und Musik: Eine Alptraum – oder eher eine traumhafte Zukunft? Teil 3

Wie schwer ist die neue Technik nun zu bedienen wird sich mancher Newcomer fragen.

Hier die Antwort: Peter Pawlowski´s Boom Player

Link dazu bitte in den Browser kopieren

http://perkele.cc/download/Boom.exe

 

 

 

Veröffentlicht unter DAWs und PCs im Dienste der Musik | Kommentar hinterlassen

EBU R128-Die große Hoffnung auf das Ende des Loudness War

Informationsvorträge und Materialien zur EBU R-128

http://tech.ebu.ch/Jahia/site/tech/cache/bypass/events/webinar_loudness1;jsessionid=13189D5B167B3B016B2C81F052133DBB.jahia1/cache/off?id=13224

http://tech.ebu.ch/Jahia/site/tech/cache/bypass/events/webinar_loudness1;jsessionid=D772FCCF7ACB185E83F23F6AFFE44EDF.jahia1/cache/off?id=13390

http://tech.ebu.ch/Jahia/site/tech/cache/bypass/events/webinar_loudness1/cache/off?id=13226

http://tech.ebu.ch/docs/techreview/trev_2010-Q3_loudness_Camerer.pdf

http://tech.ebu.ch/docs/r/r128.pdf

http://tech.ebu.ch/docs/tech/tech3341.pdf

http://tech.ebu.ch/docs/tech/tech3342.pdf

http://tech.ebu.ch/docs/techreview/trev_2011-Q1_adaptive-streaming_laukens.pdf

http://productionadvice.co.uk/

Veröffentlicht unter DAWs und PCs im Dienste der Musik | Verschlagwortet mit , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | Kommentar hinterlassen

Computer und Musik: Eine Alptraum – oder eher eine traumhafte Zukunft? Teil 4

Computer und Musik

Ein Alptraum- oder  eher eine traumhafte Zukunft?

Teil 4

In dieser Folge wollen wir uns abermals mit praktischen Vorgehensweisen beschäftigen; zudem finden einige grundsätzliche Betrachtungen der Marktsituationen statt.

Praktische Verhältnismäßigkeiten bei datenreduzierten Audioformaten

Für die Musikwiedergabe über stationäre Abhöreinrichtungen ergeben in Zeiten von preisgünstigen terrabaytegroßen Festplatten datenreduzierte Audioformate unterhalb MP3 320 oder AAC 256 für den Musikliebhaber keinen wirklich einleuchtenden Sinn. Die eigentliche Domäne datenreduzierter Audioformate ist der mobile Konsum von Contentinhalten auf portablen „speicherplatzbegrenzten“ Geräten wie I-Phone, I-Pod, HTC.., sowie die Nutzung cloudbasierter Musikstreamdienste a la Simfy und Spotify über das Internet. Bei der Musikwiedergabe über Consumeraudiogerätschaften wie sie von breiten Massen der Bevölkerung zur Musikwiedergabe genutzt werden stellen datenreduzierte Contentinhalte via MP 3 320 kbit/s oder AAC 256 kbit/s nicht das primäre Nadelöhr in punkto Wiedergabequalität dar. Vielmehr beweist die bereits heute über Simfy erreichte sehr hohe Klangqualität, das bei Nutzung eines leistungsfähigen Breitbandinternetanschlusses, das klangqualitative Nadelöhr primär in den häufig anzutreffenden technisch-akustischen Bedingungen der heimischen Rezeptionssituation , als auf Seiten des Senders oder des verwendeten Audiocodecs anzutreffen sind. Sorgfältig über Profi-DAW und Tonregieanlage durchgeführte Hörvergleiche des Autors untermauern diese Erkenntnis.Wesentlich stärker als die hier bereits genannten Datenreduktionen wirkten sich die technisch-konstruktiven Auslegungen zahlreicher Consumeraudiogerätschaften spezifisch auf das eigentlich erzielbare und mögliche Klangresultat aus. Auf technisch ausgereiften „Top of the Bottom“ Abhöranlagen kann jedoch je nach Beschaffenheit des Musikmaterial ein auditiver Unterschied  besser oder schlechter wahrnehmbar werden. Mitunter konnten bei der Wiedergabe von Sopranstimmen gewisse klangliche Unterschiede rezipiert werden. So befand sich via AAC 256 „vor“ der Stimme ein hauchdünner Vorhang, der über typische CD-Auflösung abgehört beiseite gezogen werden konnte. Allerdings sei an dieser Stelle relativierend vermerkt, das zum aufspüren dieses Klangunterschiedes eine hohe selektiv gezielte Konzentration auf das Tonmaterial verwendet wurde. Es ist somit nicht ausgeschlossen, das unter einer typisch freizeitbedingten Abhörhaltung auch dieser Klangunterschied nicht weiter aufgefallen wäre. Die originalklangabweichenden Auswirkungen die durch die hier genannten datenreduzierenden Audiocodecs verursacht werden sind insgesamt derart gering, daß  ihre eigentlichen Grenzen erst bei der Wiedergabe über hochwertige Tonregieanlagen auffällig werden könnten. Klangbeobachtungen die von erhöhter „Nervosität“ im Gesamtklangbild bei der Wiedergabe von MP3 320 oder AAC 256 gegenüber CD-Material berichten, weisen nicht selten auf Jitterproblematiken innerhalb des Quellengerätes als auf Probleme des Audiocodecs hin. Weitere interessante Erkenntnisse zu dieser Thematik wurde bereits im Jahre 2001 im AES Convention Paper No.5476 ausführlich behandelt…

AES Convention Paper No.5476

http://www.iis.fraunhofer.de/content/dam/iis/en/dokumente/AMM/Conference-Paper/AES5476_Beyond_CD-Quality-24-96HighResolutionAAC.PDF

Ein weiterer aufschlußreicher Praxistest findet sich in der ct 6/2000:

http://www.heise.de/ct/artikel/Kreuzverhoertest-287592.html

Grundlagen des Streamings von Contentinhalten über das Internet:

http://tech.ebu.ch/docs/techreview/trev_2011-Q1_adaptive-streaming_laukens.pdf

http://tech.ebu.ch/docs/tech/tech3347.pdf

Ein kurzer Rückblick auf die einzelnen Stationen der Entwicklung der digitalen Audiotechnik

Im Sommer 1979 fertigte die EMI ihre erste kommerziell verwertete Digitalaufnahme.

Erste kommerziell verwertete Digitalaufnahme der EMI

Anwesend waren dabei der fähige und bekannte Producer Suvi Raj Grubb als auch Christopher Parker. Das neue und atemberaubende war es so Grubb, wenn man den Klang, den der Recorder aufnahm, mit dem verglich, den er abspielte. Weder Suvi Raj Grubb noch Christopher Parker konnte als ausgesprochen fähige und erfahrende Tonmeister dabei einen klanglichen Unterschied ausmachen. Die damals verwendeten Digital-Recorder besaßen durch die Anwendung der Pre-/Deemphasisfunktion bereits eine äquivalente Quantisation von ca. 17,5 Bit! Entwickelt wurde die PCM basierte Quantisation bereits in den 1930er Jahren in den Bell-Laboratorien. Während des Zweiten Weltkrieges wurde diese Technologie, das SIGSALY-System für die abhörsichere Verschlüsselung der Telefonverbindung zwischen London und dem Pentagon verwendet. Die Geschichte der digitalen Audiotechnik und deren Verwendung zur Aufzeichnung von Musik begann im Jahre 1967 in den Laboratorien der japanischen Rundfunkanstalt NHK. Dort sollte der erste digitale Recorder das Licht der Welt erblickten. Mit diesem waren zunächst nur Tonaufzeichnungen in Mono möglich. Zwei Jahre später -im Jahre 1969- hatten NHK Techniker den ersten Stereodigitalrecorder fertiggestellt. Letzterer besaß bei der Tonaufzeichnung eine Auflösung von 13 Bit und verwendete eine Samplingfrequenz von 30 kHz. Die Tonaufzeichnung fand allerdings in nichtlinearen PCM-Modus statt. Auch in Europa forschte und entwickelte man seit Anfang der 1970er Jahre beim BBC Research Departement an der PCM Digitaltechnik. Für eine Verbesserung der Übertragungsqualität zwischen dem Broadcast Center und den Sendern wurde darauf bereits 1971/72 ein13 Kanal PCM-Digitalsystem in Betrieb genommen! Einige der BBC Entwicklung aus dem Bereich der digitalen Audiotechnik wurde später von der Firma 3M lizensiert. In Asien erfolgte in einer Kooperation zwischen der NHK und der Firma Denon/Nippon Columbia 1972 die Fertigstellung des 13 Bit/47,25kHz  DN023R Digitalrecorders. Bereits im September 1970  entstand mit einem Denon-Prototypenrecorder die erste Digital-Aufnahme die auf LP veröffentlicht kommerziell verwertet wurde. Der Titel der LP: „Somethimg“ by Steve Marcus und Jiroh Inagaki (Nippon Columbia NCB-7003). Im April 1972 entstand mithilfe des DN023R- Recorder die erste kommerziell verwendete Klassik-Aufnahme .

Erste kommerzielle 13Bit-PCM-Klassikaufnahme des Label Denon/Nippon Columbia aus dem Jahre 1972

Denon verwendete zur Aufzeichnung digitaler Audiodaten analoge Broadcast-Videorecorder wie sie zu dieser Zeit bei Rundfunk- und Fernsehgesellschaften zur Aufnahme und Ausstrahlung von Bildinhalten verwendet wurden.  Das Smetana Quartet spielte Mozart. Der Autor ist im Besitz dieser Aufnahme in Form einer japanischen CD Ausgabe. Unter Zimmerlautstärke abgehört, wird bei dieser zu keinem Zeitpunkt der Gedanke genährt, daß dort tatsächlich „nur“ mit 13 Bit an maximaler Quantisationtiefe gearbeitet wurde! Im Dezember 1974 produzierte Denon in Europa die erste digitale Aufnahme für kommerzielle Verwertungszwecke. Das Paillard Chamber Orchestra spielte dazu im Notre Dam de Rose von Bach das BWV 1079 ein. Im Jahre 1975 erfolgte die Weiterentwicklung des Denon-Digitalrecorders. Der DN023RA-Recorder erreichte mithilfe der Pre-/Deemphasisfunktion  eine äquivalente Quantisationstiefe von 14,5 Bit. In 1977 ersetzte der DN034R den Vorgänger DN023RA. Der DN034R bot bereits eine nominelle Quantisationstiefe von 14 Bit. Dank integrierter Pre-/Deemphasisfunktion konnte die erreichte äquivalente Quantisationtiefe auf ca. 15,5 Bit erhöht werden. 1979 erreichte Denon mit Fertigstellung des DN 035R 16 Bit-Digitalrecorders mithilfe des Einsatzes der Pre-/Deemphasis Funktion eine äquivalente Quantisationstiefe von ca. 17,5 Bit. In der Zwischenzeit sollten weitere bedeutende Audiounternehmen wie Sony, Mitsubishi, Matsushita, Soundstream und 3M folgen. Das Unternehmen 3M entwickelte zu dieser Zeit mit dem 3M32 bereits einen 32-Spur-Digitalrecorder. Das Album „Bop Til You Drop“ von Ry Cooders wurde bereits 1979 von Lee Herschberg in den Warner Brothers Brother Studios North Hollywood Californien digital produziert!

Ry Cooder „Bob till you drop“

Unerwähnt darf in diesem Zusammenhang natürlich nicht die für Telarc produzierte Digitaleinspielung der Holst Suiten unter Frederick Fennell vom 4-5. April 1978 in Cleveland bleiben.

Telarc-Digitaleinspielung Frühjahr 1978

Diese Aufnahme wurde mit einem von Soundstream modifizierten Honeywell Datenrecorder mit 16Bit/50 kHz aufgezeichnet. Stockham Audio präsentierte bereits 1978 das erste kommerzielle digitale Recording System mit Random-Access Editing. Ein früher Vorläufer heutiger DAW-Audioworkstations auf Rechnerbasis. Damals beruhten derartige Minicomputer vielfach auf der Hardwarebasis eines DEC PDP-11 und VAX7xx. Diese Systeme waren u.a. auch bei RCA Records in New York im Einsatz, um Aufnahmen die im Soundstreamformat gefertigt wurden auch digital editieren zu können. Ähnliche Systeme wurden zu dieser Zeit bei JVC und der Tokio Broadcasting Company verwendet. In 1977 sorgte die digitale Restoration alter Caruso-Aufnahmen bei der RCA mithilfe eines Minicomputers auf Basis des DEC PDP-11 und der von Soundstream Chefprogrammierer Robert Ingebretsen  dafür programmierten Software für beachtliches Aufsehen. Nachdem Dr. Stockham mit seiner Technologie bereits 1973/74 die berühmten Watergates Tapes erfolgreich analysieren konnte, wurde dieser 1979 zum Billboard Trendsetter des Jahres für seine Verdienste am Soundstream Digitalmastering und Editing  System gewählt. Der erste Desktop Computer  der vollständig für Aufnahme, Editing und Abspielen von Stereomaterial mit 16 Bit und 50 kHz Linear-PCM genutzt werden konnte, war der von David Schwartz entwickelte CompuSonics DSP 2002 aus dem Jahre 1984.

CompuSonics DSP

Dieser arbeitete mit mehreren Floppy Disk Laufwerken, zwei 280 Megabyte SCSI-Festplatten und einem optischen Disklaufwerk mit 400 Megabyte Speicherkapazität. Bis Ende der 1980er Jahre sollten „Direkt to Harddisk Recording Systeme“ von New England (Soundstation II), von DAR, AMS Audiofile und IMS Dyaxis folgen. Ein 1200 Megabyte SCSI Festplattenlaufwerk mit einer Transferrate von 2,4 Megabyte pro Sekunde kostete 1989/1990 zum Vergleich ca. 8000 US-Dollar. Zu dieser Zeit waren für den Recordingsektor Festplatten mit 5,25 ,8 und 9 Zoll Größe notwendig, um die für Multitrack Recording erforderlichen Datenraten zu gewährleisten.

Boskovsky Decca 1979

Das Neujahrskonzert 1979 war die erste kommerziell verwertete Digitalaufnahme der Decca

Auch bei der Decca arbeitete man ab November 1976 unter der Federführung von Bill Bayliff und Tony Griffiths an einem digitalen Aufnahmesystem. Zunächst wurde mit einem von der BBC entliehenen 13-Bit-Digitarecorder der eine obere Grenzfrequenz von „lediglich“ 15 kHz besaß gearbeitet. Für die Übertragungsmöglichkeiten des analogen UKW-Rundfunkbandes durchaus praxisgereicht gewählt, strebten die Decca-Ingenieure für die Veröffentlichung auf Tonträger allerdings eine obere Grenzfrequenz von 20 kHz an und entwickelten in der Folgezeit ein eigenes digitales Aufnahme- und Editing-System. Im Januar 1978 begann die Entwicklung des deccaeigenen Digitarecorders und bereits im Mai 1978 waren zwei Decca-Digitalrecorder fertiggestellt mit denen im Juni 1978 in Kingsway Hall einige Mozart Klavierkonzerte mit Ashkenazy und dem London Symphony Orchestra aufgezeichnet wurden. Mithilfe dieser digitalen Aufzeichnung konnte wiederum in der Folgezeit das Editingsystem entwickelt und perfektioniert werden. Nach sorgfältig durchgeführtem Vergleichstests zwischen Dolby kompandierten Studer A 80 Masterbandmaschinen bei 38,1 cm/s und dem Decca-Digitalsystem konnte der Decca-Digitaltechnik die klanglich-technische Überlegenheit gegenüber der analogen Bandaufzeichnung attestiert werden. Zur Aufzeichnung digitaler Audiodaten verwendete die Decca analoge professionelle Broadcastvideorecorder (helical-scan video) der Typen IVS 826S und IVS 827. Man entschied sich für eine Samplingfrequenz von 48 kHz und 18 Bit Quantisationstiefe, da man auf diese Weise zwischen den angestrebten 20 kHz für den Audiobereich und der Nyquistfrequenz von 24 kHz ausreichend Platz für eine klangneutral agierende Signalfilterung gewann. Dabei gilt zu berücksichtigen, daß die digitale Audiotechnik damals noch in Kinderschuhen steckte. Die Aufzeichnung der digitalen Audiodaten erfolgte als Pseudo-TV-Signal im TV-Bandbereich des Recorders und eine der zwei Kanäle die ursprünglich für die Analogaufzeichnung des Tonmaterials zum Videobildmaterial verwendet wurden diente dem Editor bzw. Cutter als Mono-Hilfsspur während des editieren der einzelnen Takes. Das editieren findet dabei mit zwei „korrespondierenden“ Recordern statt. Nachdem bereits am 8.Dezember 1978 die italienische Symphonie von Mendelssohn digital eingespielt wurde, verblieb das digitale Aufnahmeequipment über Weihnachten in Wien, um damit am 1. Januar 1979 das Neujahrskonzert als erste kommerziell veröffentlichte Digitalaufnahme der Decca zu produzieren.  Auch bei dieser Aufnahme traf in der Regie betagte Analogtechnik auf moderne Digitaltechnik.

IVS 826 P Decca Digitalrecorder

IVS 826 P Decca Digitalrecorder

Quad 303 Verstärker

Durchaus anno 1979 noch bei der Decca anzutreffen -der Quad 303 Verstärker

Tannoy Canterbury

Die Tannoy Canterbury-Häufig bei der Decca als Abhörmonitor verwendet.Die Einsatzzeitspanne reicht dabei von Soltis berühmter Ringeinspielung in den Sophiensälen Anfang der 1960er Jahre bis in das frühe digitale Zeitalter der Boskovsky-Digitaleinspielung

.

4000272

Die Deutsche Grammophon sollte im Dezember 1979 gleichziehen.

Bei der Einführung der CD im Jahre 1982 konnte Denon mit der Nippon Columbia bereits auf eine über 10-jährige Erfahrung in der Produktion von PCM-Digitalaufnahmen zurückblicken. Die von Denon/Nippon Columbia produzierten PCM-Digitalaufnahmen wurden  Aufgrund ihrer sehr guten Klangqualität schon während der 1970er Jahre stetig auf LP veröffentlicht!  Die Durchsetzung der CD als neuer Standard wäre vermutlich gescheitert, wenn das Sony/Phillips-Entwicklerkonsortium nicht auch gleichzeitig im Besitz eines großen Fundus von Contentmaterial gewesen wäre. Es war damals keinesfalls von langer Hand geplant, aber das Hardwareunternehmen Phillips besaß damals ein Softwareunternehmen das den größten Katalog klassischer Musik der ganzen Welt besaß. Man entschied sich die CD über das Segment der klassischen Musik in den Markt einzuführen. Konsumenten klassischer Musik würden die hervorragende  Klangqualität der CD als erste besonders zu schätzten wissen. Als erstes erfolgte die Veröffentlichung der bereits digital erstellten Aufnahmen. Die mit der CD erreichte Klangqualität war besser als über Vinyl je hätte in Massenpressungen veröffentlicht werden können. Als Werbebotschafter spannte man dazu keinen geringeren als Herbert von Karajan vor den „Karren“, der als Technikfreak die enorme Qualität als auch Wichtigkeit der CD sofort erkannte. Karajans persönliche Freundschaft mit dem Sony-Chef Akito Morita und die musikalische Vorliebe von Frau Ohga -der Gattin eines einflußreichen Sonymanagers- für Beethovens 9. Sinfonie haben wir vermutlich die gegenüber der ursprünglichen Planung von 60 Minuten erhöhte Spielzeit der CD auf 80 Minuten  zu verdanken. Mit der CD konnte der Endverbraucher zum ersten Mal die sich ausbreitende vollkommene Stille miterleben, wenn an vorgesehener Stelle der Partitur das Orchester komplett verstummte. „ Wir ginge  in den Plattenladen und kamen mit einem Gefühl von Stolz und Erhabenheit heraus mit der CD gerade eben faktisch das Stereomaster käuflich erworben zu haben. Die CD bescherte der Plattenindustrie  in Folge der 80er und frühen 90er Jahre einen Boom, wie er sich vielleicht auf diese Weise nie wieder wiederholen wird. Das einzige Hindernis was dem vollen Klangpotential der CD  noch entgegenstand, waren die damals technisch limitierten Wiedergabegeräte des Consumermarktes .Unter Besitzern technisch weit ausgereizter und sehr teurer Plattenspieler konnte sich auf diese Weise der Ruf der LP als das klanglich bessere Medium noch recht lange behaupten. Lediglich eine Hand voll Firmen wie u.a. die Decca oder DGG waren zu diesen frühen Zeitpunkt im Besitz aufwendig entwickelter digitaler Digitaltechnik, die die eigentliche Qualität des digitalen Masters auch masterbandgetreu wiederzugeben vermochte. Beinahe alle Consumergeräte dieser Zeit produzierten bei der Wiedergabe von digitalem Material mehr oder weniger starke Artefakte, die nicht ursprünglicher Bestandteil des Masters waren. Die besser informierten Verehrer des guten Klanges blieben zielstrebig und versorgten sich mit Erscheinen der „legendären“ CD-Playern des Typs EMT-981/82 und Studer A 725 ab dann aus dem Broadcast- und Profilager.

Im Vordergrund der legendäre EMT 981 CD-Player

Im Vordergrund der legendäre EMT 981 CD-Player

Bereits die Innenansicht eines Studer A 725 offenbarte optisch eindrucksvoll wie klanglich funktionierende Digitaltechnik seinerzeit aufgebaut werden mußte.

Bereits die Innenansicht eines Studer A 725 offenbarte optisch eindrucksvoll wie klanglich funktionierende Digitaltechnik seinerzeit aufgebaut werden mußte.

Studer 725

Studer A 725

Diese CD-Player wurden ursprünglich für den Einsatz im Broadcastbereich entwickelt und dürften zu der Zeit das Maß der Dinge in punkto CD-Wiedergabe dargestellt haben. Derartige Geräteschaften waren damals offensichtlich nur einem kleinen Kreis von besonders gut informierten Endverbrauchern überhaupt bekannt, da in den Anzeigenmagazinen der Consumerpresse wenig über diese berichtet wurde.  Das absolute Top End im heutigen Digitalwandlersegment dürften aktuell die sehr flexiblen modularen Systeme von Salzbrenner Stagetec (Nexus), die 21er Baureihe der Studer AG sowie das RTW Districon Modular System darstellen. Insbesondere Systeme der Firma Stagetec die von den 2oth Century Fox Studios über Radio Vatikan bis zur japanischen NHK weltweit erfolgreich im Einsatz sind gelten in der technischen Entwicklung und Auslegung vielerorts als qualitativ federführend. Ob nun bei Übertragungen der Fußballweltmeisterschaft oder der olympische Spiele, die digitale Audiotechnik der Firma Stagetec ist allgegenwärtig. Die heute technisch realisierten Leistungen dieser Geräte finden erst an den physikalischen Grenzen ihren natürlichen Endpunkt .

 

Tonträger versus digitale Distribution

Der Autor bevorzugt für seine Bedürfnisse den professionell industriell hergestellten Tonträger, der Vorteile bietet, die ein Musikdownload nicht ohne weiteres erfüllen kann. Selbiger stellt immer auch ein eigenes Kunstwerk dar und ist dabei durchaus mit einem Buch vergleichbar. Die Aufmachung des Covers, die Informationen über Künstler und Musik in realen drei Dimensionen, mit der wir als Menschen gewohnt sind umzugehen, zeichnen diesen nicht zuletzt besonders aus. Gehen nicht gerade aktuell die Anstrengungen seitens der Filmindustrie dahin, durch Produktionen in 3D für ein Mehr an Live-Erlebnis sorgen zu wollen?! Ein willkommener Nebeneffekt eines industriell hergestellten Tonträgers ist zudem seine hohe Langzeitstabilität, die gleichzeitig die Funktion eines Sicherheitsbackups darstellt. Nach dem Erwerb einer CD stehen dem Anwender zudem alle Möglichkeiten offen, die man prinzipiell mit Downloadmusik auch besitzt. Die gekaufte CD läßt sich ohne Probleme nachträglich auf einen Massenspeicher „rippen“ oder deren Dateien auf dem PC mittels geeigneter Software für den Konsum über portable Geräte wie i-Phone oder i-Pod in speicherplatzoptimierte Formate á la MP3 320 oder AAC 256 umwandeln. Im Prinzip erhält der Kunde beim Kauf einer Audio-CD derzeit das Maximum an Möglichkeiten – ob diskret über Hardwareplayer oder auch über PC-Systeme von Massenspeichern abgespielt – alles ist und bleibt möglich.

Verschiedene Plattenlabel liefern schon heute beim Kauf von CD oder LP einen Gutscheincode aus, mit dem zusätzliche Online-Angebote vom Käufer wahrgenommen werden können. Ein kurzer Blick auf das in unseren Tagen bereits als historisch einzustufende Medium LP zeigt das Ausmaß der Widerstandsfähigkeit eines Mediums, das alle technischen Revolutionen und Umwälzungen, die in den letzten 30 Jahren stattgefunden haben, erfolgreich überlebte. Und auch die Audio-CD wird uns noch für einen längeren Zeitraum trotz aller Download-Möglichkeiten erhalten bleiben.

Der legendäre EMT-948

Der legendäre EMT-948.Einst für die großen Rundfunkanstalten dieser Welt kompromißarm entwickelt, stellen auch heute noch die EMT-Schallplattenabspielmaschinen den State of the Art in punkto Schallplattenwiedergabe dar.

Das Abspielen einer LP beinhaltet nicht nur das reine Hören von Musik, sondern stellt für viele Anwender immer ein zusätzliches haptisches und auch zelebrierendes Erlebnisritual dar. Ein ähnliches Erlebnis kann das Einlegen einer CD in ein edles Toplader-Laufwerk bieten. So schließt auch heute das tägliche rationelle Bewegen eines modernen KFZs keinesfalls die Freude an einer sonntäglichen Ausfahrt mit einem Oldtimer aus – und beides wird in friedlicher Koexistenz geschehen. Wiedergabequalitäten mit Referenzstatus können sowohl von Festplatte als auch auf diskretem Wege erzielt werden, so daß die Frage nach dem jeweiligen „Wiedergabeweg“ am Ende zum individuellen Aspekt des persönlichen „Way of Lifestyle“ mutiert.Es wäre wohl eine interessante ethologische Fragestellung, in welchen Zusammenhang eine möglicherweise stattfindende suggestive Beeinflussung des Rezipienten durch optisch besonders veredelte Abspielhardware und der eigentliche Wille oder dem Streben nach purem Musikgenuß stehen könnten.

Dezidierte Musikserver versus PC/MAC

32000 Punkte Benchmark R 10

Der Autor dieser Zeilen verwendet beim Hören und Rippen von Musik keinerlei dezidierte Musikserver. Hinreichend gute PC-Kenntnisse und das Wissen, langfristig auf dieser offenen Plattform wesentlich flexibler agieren zu können, sprechen unter technisch nüchterner Betrachtung eher für den Einsatz eines PC/MAC und externer A/D-D/A-Wandlern als für den Erwerb eines dezidierten Musikservers. Ausgestattet mit ansonsten masterbandreproduktionsfähigem Wandler- und Wiedergabeequipment bietet der PC/MAC mittels professioneller Software die Möglichkeit, sogar tiefgreifende klangliche Veränderungen am Tonmaterial vornehmen zu können. Klangliche Limitierungen, wie man diese von älteren Mittelklasse-Plattenspielern her kennt, können u.a. im „Mausumdrehen“ mittels eines VST-Plugins wie Izotope Vinyl unkompliziert klanglich nachgeahmt werden. Ein leistungsfähiger PC, ausgestattet mit einer professionellen Audiokarte wie z.B. RME HDSPe 32 AES, Pro-Audio-Software á la Samplitude Pro 11, einer UAD-Audio-Zusatzkarte mit zahlreichen sehr gut gemachten Plugins alter Studioklassiker und auch die vielen praxisgerechten Plugins der deutschen Firma SPL eröffnen dem kundigen Nutzer einen schier riesigen Kosmos, Tonmaterial kreativ nach völlig eigenem Belieben klanglich zu verändern. Ohne weiteres läßt sich kurzerhand bei Bedarf Tonmaterial mit zusätzlichen Oberwellen (k2, k3) anreichern und so die beliebten Klangartefakte erzeugen, die ansonsten häufig nur durch Einsatz von Röhrenverstärker in der Hardware-Ära erreicht werden konnten. Hart und ein wenig harsch klingende Aufnahmen, wie sie besonders bei einem Teil der frühen digitalen Produktionen vorkamen, lassen sich durch tontechnisch gekonnten Einsatz u.a. mit einem Saturations-Tool zum klanglich Vorteil abgemildern. Da aber grundsätzlich nicht jede Aufnahme von einer zusätzlichen maßvollen Zufügung derartiger Klirrkomponenten wie sie durch „Eisen im Signalweg-(Übertrager)“ oder Bandsättigungsartefakten erzeugt werden,  klanglich profitiert, kann diese gegenüber zwangsläufig im Signalweg liegendem Röhrenequipment jederzeit wieder abgeschaltet werden.

RME HDSPE 32 AES Audiokarte

Die Möglichkeiten, die moderne PC-Technik, mit geeigneter Software ausgestattet, bereits heute schon bietet, ist schlichtweg faszinierend und mehr als vielfältig. Aufgrund der extrem großen Verbreitung von Windows XP und dem neuen Windows 7 als Quasistandard sind weltweit viele Unternehmen bis hin zum Tüftler damit beschäftigt, interessante Tools auf dieser Softwarebasis zu programmieren. Seit Erscheinen von Windows 7 wurden von jenem Betriebssystem bereits mehr als 150 Millionen Lizenzen verkauft. Im Zuge des technischen Fortschrittes könnten in Zukunft beispielsweise Grundfunktionen wie die Änderung der Abhörlautstärke, die Anwahl eines neuen Titels als auch die Stumm- und Pausenschaltung über intuitive Gestensteuerung vorgenommen werden. PC/MAC Systeme bieten sehr preisgünstig schon heute weitreichende Möglichkeiten auch sehr große Musiksammlungen übersichtlich strukturiert und optisch aufgearbeitet darzustellen. Für den Autor dieser Zeilen ist somit die PC/MAC-Basis wesentlich interessanter und vielseitiger, als die oftmals sehr beschränkten Funktions- und Bedienungsmöglichkeiten, der nicht auf PC/MAC-Basis aufgebauten dezidierten Musikserversysteme. Technische Systeme sollten grundsätzlich ergonomisch auf die Physis und Sensorik des Menschen entwickelt werden.

Sauberer Aufbau auch im Inneren

Unangenehm auffällig wurden zudem die oftmals in Consumer-Musikservern häufig verbauten CD/DVD-Laufwerke in Slim-Line-Bauart. Diese Laufwerke sind nicht selten den klassischen CD/DVD-Laufwerken in Half-Eight-Bauart in punkto Ausleseeigenschaften und Lebensdauerauslegung unterlegen. Die Kombination aus bitgenau auslesender Software und Slim-Line-Laufwerken stellt im allgemeinen den eher suboptimalen Weg dar. Wer prinzipiell auf Festplatten größere Geldwerte „verwalten“ möchte, ist nicht schlecht beraten, höherqualitative Server-Festplatten aus dem Pro-Bereich einzusetzen, während in den meisten hochpreisigen Musikservern preisgünstige Home-Desktopware zum Einsatz kommt. Serverfestplatten sind gegenüber einfacher Desktopware mit einer deutlich höheren MTBF von teilweise 1,2 Millionen Stunden spezifiziert und insbesondere dadurch besonders für die Anwender interessant, die sich eben weniger technisch um das „System“ kümmern mögen. Dem Autor sind mit einer Ausnahme, bei der sogar SSDs zur Datenspeicherung verwendet werden, keine dezidierten Audioserver aus dem Consumersegment bekannt, in denen Festplatten vom Schlage der GP3– bzw. GP4-Baureihe von Western Digital oder andere qualitativ vergleichbare Ware zum Einsatz gelangt. Häufig kamen beim Öffnen hochpreisiger vermeintllicher „High-End-Server“ lediglich Festplatten wie Western Digital Caviar Green mit 1 TB Speicherkapazität für ca. 70 Euro und Slime-Line-CD-Laufwerke der 20-Euro-Klasse zum Vorschein. Die renommierte Zeitschrift CT (Computer und Technik) aus Hannover resümierte zu dieser Thematik: „Vergoldete Bits- Streaming-Server für Audiophile“. Für den Endpreis mancher vermeintlich highendiger Musikserver sichtete der Autor bereits Qualitäts-Power-PCs, die, mit professioneller Audiokarte ausgestattet, den Cine Bench R 10 Leistungstest mit 32.000 Punkten abgeschlossen haben und damit um Faktor vier leistungsfähiger waren als ein heute allgemein geläufiger PC mit Q6600-Quadcore-Prozessor und 2,4 GHz! Ein derartiger PC kann mittels nachträglicher Bearbeitung eines Stereoprojektes, egal was dabei auch angestellt wird, kaum mehr überlastet werden und läuft, sinnvoll konfiguriert, stabil wie ein Schweizer Uhrwerk … sehr faszinierend.

Hochwertige Emulationen bewährter Studioklassiker:

UAD Audio

http://www.uaudio.com/

http://www.uaudio.com/blog/studer-a800-tape-recorder-trailer

Verweise zu bewährten DAW Anbietern:

http://www.steller-online.de/PC-Systeme/

http://www.da-x.de/de/digital-audio-workstation-konfigurator.html

SSD versus HDD

Eine SSD (Solid State Drive) ist ein sogenanntes Festkörperlaufwerk, in dem zur Datenspeicherung Halbleiterbauelemente eingesetzt werden und das somit keine beweglichen Teile mehr enthält. Vorteile eines Solid State Drive sind mechanische Robustheit, kurze Zugriffszeiten, niedriger Energieverbrauch und das Fehlen jeglicher Geräuschentwicklung. Der Hauptnachteil ist zur Zeit sein noch erheblich höherer Preis im Vergleich zu Festplatten gleicher Kapazität. Außerdem sind SSDs heutzutage noch nicht mit ganz so hohen Kapazitäten verfügbar, wie klassische Festplatten sie aufweisen. Ein weiterer Vorteil ist die festplattengleiche, unbegrenzte Wiederbeschreibbarkeit; Flash-Chips sind je nach Qualitätsgrad für 100.000 bis 5 Millionen Schreibzyklen ausgelegt. Eine „Zelle“ wird bei Verschleiß automatisch gegen eine von rund zwei Prozent Reservezellen ausgetauscht. Sofern SSDs aus dem Pro-Segment (Scan Disk,Western Digital, OCZ) zum Einsatz kommen, sieht der Autor hervorragende Möglichkeiten, damit Massenspeichersysteme zur Verfügung zu haben, die bei normaler Verwendung durchaus eine Standfestigkeit von Jahrzehnten besitzen können. Prinzipiell sind hochwertige, für den Servereinsatz vorgesehene SSD gerade für Anwender, die sich wenig um die technische Peripherie und Eigenschaften ihrer Gerätschaften kümmern wollen, die erste Wahl. Windows 7 ist dabei bereits optimal für effiziente Ansteuerung von SSDs vorbereitet.

Verweise zu bewährten HDD- und SSD-Produkten:

http://www.wdc.com/en/products/internal/enterprise/

http://www.ocztechnology.com/products/solid_state_drives/sata_3_5_solid_state_drives

Tonträger auf die Festplatte bringen

Neben i-tunes etc. bietet sich für das professionelle Rippen von Audio-CDs ganz besonders die kommerzielle Variante von dB-Poweramp an, deren Alben- und Titelerkennung durch die Abfrage der professionellen AMG- und Sonata-Datenbank eine überlegen hohe Trefferquote erzielt. Die Rippresultate sind unter Verwendung des Ultra Secure Modes ausgezeichnet und mit einem einfachen Mausklick kann, sofern das über die Titelerkennung automatisch mitgelieferte Cover nicht zusagen sollte, über einen angeschlossenen Flachbettscanner das originale CD-Cover mit sehr hoher Auflösung unkompliziert einscannt werden; dB-Poweramp bietet dabei hervorragende Auswahl und Flexibilität der Zielformate an. Ob WAV,FLAC, MP3,AAC,BWF… alles geht! Grundsätzlich sollte aber jedem klar sein, daß bei Verwendung von Software, die nicht für professionelle Ansprüche entwickelt wurde, es beim Betrieb an Top-of-the Bottom-Audiokomponenten durchaus zu klangtechnisch wahrnehmbaren und zuweilen zweifelhaften Resultaten kommen kann. Im Artikel genannte Proaudioprogramme wie Sampiltude Pro 11, WaveLab oder Cubase beinhalten darüber hinaus sehr gute Tools u.a. für eine Samplerate-Konvertierung oder Wortlängenveränderung und eignen sich sehr gut sowohl zum Editieren als auch für die Nebengeräuschbefreiung bei LP-Überspielungen; und zwar auf einem Qualitätsstandard, wie sie den meisten Consumerprogrammen bislang völlig fremd sind. Auch die Ripp-Engines – sofern auf ein Maximum an Einlesequalität eingestellt – besitzen heute eine Qualität, die bereits Fehler auf einer Audio-CD zuverlässig detektieren, die unterhalb der auditiven Wahrnehmung beim Abhören liegen und die von der „Fehlerkorrektur“ eines CD-Players noch zuverlässig auditiv maskiert werden können.

Dem Autor ist bewußt, daß heute noch leidenschaftlich über Klangunterschiede der verschiedenen Pro-Audio-Programme diskutiert wird, häufig jedoch ohne dabei gleichzeitig den persönlichen Workflow ausreichend kritisch unter die Lupe zu nehmen. Dabei wird nicht selten immer wieder gerne in stoischer und gebetsmühlenartiger Art und Weise über Fehler oder Softwareunzulänglichkeiten diskutiert, die der Anfangszeit der Technologie vor sieben bis fünfzehn Jahren geschuldet sind und heute praktisch bei sinnvoller Bedienung kaum mehr vorkommen. Unberücksichtigt bleibt dabei häufig, daß in diesem Zeitraum insbesondere die Rechenleistungsfähigkeit der Audio-DAWs explosionsartig angestiegen ist und der harte Konkurrenzkampf im Proaudio-Software-Bereich in den letzten Jahren sehr vieles zum Positiven verändert hat. Bei fachkundiger Bedienung einer Magix Samplitude 10/11 Pro Audio-Software ist es jedenfalls nicht einfach, diese „mal eben“ beim „Flunkern“ und damit klanglich dingfest zu machen. Es dürfte aber hinreichend geklärt sein, daß, wenn bei einem ursprünglich aus 70 Spuren bestehenden Tonprojekt bei Subgruppenbildungen – anstatt im 32-Bit-Floatingpoint-Modus zu bleiben – zu früh auf eine 24-Bit-Integer-Funktion gewechselt wird, dies durchaus insgesamt klanglich verändernde Auswirkungen auf das Endresultat haben kann! Darüber hinaus ist natürlich nicht ausgeschlossen, daß die ein oder andere ehemals am Markt erhältliche Software – insbesondere bei Verwendung von zu leistungsschwachen DAWs – mit ihrem Workflow zu solchem Handeln motivieren kann. Trotz der heutigen technischen Möglichkeiten eines nahezu „Unendlich-Spur-Projektes“ sollte wieder die persönliche Beurteilungs- und Entscheidungsfreudigkeit bei der Aufnahme trainiert und nicht alle notwendigen Entscheidungen auf einen späteren Zeitpunkt verschoben werden. Wer heute Aufnahmen des BIS-Label hört, dem fällt es eben nicht auf, daß man diese Aufnahmen mit Magix Sequioa oder Samplitude 10/11 Pro produzierte; und wer Aufnahmen des High-End-Labels Tacet hört, bemerkt gleichfalls nicht, daß die von den Neumann-Röhrenmikrophonen gelieferten Signale, verstärkt über einen Siemens V 76 Mikrophonverstärker, mittels RME-ADI8QS-A/D-D/A-Wandler digitalisiert, auf einem PC aufgezeichnet wurden. Kein Profi hantiert heute bei mobilen Aufnahmevorhaben außerhalb eines Tonstudios – sofern er nicht noch zufällig über einen derartig ausgestatteten Ü-Wagen verfügt – noch mit teilweise über 200 kg schweren Mehrspurbandmaschinen. So hat der Autor hardwareseitig auch beste Erfahrung mit A/D-D/A-Wandlern von Stagetec, Lawo, Studer, Lake People, RME Audio, Prism und Weiss Audio gemacht. Die Label Tacet, BIS und das Recording-Unternehmen Tritonus, das vielfacher Schallplattenpreisträger ist und dem einzelnen vielleicht besser durch Einspielung wie Mahlers 8. Sinfonie unter Michael Tilson Thomas und dem San Francisco Symphony Orchestra bekannt ist, vertrauen beim Harddiskrecording voll auf die Wandlertechnik und Audioperipherie der Firma RME. Wer beste Audioqualität erwartet, wählt grundsätzlich möglichst keine Lösung, bei der ein analoges Audiosignal direkt aus oder in ein PC-Gehäuse verläuft!

http://www.artandscienceofsound.com/

Hier ein paar weitere Verweise zu den besten Digitalwandlerprodukten:

Stagetec

http://www.stagetec.com/images/stories/mediagroup/download/nexus2012-web-de.pdf

http://www.stagetec.com/images/stories/mediagroup/download/nexus_folder-de.pdf

Lawo

http://www.lawo.de/uploads/media/PI_DALLIS_de.pdf

Studer

http://www.studer.ch/products/product.aspx?pid=16

Prism Audio

http://www.prismsound.com/music_recording/products_subs/ada8xr/ada8xr_home.php

http://www.prismsound.com/music_recording/products_subs/orpheus/orpheus_home.php

RME Audio

http://www.rme-audio.de/products_hdspe_aes.php

http://www.rme-audio.de/products_hdspe_madi.php

http://www.rme-audio.de/products_adi_8_qs.php

Weiss Audio

http://www.weiss.ch/dac2/dac2.htm

http://www.weiss.ch/afi1/afi1.htm

Server

Zunächst an dieser Stelle einmal kurz erläutert:  Ein NAS (Network Attached Storage) bezeichnet einfach einen zu verwaltenden Dateiserver. Allgemein wird ein NAS eingesetzt, um ohne hohen Aufwand unabhängige Speicherkapazität in einem Rechnernetz bereitzustellen. Ein NAS ist im Unterschied zu Direct Attached Storage ein eigenständiger Host mit eigenem Betriebssystem. Da die Funktionen sehr spezifisch auf den Einsatzzweck abgestimmt sind, werden Fehler aufgrund umfangreicher und für den speziellen Einsatzzweck unnötiger Konfigurationsmöglichkeiten von vorneherein vermieden. Dateibasierende Dienste wie NFS oder SMB/CIFS stellen die Kernfunktion dar. Daher werden NAS-Systeme oft kurz als Filer bezeichnet. Schon eine handelsübliche Festplatte, die sich in einem externen Gehäuse befindet, das mit einer „RJ-45“-Netzwerkbuchse, entsprechender Firmware und optional weiteren Anschlußmöglichkeiten ausgestattet ist, entspricht bereits einem NAS. Es kommt nun am Ende darauf an, was man von einem NAS-Server eigentlich erwartet, bevor man sich zum Kauf entscheidet. Die kleinen handelsüblichen Consumer-NAS-Server sind häufig auf Intel-Atom-Prozessor-Basis, wie sie heute in jedem Netbook zum Einsatz kommen, aufgebaut und stellen sozusagen die Einstiegsklasse dar. Insbesondere wenn von einem zentralen Massenspeicher nicht nur Audiodaten, sondern in Zukunft vielleicht auch gleichzeitig Multimediabilddaten in HD-Auflösung von einer oder mehreren Rechnerstationen oder Netzwerkplayern aus gestreamt werden sollen, wird man mit solch einer Minimalkonfiguration schnell an Leistungsgrenzen stoßen. Aus den Gesichtspunkten und zu erwartenden Realbedürfnissen eines Highenders kann es von daher sinnvoller sein, gleich einen wirklichen Profiserver mit deutlich erhöhter Leistungsfähigkeit zu installieren. Die einzelnen Leistungsdetails sollten dazu bedarfsorientiert mit einem IT-Fachunternehmen abklärt werden. Schon ein schneller Überblick über die grundsätzliche Palette an Einzelkomponenten aus dem Pro-Bereich und Begriffe wie iSCSI-Schnittstelle, echte Gigabit-Ethernetverbindung usw. läßt dabei schnell erahnen, daß die gefragten leistungsfähigen Schnittstellen der Profiwelt ganze andere sind als im Home-Server-Markt üblich. IT-Fachunternehmen wie ICO, Dell Professional oder HP haben in ihren Portofolio absolut alles, was für den leistungsfähigen Serveraufbau inklusive Datensicherung benötigt wird. Der Kunde muß dazu nur näher spezifizieren, für welche Zwecke und Anwendungen das System dimensioniert werden soll. Nach kurzer Bedarfs- und Funktionsanalyse wird insbesondere von Mittelständlern wie ICO das für den persönlichen Bedarf passende Equipment geliefert werden. Wer zunächst selber etwas „herumbasteln“ möchte, wird am Ende feststellen müssen, daß das sinnvoll Benötigte bereits erfunden und käuflich zu erwerben ist. Beim Autor haben sich sowohl NAS-Server auf Intel Atom-Basis als auch die resultierenden Ethernetübertragungsraten von ca. 30 Megabyte/s für Multimediaanwendung von HD-Bild und Ton als zu leistungsschwach herausgestellt.

Marktbeobachtungen

Derzeit bilden sich insbesondere mit Apple und Google – letzterer geht nach schwierigen Verhandlungen mit der Musikindustrie wohl Mitte 2011 mit eigenen Musikdownload-Angeboten inklusive persönlichem Musikschließfach in den Markt – sehr populäre Internetplattformen heraus. Weitere Anbieter wie Nokia, Spotify, Simfy, Beyond Oblivion, Beatport, e-music, Musikload, Zune (Microsoft) und Mufin buhlen bereits um die Gunst der Verbrauchers. Sony baut mit Qriocity eine Online-Filmplattform auf, die die Möglichkeit bietet, zunächst über Sony-Hardware bis zur Playstation drei Filme von Century Fox, MGM, NBC, Paramount, Sony Picture und Warner Brother im Streamangebot anzuschauen. Dieser Service wird durch ein Musik-Unlimited-Streamangebot ergänzt werden. Erkennbar wird in diesem Zusammenhang der Versuch einer geschäftlich fruchtvollen Verquickung konzerneigener Contentinhalte mit entsprechender konzernzugehöriger Abspiel-Hardware. Im Extremfall kann die feste Bindung von Contentinhalten an eine lizenzierte Gerätestruktur insgesamt eine marktgerechte Preisgestaltung und Preisfindung bei den Contentinhalten sowie der entsprechenden Hardware deutlich erschweren. Ohne mich jetzt in gedehnte Analysen zu verstricken, welche Interessen welche Anbieter durch ihre Struktur und Marktaufstellung im einzelnen einnehmen oder auch einnehmen müssen, sollte die alteingesessene Musikindustrie zügig eigene populäre Handelsplattformen im Internet etablieren, um eine direkte Verbindung zum Endverbraucher zu erhalten. Es ist schwer einzuschätzen, in welche Richtung sich in Zukunft Anbieter wie Apple bezüglich der Art der offerierten Inhalte entwickeln werden. Unter Umständen spielen dort in Zukunft Stream-TV und cloudbasierte Musikstreamangebote ein viel größere Rolle als der „klassische“ Downloadmusikhandel. Schon heute muß sich die Musikindustrie mit relativ „unbequemen“ Verträgen gegenüber legalen Musikdownload-Handelsplattformen absichern, damit das eigentliche Musikangebot nicht nur für einen vordergründigen Aufhänger genutzt wird, um möglichst vielen Seitenbesuchern am Ende Unmengen an bezahlter Werbung präsentieren zu wollen. Am Ende könnte es sich als eine reine Frage der Zeit herausstellen, bis u.U. Handelshäuser wie Apples I-tunes, welche mehr als 26 Prozent des US-Musikmarktes bereits auf sich vereinen, bzw. auch Google beginnen, eine eigene Contentgenerierung  aufzubauen oder auch zunächst „nur“ Musikkataloge kränkelnder Musikkonzerne aufzukaufen. Letzteres könnte relativ schnell eintreten – sobald ein bedeutender Musikkataloginhaber aus wirtschaftlichen Schwierigkeiten heraus zur Frischkapitalbeschaffung gezwungen ist. So scheint man auch vielerorts schon bereitzustehen, falls die EMI zu einer Frischkapitalbeschaffung gezwungen sein sollte und diesen Weg eventuell gehen muß. Aufschreckende Pressemeldungen, die EMI wolle die traditionsreichen Abbey Road Studios zur Kapitalbeschaffung veräußern, liegen noch nicht lange zurück… Es formierten sich Proteste und die britische Regierung stellte daraufhin vorsichtshalber die Abbey Road Studios unter Denkmalschutz, um einem Ausverkauf in „Einzelteilen“ grundsätzlich vorzubeugen.

SSL 9000 Abbey Road Studios

Auch BMG steht bereits für diesen Tag X in den Startlöchern. Die heutige Attraktivität von i-tunes ist, unter einem Dach eine Vielzahl von Künstlern und Aufnahmen vieler Label gleichzeitig vermarkten zu können, während man im Decca-Downloadstore „nur“ Decca- und DGG-Aufnahmen und bei Sony nur Sony-Künstler und -Aufnahmen findet; der Endkonsument wählt heute nach Gesamtauswahl und Preis und nicht mehr nach dem Label aus.

In ferner Vergangenheit erfolgte die Musikvermarktung wesentlich stärker über das deutliche Herausstellen von starken Einzelmarken wie DGG, Decca, Phillips, Verve, Mercury gegenüber dem Kunden. Dann folgte eine Veränderung der PR-Arbeit bei Universal Musik, die zunächst mehr den Aktionär und den Aktienmarkt im Auge hatte als den eigentlich umsatzbringenden Endkonsumenten… Nach Meinung des Autors muß dort ein „Back to the Roots“ mit starker Herausstellung der Einzelmarken erfolgen.

Erfolgreiche wie auch kapitalkräftige Unternehmen wie Apple oder Google verfügen heute mittlerweile über genug Ressourcen, sich selbst angesagte und gute Studiokomplexe anzumieten oder auch interessante Arbeitsbedingungen für gute A&R-Manager bereitzustellen, und es bleibt abzuwarten, wie diese sich in Zukunft konkret positionieren werden. Heute arbeiten sehr gute Tonmeister oder Toningenieure vielfach und anders als noch vor ca. 15 Jahren, als die großen Musikkonzerne begannen, aus Kostengründen ihre Recording Center zu schließen, frei als sogenannte Freelancer. Die großen Label trennten sich von ihren Recording Centern, nachdem die Anzahl der Neuveröffentlichungen und produzierten Tonaufnahmen insbesondere im Klassiksegment wegen Absatzproblemen stark zurückgefahren werden mußten. Gleichzeitig trennte man sich auch von den eigenen Preßwerkkapazitäten für die Tonträgerherstellung. Im Prinzip läuft seit bereits 15 Jahren die Entflechtung der Musikindustrie auf ihre essentiellen Kernkompetenzen hinaus: die A&R-Expertise sowie Aufbau und Vermarktung von neuen Künstlern. An dieser Stelle möchte ich noch einmal einige Zahlen nennen, die aufhorchen lassen sollten: Die in der europäischen Organisation Impala organsierten 4000 Unternehmen bzw. Mitglieder des unabhängigen  Musiksektors machen heute bereits 80 Prozent aller Neuveröffentlichung im Tonträgergeschäft aus! Dabei handelt es sich um Nachwuchskünstler und nicht um TV-Sternchen. Diese kleinen Label tragen nicht selten Risiken, die den meisten anderen zu hoch erscheinen und bilden den eigentlichen kreativen Hort für Innovationen und Neuerungen. Dagegen nehmen weite Teile der Bevölkerung allerdings nur die großen Mayors-Label Universal, Sony Musik, Warner Musik, EMI und Edel als tatsächlich existent wahr.

Die New York Post schrieb: „Schallplatten wurden zu Kassetten, CDs zu Dateien. Jetzt werden daraus Dateien, die man herumschieben und auf die man von überall aus zugreifen kann. Das ist toll und interessant für die Nutzer.“

So ist der paßwortgeschützte Musikschließfachdienst, wie u.a. von Google geplant, ohne Frage auch ganz toll und interessant für die Nutzer… Zu illegalen Downloads von geschützten Contentinhalten im Netz möchte der Autor am Ende noch ein paar treffliche  Kernsätze des Vorstandvorsitzenden der Axel Springer AG Matthias Döpfner zitieren: „Die Gratiskultur im Netz ist ein Mißbrauch der Freiheit der die Freiheit selber bedroht. Jeder nimmt, was er kann, nur weil es technisch so leicht möglich ist. Zivilisation aber besteht darin, das Mögliche auf das Wünschenswerte zu beschränken. Warum bedroht dieser Mißbrauch die Freiheit? Weil das Angebot schrumpfen wird und dadurch die Auswahl sinkt. Mozart wurde verarmt vor der Stadt verscharrt, weil jeder seine Musik nutzen durfte ohne dafür zu bezahlen.“ Der alles entscheidende Punkt für die sichere Zukunft der Musikbranche ist die Nutzung von Conteninhalten -ganz gleich ob von einem physischen Medium oder aus dem digitalen Handel- aus ausschließlich legalen Distributionsformen. Bei letzterer Handelsform sollte die Industrie fairerweise im Interesse der zahlenden Kundschaft ein zuverlässiges Konzept der Daten- und Bestandssicherung  einmal erworbener Contentinhalte entwickeln.

Informative Grafiken zur Alltime-Entwicklung des Musikmarktes:

IFPI 1997-2010 Grafik zur Entwicklung des Musikmarktes

Bereinigte All-Time Grafik zur Entwicklung der Musikindustrie

http://www.businessinsider.com/these-charts-explain-the-real-death-of-the-music-industry-2011-2

Verweise zu empfehlenswerten Softwareprodukten:

Rippen und Audiowiedergabe

http://www.dbpoweramp.com/

http://www.foobar2000.org/download

Recording, Format- und Sampleratekonvertierung als auch Tonbearbeitung:

Für Einsteiger:

http://www.magix.com/de/samplitude-music-studio/detail/?partnerid=9009&AffiliateID=2&adword=google/DEShop/MAGIX%20samplitude&gclid=CJSVpMLbjqcCFRYv3wodi1yxcQ

Für Fortgeschrittene-alles geht:

Magix:

http://www.samplitude.com/de/produkte/samplitude_pro/auf_einen_blick.1595.html

http://www.samplitude.com/de/produkte/sequoia/auf_einen_blick.1607.html

Steinberg:

http://www.steinberg.net/de/products/wavelab/start.html

http://www.steinberg.net/de/products/cubase/cubase6_start.html

http://www.steinberg.net/de/products/nuendo/start.html

Hochwertige Plug-Ins:

http://www.lawo.de/de/produkte/daw-products.html

 

 

 

 

Bild | Veröffentlicht am von | Verschlagwortet mit , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 2 Kommentare

Risiken und Chancen beim Einsatz von Computer- und Rechnertechnik bei der Aufnahme, Speicherung und Wiedergabe von Musik, Teil 2

Eine traumhafte Zukunft – oder eher ein Alptraum? In Teil 1 meiner Ausführungen fand die Betrachtung grundsätzlicher Dinge statt: Der PC als Tonquelle, Hard- und Software sowie optische Speicher waren einführender Bestandteil. Steigen wir nun tiefer in die Details… Speichersysteme … Weiterlesen

Galerie | Verschlagwortet mit , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

Grundlagen Digitaltechnik Teil 5

Bisher wurden die grundsätzlichen Funktio­nen und Möglichkeiten digitaler Aufnah­me- und Wiedergabetechnik dargestellt bis hin zu den Eingriffen, die mittels Computer machbar sind. Letzteres führte zu Manipulationen, welche eine ernste Gefahr für das Kulturgut Musik bedeuten.

Musikkultur in Gefahr

Zahlreiche Musikproduktion, insbesondere aus dem Rock-, Pop- und zunehmend auch dem Jazz­bereich werden vielfach durch absolute Überkom­pression und Lautheitswahn klanglich um ein „mehrfaches“ stärker beschädigt, als durch die eher geringen Tonträger- bzw. systemimmanente Klangunterschiede. Das Ausmaß an zusätzlichen Verzerrungen, welche heute u.a. durch „Überkom­pression“ dem Tonmaterial hinzugefügt werden, steht in absolut keinem Verhältnis zu den Bestre­bungen der High-End-Hersteller und deren Kun­den, möglichst immer verzerrungsärmere und bes­sere Wiedergabeelektronik zu produzieren, re­spektive auf Seiten der Hörer zu genießen. Zudem ist es mehr als fraglich, ob heute als Mittel einer wirklich kreativen und sich als nachhaltig heraus­stellenden geschmackvollen Klanggestaltung der­art hohe Verzerrungswerte, wie sie derzeit vieler­orts den Musikproduktionen durch Überkompres­sion oder ein „unsachgemäß“ durchgeführtes Li­miting künstlich hinzugefügt werden, auf Dauer echtem Musikgenuß dienlich sein können? Ich denke nein. Viele der aktuellen überlauten Ton­konserven aus dem Rock- und Pop-Sektor weisen heute Verzerrungswerte in einer Höhe auf, die der Audiotechnik vor mehr als 50 Jahren aufgrund technischer Limitierung noch zwingend anhaftete. Das aktuelle Stichwort dazu heißt „Loundness War“ oder auch „Loudness Race“ und ist eine schleichende Entwicklung, die bereits in den 60er Jahren in der LP-Ära begann: Man denke dabei an die damals sicher lautstärksten Veröffentlichungen des gesamten Tonträgermarktes zurück, die wohl vom amerikanischen Motown-Label stammten, die 70er Jahre und das Auftauchen des Aphex Au­ral Exciter und weiterer „Spezialitäten“, dann die 80er Jahre mit der Einführung der „berühmten“ analogen SSL-Mischkonsole der 4000er Baureihe die in jedem Kanalzug eine Kompressor/Limi­tereinheit besaß und so in der Praxis zu einem wei­teren „Lautstärkegewinn“ führte. Gleichwohl ist gegen einen maßvollen und versierten Einsatz von Kompression und Limiting zu keinem Zeitpunkt etwas einzuwenden gewesen! Es ist zu bedenken, daß zu jener Zeit die A/D-Wandlung vielfach noch mit 16-Bit-Wandlern erfolgte und bei einer Tonaufnahme auch stets Übersteuerungsreserven vom Tonmeister einkalkuliert werden mußten, so daß im Falle der Tonaufzeichnung mit einem 16­Bit- System erst einmal ein Teil der theoretischen Auflösungsfähigkeit für den notwendigen Headroom als Aussteuerungsreserve verlorenging. Um dennoch einen höheren RMS- Pegel dem Wandler zuführen zu können, wurde dieser gegen Über­steuerung mit einem pre-digitalen analogen Limi­ter gegen Übersteuerung geschützt. Das Übersteu­ern von digitalen Wandlereinheiten sollte grund­sätzlich ausgeschlossen werden, denn anders als bei der analogen Bandaufzeichnung, die mit einem akustisch eher „gutmütigen“ Ansteigen des Ver­zerrungsniveaus reagiert, clippen digitale Aufnah­mesysteme beim Eintreten von Übersteuerungen im Extremfall mit eher unmusikalischen Artefak­ten. Im Rock und Pop-Musiksektor setzte man al­lerdings bewußt schon lange vor der Digitalisie­rung der Musikinformation derartige Arbeitsprak­tiken als klanglich erfolgreiches Gestaltungsmittel zur Erhöhung des durchschnittlichen Pegelver­laufs eines Musiksignals ein. Im Klassik- und Jazz­bereich wurde die Limitercharakteristik so ausge­wählt, daß ein kurzfristiges Einfahren in diesen Bereich klanglich praktisch ohne hörbare Folgen blieb, während im Rock- und Pop-Sektor häufig bewußt die Artefakte eines hörbaren Kompressor­- und Limitereinsatzes als Stilmittel zur Aufnahme­ und Klanggestaltung genutzt wurden. Die Digital­technik beflügelte die Tontechnik und führte be­reits in frühen 80er Jahren zum Auftauchen teil­weise „überknalliger“ und verspielter Sounds, die uns heute noch als „laut“ und „spektakulär“ in Er­innerung geblieben sind. Die existierende technische Limitierung der LP „erzog“ die damaligen Produzenten und Tonmei­ster zu einem deutlich weniger überscharfen, un­terdumpfen oder erbärmlich verzerrten Klangbild als die heute im allgemeinen häufig in diesen Ei­genschaften unkritische CD-Technologie. Bei Mu­sikproduktionen für die LP war insbesondere auf S- und Zischlaute zu achten, die auf jeden Fall vor dem Matrizenschnitt mit einem De-Esser „ent­schärft“ werden mußten, da ansonsten die sichere Gefahr des „ungewollten“ Einsetzen des Schneidestrombegrenzers mit seinen akustisch eher un­günstigen Auswirkungen auf das ursprünglich ge­plante Klangbild drohte. Auch mußte ein wirklich gelungener Mix möglichst frei von inkompatiblen tieffrequenten Signalen sein, da auch diese einen erfolgreichen Matrizenschnitt stark gefährden konnten. So ist es kaum verwunderlich, daß die auf Langspielplatte veröffentlich ten „Klangbilder“ nicht selten dem versierten Musikhörer besser als so manch eine heutige Neuproduktion auf CD ge­fallen; eine Folge der angesprochenen Limitierun­gen. Der Distributionstonträger LP nahm seiner­zeit schlußendlich bereits bei der Musikproduk­tion klangästhetische Einflüsse auf die produzier­baren Klangbilder. Mit der Einführung der technisch deutlich perfek­teren CD, welche die vormals bei der Musikpro­duktion für die LP zu beachtenden technischen Li­mitierungen nicht mehr besaß, ging die Umstel­lung der kompletten Tonsignalverarbeitung auf Digitaltechnik und am Ende der Einzug der „Rechnertechnik“ einher. Mit ihrer kaum noch überschaubaren Softwarevielfalt zu Audiosignal­bearbeitung, nähern sich heute viele Musikstücke physikalisch dichter denn je dem weißen Rauschen an! Insgesamt ist das derzeit erreichte Ausmaß an Überkompression und damit einhergehender Ver­zerrungen selbst bei Produktionen ansonsten als kreativ geltender Rock- und Pop-Formationen oft­mals bis über das klanglich genießbare Maß hinaus „verbogen“ und ich wage zu bezweifeln, daß der­artig verzerrte Klangbilder in vielleicht 10 – 20 Jah­ren eine große Chance haben, ein zweites Mal ver­kauft werden zu können. Ein Schelm, wer denkt, daß derzeit „absichtlich“ überkomprirnierte und damit hochverzerrte Klangbilder als „akustisch ästhetischer Kopierschutz“ auf heute gängigen Distributionsmedien verkauft werden, um dann in ein paar Jahren, wenn das Pendel der derzeitigen Loudness- Race- Entwicklung zurückschlägt, die gleichen Platten uns mit einer maß- und ge­schmackvollen dynamischen Bearbeitung einfach ein zweites Mal auf dann gerade wieder „aktu­ellen“ und „neuen“ sogenannten High-Reso­lution- Tonträgern verkaufen zu können. Schon seit einem Vierteljahrhundert steht uns mit der Audio-CD zum ersten Mal in der Geschichte der Tonträger ein Format zur Verfügung, welches bei sachgemäßem Gebrauch über Jahrzehnte ohne Verschleißerscheinungen oder Qualitätseinbußen einsatzbereit bleibt, und zudem in der Lage ist, faktisch das fertig bearbeitete Masterband klang­lich vollends an den Hörer weiterreichen zu kön­nen. Wenn durch das eigentliche Distributions­medium keine praktisch relevanten Grenzen mehr existieren, könnte der Gedankengang naheliegen, daß man durch grundsätzlich alternierende klang- verändernde Maßnahmen bewährter Klassiker neue Anreize zum Verkauf – insbesondere des ständig wachsenden Backkataloges – auszulösen versucht. Eigens für den High-Ender wurden dazu in letzter Zeit neue, sehr teure CD-Reihen kreiert mit phantasievollen Bezeichnungen wie Blue­spec-CD, SHM-CD, XRCD oder HQCD. Diese CDs entsprechen vollends dem Red-Book-CD­Standard und bleiben damit natürlich auf jedem handelsüblichen CD-Player abspielbar. Nicht sel­ten handelt es sich bei diesen CD-Veröffent­lichungen lediglich um eine etwas maßvoller laut­gemach te „High-End – Edelvarian te“ der „leiseren“ Original-CD-Ausgabe. Oftmals wird u.a. durch ein „sanfteres“ Einfahren des Tonsignals in die Limi­ter der Aufnahme nochmal ca. 3 dB an Lautstärke, allerdings auf Kosten des Gesamtdynamikum­fanges, „geschenkt“. Je höher die Qualität des per­sönlich verwendeten Wiedergabe-Equipments allerdings ist, desto nervtötender kann der Klang dieser neuen CD-Kreationen auf Dauer dem Hö­rer erscheinen. Schon für den gegenüber den Original-CD-Ausgaben aufgewendeten Mehrpreis von 100 – 130 dieser „Spezial-CDs“ bekommt der Kunde qualitativ hochwertige D/ A-Wandler, die die dynamische „Nachberabeitung“ dieser Spezial­masterings klanglich obsolet macht. Nach laut, lauter, am lautesten und einem Maximum damit einhergehender Verzerrungen, wird, am Ende der Fahnenstange erst einmal angelangt, nichts anderes mehr überbleiben, als relativierend wieder den Rückweg in die entgegengesetzte Richtung anzu­treten …

An dieser Stelle möchte ich Ihnen einige ernüch­ternde Zahlen zu den auf unseren High-Tech­Tonträgern (CD: 98 dB digitale Systemdynamik) tatsächlich genutzten Dynamikwerte nennen:

Michael Jackson „Bad“, 1987: 12,7 dB;

REM „Losing my Religion“, 1 991: 12,3 dB; Soundgarden „Black Hole Sun“, 1994: ca. 10 dB; Eagle Eye Cherry „Save Tonight“, 1997: 4 dB; Red Hot Chilis „Californication“, 1999: 3 dB; Herbert Grönemeyer „Mensch“, 2002 ca. 9,5 dB (auf SACD erschienen);

Madonna „Hang Up“, 2005: 7 dB;

Cold Play „Viva La Vida“, 2008: ca. 6,5 dB; Radiopilot „Surfen“, 2008: 3 dB;

Metallica Magnetic Death, 2008: 5 – 6 dB.

Es stellt sich hier ernstlich die Frage, welchen Wert die aufwendigen Bemühungen um theoretisch immer „bessere“ Tonträgerformate mit immer größerem technisch möglichen Dynamikumfang überhaupt haben, wenn Musik durch unsachgemä­ßen Gebrauch von Loudness- Maximizer und Brickwall-Begrenzer auf ein absolutes Minimum an Restdynamik „zusammengepreßt“ wird, ein Schlagzeug wie ein Pappkarton klingt, und viele weitere klangliche Details dabei einfach niedergemacht werden. Derartige „Bearbeitungsfortschritte“ dienen lediglich der Erhöhung der akustischen Verwendbarkeit von Musik auf technisch-aku­stisch zweifelhaft ausgelegten portablen Musik­systemen. Verbleibt derzeit nur der Bereich der klassischen Musik, der ohne Einsatz leidiger Kom­pression dem Kunden noch ein hochwertiges Klangprodukt zur Verfügung stellt? Zweifel sind angebracht: auch hier beginnt man bereits zu ma­nipulieren.  Ein aufschlußreiches Beispiel bietet der Vergleich zwischen zwei vermeintlich identischen klassi­schen Veröffentlichungen der Decca SXL 6355: Albeniz, Suite Espanola. Ersteres Diagramm zeigt die Digitalisierung einer LP-Nachpressung, die direkt von den analogen Decca-Masterbändern produziert wurde, das zweite Diagramm die Li­zenzveröffentlichung eines speziell auf die Kun­dengruppe der High-Ender ausgerichteten Labels, das auf sogenannten „Spezial-CDs“ veröffent­licht, die aber exakt dem Red-Book-Standard einer „regulären“ und handelsüblichen Audio-CD ent­sprechen. Bei der Masse dieser „Spezial-CDs“ handelt es sich vielfach lediglich um phantasiean­regende Handels- bzw; Marketingbezeichnungen für eine an sich normale Audio-CD. Klar erkenn­bar besitzt ausgerechnet die speziell für High-En­der produzierte „High-End-CD-Ausgabe“ eine um etwa 4 dB verminderte Dynamik gegenüber der von den originalen Masterbändern produzier­ten LP bzw. deren 1: 1- Digitalisierung. Sehen Sie mal auf Seite 44/45 nach … Es soll Hörer geben, die dem Klangbild dieser lizensierten, dynamisch komprimierten Spezialveröffentlichung sogar eine deutlich erhöhte dynamische Bandbreite – beson­ders im feindynamischen Bereich – und auch weni­ger Schärfe im Klangbild attestieren; und es gibt in der Tat auch reichlich vermeintlich edel aufge­machtes Audioequipment, welches diesen klang­lichen Eindruck nähren könnte … Verantwortlich zeichnet für diesen Fehleindruck eher eine fehler­hafte reproduktionstechnische Limitierung inner­halb der in diesen „Hörfällen“ zum Einsatz kom­menden Abhörketten – und oft genug stellte sich der jeweils verwendete Lautsprecher als primärer Problempunkt dar. Unter Verwendung von wirk­lich highendiger Abhörtechnik wird eine derartige dynamische Bearbeitung des Tonmaterials sofort hörbar! Der Tonmeister ist bei seiner Arbeit aller­dings zwingend auf das genaue Hören der klang­lichen Aus- bzw. Rückwirkung seines Tuns angewiesen, und ähnlich wie ein Uhrmacher beim Zu­sammenbau eines komplexen mechanischen Uhr­werkes das passende Werkzeug und eine optisch richtig zeichnende Lupe für die korrekte Aus­führung seiner Arbeit benötigt, ist der Tonmeister insbesondere bei der Produktion von High-End-­Aufnahmen auf wirklich korrektes und die tat­sächliche klangliche Realität abbildendes Au­dioequipment angewiesen: Er muß die tatsächlich auf dem Masterband gespeicherte Toninfor­mation exakt, schnell und untrügerisch für seine Arbeitsausführung beurteilen können. Genau über derartiges Equipment abgehört, fällt die die Ge­samtdynamik einschränkende Berarbeitung jener sogenannten High-End-Remasterings dann auch sofort negativ auf! Mehr als schade, begann doch die wegweisende und sehr edle Aufmachung und Verpackung dieser Spezial-CD mit ihrem textilbe­schichteten Pappschuber und den kunststofflami­nierten Innenseiten dem Autor doch gerade be­sonders gut zu gefallen … Am Ende ist es tief be­dauerlich, daß die tonale Qualität des Lizenz­Remasterings offensichtlich nicht mit der wegwei­senden Verpackung und Optik mithalten kann.

Multichannel

Mono-Stereo-Surround: Das Hoffnungsformat Surround wird vielerorts von der Musikindustrie mit bedenklichen 5-Kanal-Simulationen gefüttert, die nichts von den klangästhetischen Chancen die­ses Formates mehr erahnen lassen, und deren Stereomix-Originale besser klingen als die oftmals preisgünstig hergestellten Mehrkanal-Zweitver­wertungen. Eine hochwertige und wirklich kreati­ve Produktion von echten Multikanalaudioauf­nahmen erfordert oftmals einen nicht unerheb­lichen zeitlichen Mehraufwand und damit weitere Kosten in einer Welt, die heute mehr denn je auf „kurzfristig denkende“ Kosteneffizienz getrimmt ist. Müssen oder können wir einen Beethoven oder Brahms sinnvoll mit echtem künstlerischen Mehrwert auf Multichannel „aufbrezeln“, oder bietet sich dafür nicht vielmehr der Bereich der modernen oder noch aktiven Komponisten für Multichannel-Musikaufnahmeprojekte an, in de­nen der Komponist von vorneherein „Multichannelbedürfnisse“ in seiner Partitur vorgesehen hat?

Und jedem Anfang wohnt ein Zauber inne, der uns beschützt. .. , bemerkte schon der Autor und Nobelpreisträger Hermann Hesse in seinem Stu­fen-Gedicht. Jeder wird sich an die Anfänge der Stereoaufnahmetechnik mit den bekannten und heute eher lustig wirkenden Stereo-Ping-Pong-Ef­fekten erinnern. Es wird noch einige Zeit lang ei­nen festen Willen zum weiteren experimentellen Umgang mit der dagegen jüngeren Materie Mul­tichannel erfordern, bis das Thema der Chancen und Möglichkeiten in aller Breite richtig begriffen werden kann. Daher darf einer neuen Technologie anfängliche „Fehlanwendungen bzw.Fehlverwen­dungen“ nicht pauschal angelastet werden. Es gibt heute bereits interessante Multichannelansätze aus dem Bereich der kleinen unabhängigen Label ­sowie aus Produktionen des öffentlich-rechtlichen Rundfunksektors – und es bleibt gespannt abzu­warten, für welche Musik- und Tonproduktionen Multichannel-Veröffentlichungen am Ende denn einen wirklichen künstlerischen Mehrwert darstel­len können.

Zur Misere des heutigen Musik-Geschäfts stellt sich die Frage, ob nicht durch die ausschließliche und scheinbar bedingungslose Anvisierung des Dollarzeichens seitens der Musikindustrie, die Mu­sikkultur, die Kunst und die Kreativität bereits großen Schaden genommen haben und deren Umsatz- und Gewinneinbußen nichts anderes als die konkrete monetäre Bezifferung dieses von ihr selbst verursachten Schadens darstellt … ? So bleibt es auch am Rande einmal zu hinterfragen, inwie­weit eine börsennotierte Aktiengesellschaft mit ih­rem vierteljährlichen „Quartalsergebnis- und Kennzahlenstreß“ in der Lage sein kann, ausrei­chende Freiräume zu ermöglichen, in denen wirk­lich kreativ-künstlerische Auseinandersetzung mit der Musik und deren Weiterentwicklung über­haupt stattfinden kann.

Abschließende Gedanken

In der gesamten hundertjährigen Geschichte der Tonaufzeichnung gab es nie zuvor potentiell der­art vielfältige Möglichkeiten zur kre1tiven Klang­gestaltung und Produktion wie heute. Fragen wir lieber, was es heute nicht mehr gibt, wenn am En­de der Produktion auf Wunsch der Musikindustrie und deren Manager das mühevoll ausbalancierte Klangbild nach aberwitzigem Einsatz von Ma­sterkompression und Brickwall-Limiting vollends zerstört wird … Als Lichtblick und Retter aus der für die Freunde klanglich und interpretato­risch rundum hochwertiger Musikproduktionen könnten sich in Zukunft die eher kleinen, unab­hängigen Spezial-Label und auch der öffentlich-­rechtliche Rundfunk erweisen, die sich dazu voll­ends der Qualitätsproduktion von Musik ver­schreiben sollten. Echte Kreativität ist und bleibt kein auf Knopfdruck abrufbares oder zeitlich fest einplanbares Gut. Gleichwohl könnten ordentli­che und sinnvolle Grundlagenbedingungen der Kreativität im positiven Sinne förderlich sein. Schlußendlich bleibt zu bemerken, daß es dem Menschen eigentlich schon seit vielen tausend Jahren bekannt sein müßte, daß am Ende nur das geerntet werden kann, was am Anfang zur Aussaat kam – und Bäume, die scheinbar bis unendlich in den Himmel wachsen, dürften auch auf Erden noch nicht erblickt worden sein.

Eine vielleicht häretische Anmerkung zum Schluß:

Dank für das Überleben und Verbreiten der Musik eines Vivaldi, Mozart oder Beethovens – um nur einige zu nennen – bis hin in unser heutiges Zeit­alter, ist in erster Linie Generationen von be­geisterten (und begeisternden!) Musikern, Orche­stern und deren Zuhörern zu zollen … und weni­ger der geschichtlich deutlich jüngeren Tonträge­rindustrie.

Veröffentlicht unter Digitale Audiotechnik | Verschlagwortet mit , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,