Computer und Musik: Eine Alptraum – oder eher eine traumhafte Zukunft? Teil 4

Computer und Musik

Ein Alptraum- oder  eher eine traumhafte Zukunft?

Teil 4

In dieser Folge wollen wir uns abermals mit praktischen Vorgehensweisen beschäftigen; zudem finden einige grundsätzliche Betrachtungen der Marktsituationen statt.

Praktische Verhältnismäßigkeiten bei datenreduzierten Audioformaten

Für die Musikwiedergabe über stationäre Abhöreinrichtungen ergeben in Zeiten von preisgünstigen terrabaytegroßen Festplatten datenreduzierte Audioformate unterhalb MP3 320 oder AAC 256 für den Musikliebhaber keinen wirklich einleuchtenden Sinn. Die eigentliche Domäne datenreduzierter Audioformate ist der mobile Konsum von Contentinhalten auf portablen „speicherplatzbegrenzten“ Geräten wie I-Phone, I-Pod, HTC.., sowie die Nutzung cloudbasierter Musikstreamdienste a la Simfy und Spotify über das Internet. Bei der Musikwiedergabe über Consumeraudiogerätschaften wie sie von breiten Massen der Bevölkerung zur Musikwiedergabe genutzt werden stellen datenreduzierte Contentinhalte via MP 3 320 kbit/s oder AAC 256 kbit/s nicht das primäre Nadelöhr in punkto Wiedergabequalität dar. Vielmehr beweist die bereits heute über Simfy erreichte sehr hohe Klangqualität, das bei Nutzung eines leistungsfähigen Breitbandinternetanschlusses, das klangqualitative Nadelöhr primär in den häufig anzutreffenden technisch-akustischen Bedingungen der heimischen Rezeptionssituation , als auf Seiten des Senders oder des verwendeten Audiocodecs anzutreffen sind. Sorgfältig über Profi-DAW und Tonregieanlage durchgeführte Hörvergleiche des Autors untermauern diese Erkenntnis.Wesentlich stärker als die hier bereits genannten Datenreduktionen wirkten sich die technisch-konstruktiven Auslegungen zahlreicher Consumeraudiogerätschaften spezifisch auf das eigentlich erzielbare und mögliche Klangresultat aus. Auf technisch ausgereiften „Top of the Bottom“ Abhöranlagen kann jedoch je nach Beschaffenheit des Musikmaterial ein auditiver Unterschied  besser oder schlechter wahrnehmbar werden. Mitunter konnten bei der Wiedergabe von Sopranstimmen gewisse klangliche Unterschiede rezipiert werden. So befand sich via AAC 256 „vor“ der Stimme ein hauchdünner Vorhang, der über typische CD-Auflösung abgehört beiseite gezogen werden konnte. Allerdings sei an dieser Stelle relativierend vermerkt, das zum aufspüren dieses Klangunterschiedes eine hohe selektiv gezielte Konzentration auf das Tonmaterial verwendet wurde. Es ist somit nicht ausgeschlossen, das unter einer typisch freizeitbedingten Abhörhaltung auch dieser Klangunterschied nicht weiter aufgefallen wäre. Die originalklangabweichenden Auswirkungen die durch die hier genannten datenreduzierenden Audiocodecs verursacht werden sind insgesamt derart gering, daß  ihre eigentlichen Grenzen erst bei der Wiedergabe über hochwertige Tonregieanlagen auffällig werden könnten. Klangbeobachtungen die von erhöhter „Nervosität“ im Gesamtklangbild bei der Wiedergabe von MP3 320 oder AAC 256 gegenüber CD-Material berichten, weisen nicht selten auf Jitterproblematiken innerhalb des Quellengerätes als auf Probleme des Audiocodecs hin. Weitere interessante Erkenntnisse zu dieser Thematik wurde bereits im Jahre 2001 im AES Convention Paper No.5476 ausführlich behandelt…

AES Convention Paper No.5476

http://www.iis.fraunhofer.de/content/dam/iis/en/dokumente/AMM/Conference-Paper/AES5476_Beyond_CD-Quality-24-96HighResolutionAAC.PDF

Ein weiterer aufschlußreicher Praxistest findet sich in der ct 6/2000:

http://www.heise.de/ct/artikel/Kreuzverhoertest-287592.html

Grundlagen des Streamings von Contentinhalten über das Internet:

http://tech.ebu.ch/docs/techreview/trev_2011-Q1_adaptive-streaming_laukens.pdf

http://tech.ebu.ch/docs/tech/tech3347.pdf

Ein kurzer Rückblick auf die einzelnen Stationen der Entwicklung der digitalen Audiotechnik

Im Sommer 1979 fertigte die EMI ihre erste kommerziell verwertete Digitalaufnahme.

Erste kommerziell verwertete Digitalaufnahme der EMI

Anwesend waren dabei der fähige und bekannte Producer Suvi Raj Grubb als auch Christopher Parker. Das neue und atemberaubende war es so Grubb, wenn man den Klang, den der Recorder aufnahm, mit dem verglich, den er abspielte. Weder Suvi Raj Grubb noch Christopher Parker konnte als ausgesprochen fähige und erfahrende Tonmeister dabei einen klanglichen Unterschied ausmachen. Die damals verwendeten Digital-Recorder besaßen durch die Anwendung der Pre-/Deemphasisfunktion bereits eine äquivalente Quantisation von ca. 17,5 Bit! Entwickelt wurde die PCM basierte Quantisation bereits in den 1930er Jahren in den Bell-Laboratorien. Während des Zweiten Weltkrieges wurde diese Technologie, das SIGSALY-System für die abhörsichere Verschlüsselung der Telefonverbindung zwischen London und dem Pentagon verwendet. Die Geschichte der digitalen Audiotechnik und deren Verwendung zur Aufzeichnung von Musik begann im Jahre 1967 in den Laboratorien der japanischen Rundfunkanstalt NHK. Dort sollte der erste digitale Recorder das Licht der Welt erblickten. Mit diesem waren zunächst nur Tonaufzeichnungen in Mono möglich. Zwei Jahre später -im Jahre 1969- hatten NHK Techniker den ersten Stereodigitalrecorder fertiggestellt. Letzterer besaß bei der Tonaufzeichnung eine Auflösung von 13 Bit und verwendete eine Samplingfrequenz von 30 kHz. Die Tonaufzeichnung fand allerdings in nichtlinearen PCM-Modus statt. Auch in Europa forschte und entwickelte man seit Anfang der 1970er Jahre beim BBC Research Departement an der PCM Digitaltechnik. Für eine Verbesserung der Übertragungsqualität zwischen dem Broadcast Center und den Sendern wurde darauf bereits 1971/72 ein13 Kanal PCM-Digitalsystem in Betrieb genommen! Einige der BBC Entwicklung aus dem Bereich der digitalen Audiotechnik wurde später von der Firma 3M lizensiert. In Asien erfolgte in einer Kooperation zwischen der NHK und der Firma Denon/Nippon Columbia 1972 die Fertigstellung des 13 Bit/47,25kHz  DN023R Digitalrecorders. Bereits im September 1970  entstand mit einem Denon-Prototypenrecorder die erste Digital-Aufnahme die auf LP veröffentlicht kommerziell verwertet wurde. Der Titel der LP: „Somethimg“ by Steve Marcus und Jiroh Inagaki (Nippon Columbia NCB-7003). Im April 1972 entstand mithilfe des DN023R- Recorder die erste kommerziell verwendete Klassik-Aufnahme .

Erste kommerzielle 13Bit-PCM-Klassikaufnahme des Label Denon/Nippon Columbia aus dem Jahre 1972

Denon verwendete zur Aufzeichnung digitaler Audiodaten analoge Broadcast-Videorecorder wie sie zu dieser Zeit bei Rundfunk- und Fernsehgesellschaften zur Aufnahme und Ausstrahlung von Bildinhalten verwendet wurden.  Das Smetana Quartet spielte Mozart. Der Autor ist im Besitz dieser Aufnahme in Form einer japanischen CD Ausgabe. Unter Zimmerlautstärke abgehört, wird bei dieser zu keinem Zeitpunkt der Gedanke genährt, daß dort tatsächlich „nur“ mit 13 Bit an maximaler Quantisationtiefe gearbeitet wurde! Im Dezember 1974 produzierte Denon in Europa die erste digitale Aufnahme für kommerzielle Verwertungszwecke. Das Paillard Chamber Orchestra spielte dazu im Notre Dam de Rose von Bach das BWV 1079 ein. Im Jahre 1975 erfolgte die Weiterentwicklung des Denon-Digitalrecorders. Der DN023RA-Recorder erreichte mithilfe der Pre-/Deemphasisfunktion  eine äquivalente Quantisationstiefe von 14,5 Bit. In 1977 ersetzte der DN034R den Vorgänger DN023RA. Der DN034R bot bereits eine nominelle Quantisationstiefe von 14 Bit. Dank integrierter Pre-/Deemphasisfunktion konnte die erreichte äquivalente Quantisationtiefe auf ca. 15,5 Bit erhöht werden. 1979 erreichte Denon mit Fertigstellung des DN 035R 16 Bit-Digitalrecorders mithilfe des Einsatzes der Pre-/Deemphasis Funktion eine äquivalente Quantisationstiefe von ca. 17,5 Bit. In der Zwischenzeit sollten weitere bedeutende Audiounternehmen wie Sony, Mitsubishi, Matsushita, Soundstream und 3M folgen. Das Unternehmen 3M entwickelte zu dieser Zeit mit dem 3M32 bereits einen 32-Spur-Digitalrecorder. Das Album „Bop Til You Drop“ von Ry Cooders wurde bereits 1979 von Lee Herschberg in den Warner Brothers Brother Studios North Hollywood Californien digital produziert!

Ry Cooder „Bob till you drop“

Unerwähnt darf in diesem Zusammenhang natürlich nicht die für Telarc produzierte Digitaleinspielung der Holst Suiten unter Frederick Fennell vom 4-5. April 1978 in Cleveland bleiben.

Telarc-Digitaleinspielung Frühjahr 1978

Diese Aufnahme wurde mit einem von Soundstream modifizierten Honeywell Datenrecorder mit 16Bit/50 kHz aufgezeichnet. Stockham Audio präsentierte bereits 1978 das erste kommerzielle digitale Recording System mit Random-Access Editing. Ein früher Vorläufer heutiger DAW-Audioworkstations auf Rechnerbasis. Damals beruhten derartige Minicomputer vielfach auf der Hardwarebasis eines DEC PDP-11 und VAX7xx. Diese Systeme waren u.a. auch bei RCA Records in New York im Einsatz, um Aufnahmen die im Soundstreamformat gefertigt wurden auch digital editieren zu können. Ähnliche Systeme wurden zu dieser Zeit bei JVC und der Tokio Broadcasting Company verwendet. In 1977 sorgte die digitale Restoration alter Caruso-Aufnahmen bei der RCA mithilfe eines Minicomputers auf Basis des DEC PDP-11 und der von Soundstream Chefprogrammierer Robert Ingebretsen  dafür programmierten Software für beachtliches Aufsehen. Nachdem Dr. Stockham mit seiner Technologie bereits 1973/74 die berühmten Watergates Tapes erfolgreich analysieren konnte, wurde dieser 1979 zum Billboard Trendsetter des Jahres für seine Verdienste am Soundstream Digitalmastering und Editing  System gewählt. Der erste Desktop Computer  der vollständig für Aufnahme, Editing und Abspielen von Stereomaterial mit 16 Bit und 50 kHz Linear-PCM genutzt werden konnte, war der von David Schwartz entwickelte CompuSonics DSP 2002 aus dem Jahre 1984.

CompuSonics DSP

Dieser arbeitete mit mehreren Floppy Disk Laufwerken, zwei 280 Megabyte SCSI-Festplatten und einem optischen Disklaufwerk mit 400 Megabyte Speicherkapazität. Bis Ende der 1980er Jahre sollten „Direkt to Harddisk Recording Systeme“ von New England (Soundstation II), von DAR, AMS Audiofile und IMS Dyaxis folgen. Ein 1200 Megabyte SCSI Festplattenlaufwerk mit einer Transferrate von 2,4 Megabyte pro Sekunde kostete 1989/1990 zum Vergleich ca. 8000 US-Dollar. Zu dieser Zeit waren für den Recordingsektor Festplatten mit 5,25 ,8 und 9 Zoll Größe notwendig, um die für Multitrack Recording erforderlichen Datenraten zu gewährleisten.

Boskovsky Decca 1979

Das Neujahrskonzert 1979 war die erste kommerziell verwertete Digitalaufnahme der Decca

Auch bei der Decca arbeitete man ab November 1976 unter der Federführung von Bill Bayliff und Tony Griffiths an einem digitalen Aufnahmesystem. Zunächst wurde mit einem von der BBC entliehenen 13-Bit-Digitarecorder der eine obere Grenzfrequenz von „lediglich“ 15 kHz besaß gearbeitet. Für die Übertragungsmöglichkeiten des analogen UKW-Rundfunkbandes durchaus praxisgereicht gewählt, strebten die Decca-Ingenieure für die Veröffentlichung auf Tonträger allerdings eine obere Grenzfrequenz von 20 kHz an und entwickelten in der Folgezeit ein eigenes digitales Aufnahme- und Editing-System. Im Januar 1978 begann die Entwicklung des deccaeigenen Digitarecorders und bereits im Mai 1978 waren zwei Decca-Digitalrecorder fertiggestellt mit denen im Juni 1978 in Kingsway Hall einige Mozart Klavierkonzerte mit Ashkenazy und dem London Symphony Orchestra aufgezeichnet wurden. Mithilfe dieser digitalen Aufzeichnung konnte wiederum in der Folgezeit das Editingsystem entwickelt und perfektioniert werden. Nach sorgfältig durchgeführtem Vergleichstests zwischen Dolby kompandierten Studer A 80 Masterbandmaschinen bei 38,1 cm/s und dem Decca-Digitalsystem konnte der Decca-Digitaltechnik die klanglich-technische Überlegenheit gegenüber der analogen Bandaufzeichnung attestiert werden. Zur Aufzeichnung digitaler Audiodaten verwendete die Decca analoge professionelle Broadcastvideorecorder (helical-scan video) der Typen IVS 826S und IVS 827. Man entschied sich für eine Samplingfrequenz von 48 kHz und 18 Bit Quantisationstiefe, da man auf diese Weise zwischen den angestrebten 20 kHz für den Audiobereich und der Nyquistfrequenz von 24 kHz ausreichend Platz für eine klangneutral agierende Signalfilterung gewann. Dabei gilt zu berücksichtigen, daß die digitale Audiotechnik damals noch in Kinderschuhen steckte. Die Aufzeichnung der digitalen Audiodaten erfolgte als Pseudo-TV-Signal im TV-Bandbereich des Recorders und eine der zwei Kanäle die ursprünglich für die Analogaufzeichnung des Tonmaterials zum Videobildmaterial verwendet wurden diente dem Editor bzw. Cutter als Mono-Hilfsspur während des editieren der einzelnen Takes. Das editieren findet dabei mit zwei „korrespondierenden“ Recordern statt. Nachdem bereits am 8.Dezember 1978 die italienische Symphonie von Mendelssohn digital eingespielt wurde, verblieb das digitale Aufnahmeequipment über Weihnachten in Wien, um damit am 1. Januar 1979 das Neujahrskonzert als erste kommerziell veröffentlichte Digitalaufnahme der Decca zu produzieren.  Auch bei dieser Aufnahme traf in der Regie betagte Analogtechnik auf moderne Digitaltechnik.

IVS 826 P Decca Digitalrecorder

IVS 826 P Decca Digitalrecorder

Quad 303 Verstärker

Durchaus anno 1979 noch bei der Decca anzutreffen -der Quad 303 Verstärker

Tannoy Canterbury

Die Tannoy Canterbury-Häufig bei der Decca als Abhörmonitor verwendet.Die Einsatzzeitspanne reicht dabei von Soltis berühmter Ringeinspielung in den Sophiensälen Anfang der 1960er Jahre bis in das frühe digitale Zeitalter der Boskovsky-Digitaleinspielung

.

4000272

Die Deutsche Grammophon sollte im Dezember 1979 gleichziehen.

Bei der Einführung der CD im Jahre 1982 konnte Denon mit der Nippon Columbia bereits auf eine über 10-jährige Erfahrung in der Produktion von PCM-Digitalaufnahmen zurückblicken. Die von Denon/Nippon Columbia produzierten PCM-Digitalaufnahmen wurden  Aufgrund ihrer sehr guten Klangqualität schon während der 1970er Jahre stetig auf LP veröffentlicht!  Die Durchsetzung der CD als neuer Standard wäre vermutlich gescheitert, wenn das Sony/Phillips-Entwicklerkonsortium nicht auch gleichzeitig im Besitz eines großen Fundus von Contentmaterial gewesen wäre. Es war damals keinesfalls von langer Hand geplant, aber das Hardwareunternehmen Phillips besaß damals ein Softwareunternehmen das den größten Katalog klassischer Musik der ganzen Welt besaß. Man entschied sich die CD über das Segment der klassischen Musik in den Markt einzuführen. Konsumenten klassischer Musik würden die hervorragende  Klangqualität der CD als erste besonders zu schätzten wissen. Als erstes erfolgte die Veröffentlichung der bereits digital erstellten Aufnahmen. Die mit der CD erreichte Klangqualität war besser als über Vinyl je hätte in Massenpressungen veröffentlicht werden können. Als Werbebotschafter spannte man dazu keinen geringeren als Herbert von Karajan vor den „Karren“, der als Technikfreak die enorme Qualität als auch Wichtigkeit der CD sofort erkannte. Karajans persönliche Freundschaft mit dem Sony-Chef Akito Morita und die musikalische Vorliebe von Frau Ohga -der Gattin eines einflußreichen Sonymanagers- für Beethovens 9. Sinfonie haben wir vermutlich die gegenüber der ursprünglichen Planung von 60 Minuten erhöhte Spielzeit der CD auf 80 Minuten  zu verdanken. Mit der CD konnte der Endverbraucher zum ersten Mal die sich ausbreitende vollkommene Stille miterleben, wenn an vorgesehener Stelle der Partitur das Orchester komplett verstummte. „ Wir ginge  in den Plattenladen und kamen mit einem Gefühl von Stolz und Erhabenheit heraus mit der CD gerade eben faktisch das Stereomaster käuflich erworben zu haben. Die CD bescherte der Plattenindustrie  in Folge der 80er und frühen 90er Jahre einen Boom, wie er sich vielleicht auf diese Weise nie wieder wiederholen wird. Das einzige Hindernis was dem vollen Klangpotential der CD  noch entgegenstand, waren die damals technisch limitierten Wiedergabegeräte des Consumermarktes .Unter Besitzern technisch weit ausgereizter und sehr teurer Plattenspieler konnte sich auf diese Weise der Ruf der LP als das klanglich bessere Medium noch recht lange behaupten. Lediglich eine Hand voll Firmen wie u.a. die Decca oder DGG waren zu diesen frühen Zeitpunkt im Besitz aufwendig entwickelter digitaler Digitaltechnik, die die eigentliche Qualität des digitalen Masters auch masterbandgetreu wiederzugeben vermochte. Beinahe alle Consumergeräte dieser Zeit produzierten bei der Wiedergabe von digitalem Material mehr oder weniger starke Artefakte, die nicht ursprünglicher Bestandteil des Masters waren. Die besser informierten Verehrer des guten Klanges blieben zielstrebig und versorgten sich mit Erscheinen der „legendären“ CD-Playern des Typs EMT-981/82 und Studer A 725 ab dann aus dem Broadcast- und Profilager.

Im Vordergrund der legendäre EMT 981 CD-Player

Im Vordergrund der legendäre EMT 981 CD-Player

Bereits die Innenansicht eines Studer A 725 offenbarte optisch eindrucksvoll wie klanglich funktionierende Digitaltechnik seinerzeit aufgebaut werden mußte.

Bereits die Innenansicht eines Studer A 725 offenbarte optisch eindrucksvoll wie klanglich funktionierende Digitaltechnik seinerzeit aufgebaut werden mußte.

Studer 725

Studer A 725

Diese CD-Player wurden ursprünglich für den Einsatz im Broadcastbereich entwickelt und dürften zu der Zeit das Maß der Dinge in punkto CD-Wiedergabe dargestellt haben. Derartige Geräteschaften waren damals offensichtlich nur einem kleinen Kreis von besonders gut informierten Endverbrauchern überhaupt bekannt, da in den Anzeigenmagazinen der Consumerpresse wenig über diese berichtet wurde.  Das absolute Top End im heutigen Digitalwandlersegment dürften aktuell die sehr flexiblen modularen Systeme von Salzbrenner Stagetec (Nexus), die 21er Baureihe der Studer AG sowie das RTW Districon Modular System darstellen. Insbesondere Systeme der Firma Stagetec die von den 2oth Century Fox Studios über Radio Vatikan bis zur japanischen NHK weltweit erfolgreich im Einsatz sind gelten in der technischen Entwicklung und Auslegung vielerorts als qualitativ federführend. Ob nun bei Übertragungen der Fußballweltmeisterschaft oder der olympische Spiele, die digitale Audiotechnik der Firma Stagetec ist allgegenwärtig. Die heute technisch realisierten Leistungen dieser Geräte finden erst an den physikalischen Grenzen ihren natürlichen Endpunkt .

 

Tonträger versus digitale Distribution

Der Autor bevorzugt für seine Bedürfnisse den professionell industriell hergestellten Tonträger, der Vorteile bietet, die ein Musikdownload nicht ohne weiteres erfüllen kann. Selbiger stellt immer auch ein eigenes Kunstwerk dar und ist dabei durchaus mit einem Buch vergleichbar. Die Aufmachung des Covers, die Informationen über Künstler und Musik in realen drei Dimensionen, mit der wir als Menschen gewohnt sind umzugehen, zeichnen diesen nicht zuletzt besonders aus. Gehen nicht gerade aktuell die Anstrengungen seitens der Filmindustrie dahin, durch Produktionen in 3D für ein Mehr an Live-Erlebnis sorgen zu wollen?! Ein willkommener Nebeneffekt eines industriell hergestellten Tonträgers ist zudem seine hohe Langzeitstabilität, die gleichzeitig die Funktion eines Sicherheitsbackups darstellt. Nach dem Erwerb einer CD stehen dem Anwender zudem alle Möglichkeiten offen, die man prinzipiell mit Downloadmusik auch besitzt. Die gekaufte CD läßt sich ohne Probleme nachträglich auf einen Massenspeicher „rippen“ oder deren Dateien auf dem PC mittels geeigneter Software für den Konsum über portable Geräte wie i-Phone oder i-Pod in speicherplatzoptimierte Formate á la MP3 320 oder AAC 256 umwandeln. Im Prinzip erhält der Kunde beim Kauf einer Audio-CD derzeit das Maximum an Möglichkeiten – ob diskret über Hardwareplayer oder auch über PC-Systeme von Massenspeichern abgespielt – alles ist und bleibt möglich.

Verschiedene Plattenlabel liefern schon heute beim Kauf von CD oder LP einen Gutscheincode aus, mit dem zusätzliche Online-Angebote vom Käufer wahrgenommen werden können. Ein kurzer Blick auf das in unseren Tagen bereits als historisch einzustufende Medium LP zeigt das Ausmaß der Widerstandsfähigkeit eines Mediums, das alle technischen Revolutionen und Umwälzungen, die in den letzten 30 Jahren stattgefunden haben, erfolgreich überlebte. Und auch die Audio-CD wird uns noch für einen längeren Zeitraum trotz aller Download-Möglichkeiten erhalten bleiben.

Der legendäre EMT-948

Der legendäre EMT-948.Einst für die großen Rundfunkanstalten dieser Welt kompromißarm entwickelt, stellen auch heute noch die EMT-Schallplattenabspielmaschinen den State of the Art in punkto Schallplattenwiedergabe dar.

Das Abspielen einer LP beinhaltet nicht nur das reine Hören von Musik, sondern stellt für viele Anwender immer ein zusätzliches haptisches und auch zelebrierendes Erlebnisritual dar. Ein ähnliches Erlebnis kann das Einlegen einer CD in ein edles Toplader-Laufwerk bieten. So schließt auch heute das tägliche rationelle Bewegen eines modernen KFZs keinesfalls die Freude an einer sonntäglichen Ausfahrt mit einem Oldtimer aus – und beides wird in friedlicher Koexistenz geschehen. Wiedergabequalitäten mit Referenzstatus können sowohl von Festplatte als auch auf diskretem Wege erzielt werden, so daß die Frage nach dem jeweiligen „Wiedergabeweg“ am Ende zum individuellen Aspekt des persönlichen „Way of Lifestyle“ mutiert.Es wäre wohl eine interessante ethologische Fragestellung, in welchen Zusammenhang eine möglicherweise stattfindende suggestive Beeinflussung des Rezipienten durch optisch besonders veredelte Abspielhardware und der eigentliche Wille oder dem Streben nach purem Musikgenuß stehen könnten.

Dezidierte Musikserver versus PC/MAC

32000 Punkte Benchmark R 10

Der Autor dieser Zeilen verwendet beim Hören und Rippen von Musik keinerlei dezidierte Musikserver. Hinreichend gute PC-Kenntnisse und das Wissen, langfristig auf dieser offenen Plattform wesentlich flexibler agieren zu können, sprechen unter technisch nüchterner Betrachtung eher für den Einsatz eines PC/MAC und externer A/D-D/A-Wandlern als für den Erwerb eines dezidierten Musikservers. Ausgestattet mit ansonsten masterbandreproduktionsfähigem Wandler- und Wiedergabeequipment bietet der PC/MAC mittels professioneller Software die Möglichkeit, sogar tiefgreifende klangliche Veränderungen am Tonmaterial vornehmen zu können. Klangliche Limitierungen, wie man diese von älteren Mittelklasse-Plattenspielern her kennt, können u.a. im „Mausumdrehen“ mittels eines VST-Plugins wie Izotope Vinyl unkompliziert klanglich nachgeahmt werden. Ein leistungsfähiger PC, ausgestattet mit einer professionellen Audiokarte wie z.B. RME HDSPe 32 AES, Pro-Audio-Software á la Samplitude Pro 11, einer UAD-Audio-Zusatzkarte mit zahlreichen sehr gut gemachten Plugins alter Studioklassiker und auch die vielen praxisgerechten Plugins der deutschen Firma SPL eröffnen dem kundigen Nutzer einen schier riesigen Kosmos, Tonmaterial kreativ nach völlig eigenem Belieben klanglich zu verändern. Ohne weiteres läßt sich kurzerhand bei Bedarf Tonmaterial mit zusätzlichen Oberwellen (k2, k3) anreichern und so die beliebten Klangartefakte erzeugen, die ansonsten häufig nur durch Einsatz von Röhrenverstärker in der Hardware-Ära erreicht werden konnten. Hart und ein wenig harsch klingende Aufnahmen, wie sie besonders bei einem Teil der frühen digitalen Produktionen vorkamen, lassen sich durch tontechnisch gekonnten Einsatz u.a. mit einem Saturations-Tool zum klanglich Vorteil abgemildern. Da aber grundsätzlich nicht jede Aufnahme von einer zusätzlichen maßvollen Zufügung derartiger Klirrkomponenten wie sie durch „Eisen im Signalweg-(Übertrager)“ oder Bandsättigungsartefakten erzeugt werden,  klanglich profitiert, kann diese gegenüber zwangsläufig im Signalweg liegendem Röhrenequipment jederzeit wieder abgeschaltet werden.

RME HDSPE 32 AES Audiokarte

Die Möglichkeiten, die moderne PC-Technik, mit geeigneter Software ausgestattet, bereits heute schon bietet, ist schlichtweg faszinierend und mehr als vielfältig. Aufgrund der extrem großen Verbreitung von Windows XP und dem neuen Windows 7 als Quasistandard sind weltweit viele Unternehmen bis hin zum Tüftler damit beschäftigt, interessante Tools auf dieser Softwarebasis zu programmieren. Seit Erscheinen von Windows 7 wurden von jenem Betriebssystem bereits mehr als 150 Millionen Lizenzen verkauft. Im Zuge des technischen Fortschrittes könnten in Zukunft beispielsweise Grundfunktionen wie die Änderung der Abhörlautstärke, die Anwahl eines neuen Titels als auch die Stumm- und Pausenschaltung über intuitive Gestensteuerung vorgenommen werden. PC/MAC Systeme bieten sehr preisgünstig schon heute weitreichende Möglichkeiten auch sehr große Musiksammlungen übersichtlich strukturiert und optisch aufgearbeitet darzustellen. Für den Autor dieser Zeilen ist somit die PC/MAC-Basis wesentlich interessanter und vielseitiger, als die oftmals sehr beschränkten Funktions- und Bedienungsmöglichkeiten, der nicht auf PC/MAC-Basis aufgebauten dezidierten Musikserversysteme. Technische Systeme sollten grundsätzlich ergonomisch auf die Physis und Sensorik des Menschen entwickelt werden.

Sauberer Aufbau auch im Inneren

Unangenehm auffällig wurden zudem die oftmals in Consumer-Musikservern häufig verbauten CD/DVD-Laufwerke in Slim-Line-Bauart. Diese Laufwerke sind nicht selten den klassischen CD/DVD-Laufwerken in Half-Eight-Bauart in punkto Ausleseeigenschaften und Lebensdauerauslegung unterlegen. Die Kombination aus bitgenau auslesender Software und Slim-Line-Laufwerken stellt im allgemeinen den eher suboptimalen Weg dar. Wer prinzipiell auf Festplatten größere Geldwerte „verwalten“ möchte, ist nicht schlecht beraten, höherqualitative Server-Festplatten aus dem Pro-Bereich einzusetzen, während in den meisten hochpreisigen Musikservern preisgünstige Home-Desktopware zum Einsatz kommt. Serverfestplatten sind gegenüber einfacher Desktopware mit einer deutlich höheren MTBF von teilweise 1,2 Millionen Stunden spezifiziert und insbesondere dadurch besonders für die Anwender interessant, die sich eben weniger technisch um das „System“ kümmern mögen. Dem Autor sind mit einer Ausnahme, bei der sogar SSDs zur Datenspeicherung verwendet werden, keine dezidierten Audioserver aus dem Consumersegment bekannt, in denen Festplatten vom Schlage der GP3– bzw. GP4-Baureihe von Western Digital oder andere qualitativ vergleichbare Ware zum Einsatz gelangt. Häufig kamen beim Öffnen hochpreisiger vermeintllicher „High-End-Server“ lediglich Festplatten wie Western Digital Caviar Green mit 1 TB Speicherkapazität für ca. 70 Euro und Slime-Line-CD-Laufwerke der 20-Euro-Klasse zum Vorschein. Die renommierte Zeitschrift CT (Computer und Technik) aus Hannover resümierte zu dieser Thematik: „Vergoldete Bits- Streaming-Server für Audiophile“. Für den Endpreis mancher vermeintlich highendiger Musikserver sichtete der Autor bereits Qualitäts-Power-PCs, die, mit professioneller Audiokarte ausgestattet, den Cine Bench R 10 Leistungstest mit 32.000 Punkten abgeschlossen haben und damit um Faktor vier leistungsfähiger waren als ein heute allgemein geläufiger PC mit Q6600-Quadcore-Prozessor und 2,4 GHz! Ein derartiger PC kann mittels nachträglicher Bearbeitung eines Stereoprojektes, egal was dabei auch angestellt wird, kaum mehr überlastet werden und läuft, sinnvoll konfiguriert, stabil wie ein Schweizer Uhrwerk … sehr faszinierend.

Hochwertige Emulationen bewährter Studioklassiker:

UAD Audio

http://www.uaudio.com/

http://www.uaudio.com/blog/studer-a800-tape-recorder-trailer

Verweise zu bewährten DAW Anbietern:

http://www.steller-online.de/PC-Systeme/

http://www.da-x.de/de/digital-audio-workstation-konfigurator.html

SSD versus HDD

Eine SSD (Solid State Drive) ist ein sogenanntes Festkörperlaufwerk, in dem zur Datenspeicherung Halbleiterbauelemente eingesetzt werden und das somit keine beweglichen Teile mehr enthält. Vorteile eines Solid State Drive sind mechanische Robustheit, kurze Zugriffszeiten, niedriger Energieverbrauch und das Fehlen jeglicher Geräuschentwicklung. Der Hauptnachteil ist zur Zeit sein noch erheblich höherer Preis im Vergleich zu Festplatten gleicher Kapazität. Außerdem sind SSDs heutzutage noch nicht mit ganz so hohen Kapazitäten verfügbar, wie klassische Festplatten sie aufweisen. Ein weiterer Vorteil ist die festplattengleiche, unbegrenzte Wiederbeschreibbarkeit; Flash-Chips sind je nach Qualitätsgrad für 100.000 bis 5 Millionen Schreibzyklen ausgelegt. Eine „Zelle“ wird bei Verschleiß automatisch gegen eine von rund zwei Prozent Reservezellen ausgetauscht. Sofern SSDs aus dem Pro-Segment (Scan Disk,Western Digital, OCZ) zum Einsatz kommen, sieht der Autor hervorragende Möglichkeiten, damit Massenspeichersysteme zur Verfügung zu haben, die bei normaler Verwendung durchaus eine Standfestigkeit von Jahrzehnten besitzen können. Prinzipiell sind hochwertige, für den Servereinsatz vorgesehene SSD gerade für Anwender, die sich wenig um die technische Peripherie und Eigenschaften ihrer Gerätschaften kümmern wollen, die erste Wahl. Windows 7 ist dabei bereits optimal für effiziente Ansteuerung von SSDs vorbereitet.

Verweise zu bewährten HDD- und SSD-Produkten:

http://www.wdc.com/en/products/internal/enterprise/

http://www.ocztechnology.com/products/solid_state_drives/sata_3_5_solid_state_drives

Tonträger auf die Festplatte bringen

Neben i-tunes etc. bietet sich für das professionelle Rippen von Audio-CDs ganz besonders die kommerzielle Variante von dB-Poweramp an, deren Alben- und Titelerkennung durch die Abfrage der professionellen AMG- und Sonata-Datenbank eine überlegen hohe Trefferquote erzielt. Die Rippresultate sind unter Verwendung des Ultra Secure Modes ausgezeichnet und mit einem einfachen Mausklick kann, sofern das über die Titelerkennung automatisch mitgelieferte Cover nicht zusagen sollte, über einen angeschlossenen Flachbettscanner das originale CD-Cover mit sehr hoher Auflösung unkompliziert einscannt werden; dB-Poweramp bietet dabei hervorragende Auswahl und Flexibilität der Zielformate an. Ob WAV,FLAC, MP3,AAC,BWF… alles geht! Grundsätzlich sollte aber jedem klar sein, daß bei Verwendung von Software, die nicht für professionelle Ansprüche entwickelt wurde, es beim Betrieb an Top-of-the Bottom-Audiokomponenten durchaus zu klangtechnisch wahrnehmbaren und zuweilen zweifelhaften Resultaten kommen kann. Im Artikel genannte Proaudioprogramme wie Sampiltude Pro 11, WaveLab oder Cubase beinhalten darüber hinaus sehr gute Tools u.a. für eine Samplerate-Konvertierung oder Wortlängenveränderung und eignen sich sehr gut sowohl zum Editieren als auch für die Nebengeräuschbefreiung bei LP-Überspielungen; und zwar auf einem Qualitätsstandard, wie sie den meisten Consumerprogrammen bislang völlig fremd sind. Auch die Ripp-Engines – sofern auf ein Maximum an Einlesequalität eingestellt – besitzen heute eine Qualität, die bereits Fehler auf einer Audio-CD zuverlässig detektieren, die unterhalb der auditiven Wahrnehmung beim Abhören liegen und die von der „Fehlerkorrektur“ eines CD-Players noch zuverlässig auditiv maskiert werden können.

Dem Autor ist bewußt, daß heute noch leidenschaftlich über Klangunterschiede der verschiedenen Pro-Audio-Programme diskutiert wird, häufig jedoch ohne dabei gleichzeitig den persönlichen Workflow ausreichend kritisch unter die Lupe zu nehmen. Dabei wird nicht selten immer wieder gerne in stoischer und gebetsmühlenartiger Art und Weise über Fehler oder Softwareunzulänglichkeiten diskutiert, die der Anfangszeit der Technologie vor sieben bis fünfzehn Jahren geschuldet sind und heute praktisch bei sinnvoller Bedienung kaum mehr vorkommen. Unberücksichtigt bleibt dabei häufig, daß in diesem Zeitraum insbesondere die Rechenleistungsfähigkeit der Audio-DAWs explosionsartig angestiegen ist und der harte Konkurrenzkampf im Proaudio-Software-Bereich in den letzten Jahren sehr vieles zum Positiven verändert hat. Bei fachkundiger Bedienung einer Magix Samplitude 10/11 Pro Audio-Software ist es jedenfalls nicht einfach, diese „mal eben“ beim „Flunkern“ und damit klanglich dingfest zu machen. Es dürfte aber hinreichend geklärt sein, daß, wenn bei einem ursprünglich aus 70 Spuren bestehenden Tonprojekt bei Subgruppenbildungen – anstatt im 32-Bit-Floatingpoint-Modus zu bleiben – zu früh auf eine 24-Bit-Integer-Funktion gewechselt wird, dies durchaus insgesamt klanglich verändernde Auswirkungen auf das Endresultat haben kann! Darüber hinaus ist natürlich nicht ausgeschlossen, daß die ein oder andere ehemals am Markt erhältliche Software – insbesondere bei Verwendung von zu leistungsschwachen DAWs – mit ihrem Workflow zu solchem Handeln motivieren kann. Trotz der heutigen technischen Möglichkeiten eines nahezu „Unendlich-Spur-Projektes“ sollte wieder die persönliche Beurteilungs- und Entscheidungsfreudigkeit bei der Aufnahme trainiert und nicht alle notwendigen Entscheidungen auf einen späteren Zeitpunkt verschoben werden. Wer heute Aufnahmen des BIS-Label hört, dem fällt es eben nicht auf, daß man diese Aufnahmen mit Magix Sequioa oder Samplitude 10/11 Pro produzierte; und wer Aufnahmen des High-End-Labels Tacet hört, bemerkt gleichfalls nicht, daß die von den Neumann-Röhrenmikrophonen gelieferten Signale, verstärkt über einen Siemens V 76 Mikrophonverstärker, mittels RME-ADI8QS-A/D-D/A-Wandler digitalisiert, auf einem PC aufgezeichnet wurden. Kein Profi hantiert heute bei mobilen Aufnahmevorhaben außerhalb eines Tonstudios – sofern er nicht noch zufällig über einen derartig ausgestatteten Ü-Wagen verfügt – noch mit teilweise über 200 kg schweren Mehrspurbandmaschinen. So hat der Autor hardwareseitig auch beste Erfahrung mit A/D-D/A-Wandlern von Stagetec, Lawo, Studer, Lake People, RME Audio, Prism und Weiss Audio gemacht. Die Label Tacet, BIS und das Recording-Unternehmen Tritonus, das vielfacher Schallplattenpreisträger ist und dem einzelnen vielleicht besser durch Einspielung wie Mahlers 8. Sinfonie unter Michael Tilson Thomas und dem San Francisco Symphony Orchestra bekannt ist, vertrauen beim Harddiskrecording voll auf die Wandlertechnik und Audioperipherie der Firma RME. Wer beste Audioqualität erwartet, wählt grundsätzlich möglichst keine Lösung, bei der ein analoges Audiosignal direkt aus oder in ein PC-Gehäuse verläuft!

http://www.artandscienceofsound.com/

Hier ein paar weitere Verweise zu den besten Digitalwandlerprodukten:

Stagetec

http://www.stagetec.com/images/stories/mediagroup/download/nexus2012-web-de.pdf

http://www.stagetec.com/images/stories/mediagroup/download/nexus_folder-de.pdf

Lawo

http://www.lawo.de/uploads/media/PI_DALLIS_de.pdf

Studer

http://www.studer.ch/products/product.aspx?pid=16

Prism Audio

http://www.prismsound.com/music_recording/products_subs/ada8xr/ada8xr_home.php

http://www.prismsound.com/music_recording/products_subs/orpheus/orpheus_home.php

RME Audio

http://www.rme-audio.de/products_hdspe_aes.php

http://www.rme-audio.de/products_hdspe_madi.php

http://www.rme-audio.de/products_adi_8_qs.php

Weiss Audio

http://www.weiss.ch/dac2/dac2.htm

http://www.weiss.ch/afi1/afi1.htm

Server

Zunächst an dieser Stelle einmal kurz erläutert:  Ein NAS (Network Attached Storage) bezeichnet einfach einen zu verwaltenden Dateiserver. Allgemein wird ein NAS eingesetzt, um ohne hohen Aufwand unabhängige Speicherkapazität in einem Rechnernetz bereitzustellen. Ein NAS ist im Unterschied zu Direct Attached Storage ein eigenständiger Host mit eigenem Betriebssystem. Da die Funktionen sehr spezifisch auf den Einsatzzweck abgestimmt sind, werden Fehler aufgrund umfangreicher und für den speziellen Einsatzzweck unnötiger Konfigurationsmöglichkeiten von vorneherein vermieden. Dateibasierende Dienste wie NFS oder SMB/CIFS stellen die Kernfunktion dar. Daher werden NAS-Systeme oft kurz als Filer bezeichnet. Schon eine handelsübliche Festplatte, die sich in einem externen Gehäuse befindet, das mit einer „RJ-45“-Netzwerkbuchse, entsprechender Firmware und optional weiteren Anschlußmöglichkeiten ausgestattet ist, entspricht bereits einem NAS. Es kommt nun am Ende darauf an, was man von einem NAS-Server eigentlich erwartet, bevor man sich zum Kauf entscheidet. Die kleinen handelsüblichen Consumer-NAS-Server sind häufig auf Intel-Atom-Prozessor-Basis, wie sie heute in jedem Netbook zum Einsatz kommen, aufgebaut und stellen sozusagen die Einstiegsklasse dar. Insbesondere wenn von einem zentralen Massenspeicher nicht nur Audiodaten, sondern in Zukunft vielleicht auch gleichzeitig Multimediabilddaten in HD-Auflösung von einer oder mehreren Rechnerstationen oder Netzwerkplayern aus gestreamt werden sollen, wird man mit solch einer Minimalkonfiguration schnell an Leistungsgrenzen stoßen. Aus den Gesichtspunkten und zu erwartenden Realbedürfnissen eines Highenders kann es von daher sinnvoller sein, gleich einen wirklichen Profiserver mit deutlich erhöhter Leistungsfähigkeit zu installieren. Die einzelnen Leistungsdetails sollten dazu bedarfsorientiert mit einem IT-Fachunternehmen abklärt werden. Schon ein schneller Überblick über die grundsätzliche Palette an Einzelkomponenten aus dem Pro-Bereich und Begriffe wie iSCSI-Schnittstelle, echte Gigabit-Ethernetverbindung usw. läßt dabei schnell erahnen, daß die gefragten leistungsfähigen Schnittstellen der Profiwelt ganze andere sind als im Home-Server-Markt üblich. IT-Fachunternehmen wie ICO, Dell Professional oder HP haben in ihren Portofolio absolut alles, was für den leistungsfähigen Serveraufbau inklusive Datensicherung benötigt wird. Der Kunde muß dazu nur näher spezifizieren, für welche Zwecke und Anwendungen das System dimensioniert werden soll. Nach kurzer Bedarfs- und Funktionsanalyse wird insbesondere von Mittelständlern wie ICO das für den persönlichen Bedarf passende Equipment geliefert werden. Wer zunächst selber etwas „herumbasteln“ möchte, wird am Ende feststellen müssen, daß das sinnvoll Benötigte bereits erfunden und käuflich zu erwerben ist. Beim Autor haben sich sowohl NAS-Server auf Intel Atom-Basis als auch die resultierenden Ethernetübertragungsraten von ca. 30 Megabyte/s für Multimediaanwendung von HD-Bild und Ton als zu leistungsschwach herausgestellt.

Marktbeobachtungen

Derzeit bilden sich insbesondere mit Apple und Google – letzterer geht nach schwierigen Verhandlungen mit der Musikindustrie wohl Mitte 2011 mit eigenen Musikdownload-Angeboten inklusive persönlichem Musikschließfach in den Markt – sehr populäre Internetplattformen heraus. Weitere Anbieter wie Nokia, Spotify, Simfy, Beyond Oblivion, Beatport, e-music, Musikload, Zune (Microsoft) und Mufin buhlen bereits um die Gunst der Verbrauchers. Sony baut mit Qriocity eine Online-Filmplattform auf, die die Möglichkeit bietet, zunächst über Sony-Hardware bis zur Playstation drei Filme von Century Fox, MGM, NBC, Paramount, Sony Picture und Warner Brother im Streamangebot anzuschauen. Dieser Service wird durch ein Musik-Unlimited-Streamangebot ergänzt werden. Erkennbar wird in diesem Zusammenhang der Versuch einer geschäftlich fruchtvollen Verquickung konzerneigener Contentinhalte mit entsprechender konzernzugehöriger Abspiel-Hardware. Im Extremfall kann die feste Bindung von Contentinhalten an eine lizenzierte Gerätestruktur insgesamt eine marktgerechte Preisgestaltung und Preisfindung bei den Contentinhalten sowie der entsprechenden Hardware deutlich erschweren. Ohne mich jetzt in gedehnte Analysen zu verstricken, welche Interessen welche Anbieter durch ihre Struktur und Marktaufstellung im einzelnen einnehmen oder auch einnehmen müssen, sollte die alteingesessene Musikindustrie zügig eigene populäre Handelsplattformen im Internet etablieren, um eine direkte Verbindung zum Endverbraucher zu erhalten. Es ist schwer einzuschätzen, in welche Richtung sich in Zukunft Anbieter wie Apple bezüglich der Art der offerierten Inhalte entwickeln werden. Unter Umständen spielen dort in Zukunft Stream-TV und cloudbasierte Musikstreamangebote ein viel größere Rolle als der „klassische“ Downloadmusikhandel. Schon heute muß sich die Musikindustrie mit relativ „unbequemen“ Verträgen gegenüber legalen Musikdownload-Handelsplattformen absichern, damit das eigentliche Musikangebot nicht nur für einen vordergründigen Aufhänger genutzt wird, um möglichst vielen Seitenbesuchern am Ende Unmengen an bezahlter Werbung präsentieren zu wollen. Am Ende könnte es sich als eine reine Frage der Zeit herausstellen, bis u.U. Handelshäuser wie Apples I-tunes, welche mehr als 26 Prozent des US-Musikmarktes bereits auf sich vereinen, bzw. auch Google beginnen, eine eigene Contentgenerierung  aufzubauen oder auch zunächst „nur“ Musikkataloge kränkelnder Musikkonzerne aufzukaufen. Letzteres könnte relativ schnell eintreten – sobald ein bedeutender Musikkataloginhaber aus wirtschaftlichen Schwierigkeiten heraus zur Frischkapitalbeschaffung gezwungen ist. So scheint man auch vielerorts schon bereitzustehen, falls die EMI zu einer Frischkapitalbeschaffung gezwungen sein sollte und diesen Weg eventuell gehen muß. Aufschreckende Pressemeldungen, die EMI wolle die traditionsreichen Abbey Road Studios zur Kapitalbeschaffung veräußern, liegen noch nicht lange zurück… Es formierten sich Proteste und die britische Regierung stellte daraufhin vorsichtshalber die Abbey Road Studios unter Denkmalschutz, um einem Ausverkauf in „Einzelteilen“ grundsätzlich vorzubeugen.

SSL 9000 Abbey Road Studios

Auch BMG steht bereits für diesen Tag X in den Startlöchern. Die heutige Attraktivität von i-tunes ist, unter einem Dach eine Vielzahl von Künstlern und Aufnahmen vieler Label gleichzeitig vermarkten zu können, während man im Decca-Downloadstore „nur“ Decca- und DGG-Aufnahmen und bei Sony nur Sony-Künstler und -Aufnahmen findet; der Endkonsument wählt heute nach Gesamtauswahl und Preis und nicht mehr nach dem Label aus.

In ferner Vergangenheit erfolgte die Musikvermarktung wesentlich stärker über das deutliche Herausstellen von starken Einzelmarken wie DGG, Decca, Phillips, Verve, Mercury gegenüber dem Kunden. Dann folgte eine Veränderung der PR-Arbeit bei Universal Musik, die zunächst mehr den Aktionär und den Aktienmarkt im Auge hatte als den eigentlich umsatzbringenden Endkonsumenten… Nach Meinung des Autors muß dort ein „Back to the Roots“ mit starker Herausstellung der Einzelmarken erfolgen.

Erfolgreiche wie auch kapitalkräftige Unternehmen wie Apple oder Google verfügen heute mittlerweile über genug Ressourcen, sich selbst angesagte und gute Studiokomplexe anzumieten oder auch interessante Arbeitsbedingungen für gute A&R-Manager bereitzustellen, und es bleibt abzuwarten, wie diese sich in Zukunft konkret positionieren werden. Heute arbeiten sehr gute Tonmeister oder Toningenieure vielfach und anders als noch vor ca. 15 Jahren, als die großen Musikkonzerne begannen, aus Kostengründen ihre Recording Center zu schließen, frei als sogenannte Freelancer. Die großen Label trennten sich von ihren Recording Centern, nachdem die Anzahl der Neuveröffentlichungen und produzierten Tonaufnahmen insbesondere im Klassiksegment wegen Absatzproblemen stark zurückgefahren werden mußten. Gleichzeitig trennte man sich auch von den eigenen Preßwerkkapazitäten für die Tonträgerherstellung. Im Prinzip läuft seit bereits 15 Jahren die Entflechtung der Musikindustrie auf ihre essentiellen Kernkompetenzen hinaus: die A&R-Expertise sowie Aufbau und Vermarktung von neuen Künstlern. An dieser Stelle möchte ich noch einmal einige Zahlen nennen, die aufhorchen lassen sollten: Die in der europäischen Organisation Impala organsierten 4000 Unternehmen bzw. Mitglieder des unabhängigen  Musiksektors machen heute bereits 80 Prozent aller Neuveröffentlichung im Tonträgergeschäft aus! Dabei handelt es sich um Nachwuchskünstler und nicht um TV-Sternchen. Diese kleinen Label tragen nicht selten Risiken, die den meisten anderen zu hoch erscheinen und bilden den eigentlichen kreativen Hort für Innovationen und Neuerungen. Dagegen nehmen weite Teile der Bevölkerung allerdings nur die großen Mayors-Label Universal, Sony Musik, Warner Musik, EMI und Edel als tatsächlich existent wahr.

Die New York Post schrieb: „Schallplatten wurden zu Kassetten, CDs zu Dateien. Jetzt werden daraus Dateien, die man herumschieben und auf die man von überall aus zugreifen kann. Das ist toll und interessant für die Nutzer.“

So ist der paßwortgeschützte Musikschließfachdienst, wie u.a. von Google geplant, ohne Frage auch ganz toll und interessant für die Nutzer… Zu illegalen Downloads von geschützten Contentinhalten im Netz möchte der Autor am Ende noch ein paar treffliche  Kernsätze des Vorstandvorsitzenden der Axel Springer AG Matthias Döpfner zitieren: „Die Gratiskultur im Netz ist ein Mißbrauch der Freiheit der die Freiheit selber bedroht. Jeder nimmt, was er kann, nur weil es technisch so leicht möglich ist. Zivilisation aber besteht darin, das Mögliche auf das Wünschenswerte zu beschränken. Warum bedroht dieser Mißbrauch die Freiheit? Weil das Angebot schrumpfen wird und dadurch die Auswahl sinkt. Mozart wurde verarmt vor der Stadt verscharrt, weil jeder seine Musik nutzen durfte ohne dafür zu bezahlen.“ Der alles entscheidende Punkt für die sichere Zukunft der Musikbranche ist die Nutzung von Conteninhalten -ganz gleich ob von einem physischen Medium oder aus dem digitalen Handel- aus ausschließlich legalen Distributionsformen. Bei letzterer Handelsform sollte die Industrie fairerweise im Interesse der zahlenden Kundschaft ein zuverlässiges Konzept der Daten- und Bestandssicherung  einmal erworbener Contentinhalte entwickeln.

Informative Grafiken zur Alltime-Entwicklung des Musikmarktes:

IFPI 1997-2010 Grafik zur Entwicklung des Musikmarktes

Bereinigte All-Time Grafik zur Entwicklung der Musikindustrie

http://www.businessinsider.com/these-charts-explain-the-real-death-of-the-music-industry-2011-2

Verweise zu empfehlenswerten Softwareprodukten:

Rippen und Audiowiedergabe

http://www.dbpoweramp.com/

http://www.foobar2000.org/download

Recording, Format- und Sampleratekonvertierung als auch Tonbearbeitung:

Für Einsteiger:

http://www.magix.com/de/samplitude-music-studio/detail/?partnerid=9009&AffiliateID=2&adword=google/DEShop/MAGIX%20samplitude&gclid=CJSVpMLbjqcCFRYv3wodi1yxcQ

Für Fortgeschrittene-alles geht:

Magix:

http://www.samplitude.com/de/produkte/samplitude_pro/auf_einen_blick.1595.html

http://www.samplitude.com/de/produkte/sequoia/auf_einen_blick.1607.html

Steinberg:

http://www.steinberg.net/de/products/wavelab/start.html

http://www.steinberg.net/de/products/cubase/cubase6_start.html

http://www.steinberg.net/de/products/nuendo/start.html

Hochwertige Plug-Ins:

http://www.lawo.de/de/produkte/daw-products.html

 

 

 

 

Bild | Veröffentlicht am von | Verschlagwortet mit , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , | 2 Kommentare

Risiken und Chancen beim Einsatz von Computer- und Rechnertechnik bei der Aufnahme, Speicherung und Wiedergabe von Musik, Teil 2

Eine traumhafte Zukunft – oder eher ein Alptraum? In Teil 1 meiner Ausführungen fand die Betrachtung grundsätzlicher Dinge statt: Der PC als Tonquelle, Hard- und Software sowie optische Speicher waren einführender Bestandteil. Steigen wir nun tiefer in die Details… Speichersysteme … Weiterlesen

Galerie | Verschlagwortet mit , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

Grundlagen Digitaltechnik Teil 5

Bisher wurden die grundsätzlichen Funktio­nen und Möglichkeiten digitaler Aufnah­me- und Wiedergabetechnik dargestellt bis hin zu den Eingriffen, die mittels Computer machbar sind. Letzteres führte zu Manipulationen, welche eine ernste Gefahr für das Kulturgut Musik bedeuten.

Musikkultur in Gefahr

Zahlreiche Musikproduktion, insbesondere aus dem Rock-, Pop- und zunehmend auch dem Jazz­bereich werden vielfach durch absolute Überkom­pression und Lautheitswahn klanglich um ein „mehrfaches“ stärker beschädigt, als durch die eher geringen Tonträger- bzw. systemimmanente Klangunterschiede. Das Ausmaß an zusätzlichen Verzerrungen, welche heute u.a. durch „Überkom­pression“ dem Tonmaterial hinzugefügt werden, steht in absolut keinem Verhältnis zu den Bestre­bungen der High-End-Hersteller und deren Kun­den, möglichst immer verzerrungsärmere und bes­sere Wiedergabeelektronik zu produzieren, re­spektive auf Seiten der Hörer zu genießen. Zudem ist es mehr als fraglich, ob heute als Mittel einer wirklich kreativen und sich als nachhaltig heraus­stellenden geschmackvollen Klanggestaltung der­art hohe Verzerrungswerte, wie sie derzeit vieler­orts den Musikproduktionen durch Überkompres­sion oder ein „unsachgemäß“ durchgeführtes Li­miting künstlich hinzugefügt werden, auf Dauer echtem Musikgenuß dienlich sein können? Ich denke nein. Viele der aktuellen überlauten Ton­konserven aus dem Rock- und Pop-Sektor weisen heute Verzerrungswerte in einer Höhe auf, die der Audiotechnik vor mehr als 50 Jahren aufgrund technischer Limitierung noch zwingend anhaftete. Das aktuelle Stichwort dazu heißt „Loundness War“ oder auch „Loudness Race“ und ist eine schleichende Entwicklung, die bereits in den 60er Jahren in der LP-Ära begann: Man denke dabei an die damals sicher lautstärksten Veröffentlichungen des gesamten Tonträgermarktes zurück, die wohl vom amerikanischen Motown-Label stammten, die 70er Jahre und das Auftauchen des Aphex Au­ral Exciter und weiterer „Spezialitäten“, dann die 80er Jahre mit der Einführung der „berühmten“ analogen SSL-Mischkonsole der 4000er Baureihe die in jedem Kanalzug eine Kompressor/Limi­tereinheit besaß und so in der Praxis zu einem wei­teren „Lautstärkegewinn“ führte. Gleichwohl ist gegen einen maßvollen und versierten Einsatz von Kompression und Limiting zu keinem Zeitpunkt etwas einzuwenden gewesen! Es ist zu bedenken, daß zu jener Zeit die A/D-Wandlung vielfach noch mit 16-Bit-Wandlern erfolgte und bei einer Tonaufnahme auch stets Übersteuerungsreserven vom Tonmeister einkalkuliert werden mußten, so daß im Falle der Tonaufzeichnung mit einem 16­Bit- System erst einmal ein Teil der theoretischen Auflösungsfähigkeit für den notwendigen Headroom als Aussteuerungsreserve verlorenging. Um dennoch einen höheren RMS- Pegel dem Wandler zuführen zu können, wurde dieser gegen Über­steuerung mit einem pre-digitalen analogen Limi­ter gegen Übersteuerung geschützt. Das Übersteu­ern von digitalen Wandlereinheiten sollte grund­sätzlich ausgeschlossen werden, denn anders als bei der analogen Bandaufzeichnung, die mit einem akustisch eher „gutmütigen“ Ansteigen des Ver­zerrungsniveaus reagiert, clippen digitale Aufnah­mesysteme beim Eintreten von Übersteuerungen im Extremfall mit eher unmusikalischen Artefak­ten. Im Rock und Pop-Musiksektor setzte man al­lerdings bewußt schon lange vor der Digitalisie­rung der Musikinformation derartige Arbeitsprak­tiken als klanglich erfolgreiches Gestaltungsmittel zur Erhöhung des durchschnittlichen Pegelver­laufs eines Musiksignals ein. Im Klassik- und Jazz­bereich wurde die Limitercharakteristik so ausge­wählt, daß ein kurzfristiges Einfahren in diesen Bereich klanglich praktisch ohne hörbare Folgen blieb, während im Rock- und Pop-Sektor häufig bewußt die Artefakte eines hörbaren Kompressor­- und Limitereinsatzes als Stilmittel zur Aufnahme­ und Klanggestaltung genutzt wurden. Die Digital­technik beflügelte die Tontechnik und führte be­reits in frühen 80er Jahren zum Auftauchen teil­weise „überknalliger“ und verspielter Sounds, die uns heute noch als „laut“ und „spektakulär“ in Er­innerung geblieben sind. Die existierende technische Limitierung der LP „erzog“ die damaligen Produzenten und Tonmei­ster zu einem deutlich weniger überscharfen, un­terdumpfen oder erbärmlich verzerrten Klangbild als die heute im allgemeinen häufig in diesen Ei­genschaften unkritische CD-Technologie. Bei Mu­sikproduktionen für die LP war insbesondere auf S- und Zischlaute zu achten, die auf jeden Fall vor dem Matrizenschnitt mit einem De-Esser „ent­schärft“ werden mußten, da ansonsten die sichere Gefahr des „ungewollten“ Einsetzen des Schneidestrombegrenzers mit seinen akustisch eher un­günstigen Auswirkungen auf das ursprünglich ge­plante Klangbild drohte. Auch mußte ein wirklich gelungener Mix möglichst frei von inkompatiblen tieffrequenten Signalen sein, da auch diese einen erfolgreichen Matrizenschnitt stark gefährden konnten. So ist es kaum verwunderlich, daß die auf Langspielplatte veröffentlich ten „Klangbilder“ nicht selten dem versierten Musikhörer besser als so manch eine heutige Neuproduktion auf CD ge­fallen; eine Folge der angesprochenen Limitierun­gen. Der Distributionstonträger LP nahm seiner­zeit schlußendlich bereits bei der Musikproduk­tion klangästhetische Einflüsse auf die produzier­baren Klangbilder. Mit der Einführung der technisch deutlich perfek­teren CD, welche die vormals bei der Musikpro­duktion für die LP zu beachtenden technischen Li­mitierungen nicht mehr besaß, ging die Umstel­lung der kompletten Tonsignalverarbeitung auf Digitaltechnik und am Ende der Einzug der „Rechnertechnik“ einher. Mit ihrer kaum noch überschaubaren Softwarevielfalt zu Audiosignal­bearbeitung, nähern sich heute viele Musikstücke physikalisch dichter denn je dem weißen Rauschen an! Insgesamt ist das derzeit erreichte Ausmaß an Überkompression und damit einhergehender Ver­zerrungen selbst bei Produktionen ansonsten als kreativ geltender Rock- und Pop-Formationen oft­mals bis über das klanglich genießbare Maß hinaus „verbogen“ und ich wage zu bezweifeln, daß der­artig verzerrte Klangbilder in vielleicht 10 – 20 Jah­ren eine große Chance haben, ein zweites Mal ver­kauft werden zu können. Ein Schelm, wer denkt, daß derzeit „absichtlich“ überkomprirnierte und damit hochverzerrte Klangbilder als „akustisch ästhetischer Kopierschutz“ auf heute gängigen Distributionsmedien verkauft werden, um dann in ein paar Jahren, wenn das Pendel der derzeitigen Loudness- Race- Entwicklung zurückschlägt, die gleichen Platten uns mit einer maß- und ge­schmackvollen dynamischen Bearbeitung einfach ein zweites Mal auf dann gerade wieder „aktu­ellen“ und „neuen“ sogenannten High-Reso­lution- Tonträgern verkaufen zu können. Schon seit einem Vierteljahrhundert steht uns mit der Audio-CD zum ersten Mal in der Geschichte der Tonträger ein Format zur Verfügung, welches bei sachgemäßem Gebrauch über Jahrzehnte ohne Verschleißerscheinungen oder Qualitätseinbußen einsatzbereit bleibt, und zudem in der Lage ist, faktisch das fertig bearbeitete Masterband klang­lich vollends an den Hörer weiterreichen zu kön­nen. Wenn durch das eigentliche Distributions­medium keine praktisch relevanten Grenzen mehr existieren, könnte der Gedankengang naheliegen, daß man durch grundsätzlich alternierende klang- verändernde Maßnahmen bewährter Klassiker neue Anreize zum Verkauf – insbesondere des ständig wachsenden Backkataloges – auszulösen versucht. Eigens für den High-Ender wurden dazu in letzter Zeit neue, sehr teure CD-Reihen kreiert mit phantasievollen Bezeichnungen wie Blue­spec-CD, SHM-CD, XRCD oder HQCD. Diese CDs entsprechen vollends dem Red-Book-CD­Standard und bleiben damit natürlich auf jedem handelsüblichen CD-Player abspielbar. Nicht sel­ten handelt es sich bei diesen CD-Veröffent­lichungen lediglich um eine etwas maßvoller laut­gemach te „High-End – Edelvarian te“ der „leiseren“ Original-CD-Ausgabe. Oftmals wird u.a. durch ein „sanfteres“ Einfahren des Tonsignals in die Limi­ter der Aufnahme nochmal ca. 3 dB an Lautstärke, allerdings auf Kosten des Gesamtdynamikum­fanges, „geschenkt“. Je höher die Qualität des per­sönlich verwendeten Wiedergabe-Equipments allerdings ist, desto nervtötender kann der Klang dieser neuen CD-Kreationen auf Dauer dem Hö­rer erscheinen. Schon für den gegenüber den Original-CD-Ausgaben aufgewendeten Mehrpreis von 100 – 130 dieser „Spezial-CDs“ bekommt der Kunde qualitativ hochwertige D/ A-Wandler, die die dynamische „Nachberabeitung“ dieser Spezial­masterings klanglich obsolet macht. Nach laut, lauter, am lautesten und einem Maximum damit einhergehender Verzerrungen, wird, am Ende der Fahnenstange erst einmal angelangt, nichts anderes mehr überbleiben, als relativierend wieder den Rückweg in die entgegengesetzte Richtung anzu­treten …

An dieser Stelle möchte ich Ihnen einige ernüch­ternde Zahlen zu den auf unseren High-Tech­Tonträgern (CD: 98 dB digitale Systemdynamik) tatsächlich genutzten Dynamikwerte nennen:

Michael Jackson „Bad“, 1987: 12,7 dB;

REM „Losing my Religion“, 1 991: 12,3 dB; Soundgarden „Black Hole Sun“, 1994: ca. 10 dB; Eagle Eye Cherry „Save Tonight“, 1997: 4 dB; Red Hot Chilis „Californication“, 1999: 3 dB; Herbert Grönemeyer „Mensch“, 2002 ca. 9,5 dB (auf SACD erschienen);

Madonna „Hang Up“, 2005: 7 dB;

Cold Play „Viva La Vida“, 2008: ca. 6,5 dB; Radiopilot „Surfen“, 2008: 3 dB;

Metallica Magnetic Death, 2008: 5 – 6 dB.

Es stellt sich hier ernstlich die Frage, welchen Wert die aufwendigen Bemühungen um theoretisch immer „bessere“ Tonträgerformate mit immer größerem technisch möglichen Dynamikumfang überhaupt haben, wenn Musik durch unsachgemä­ßen Gebrauch von Loudness- Maximizer und Brickwall-Begrenzer auf ein absolutes Minimum an Restdynamik „zusammengepreßt“ wird, ein Schlagzeug wie ein Pappkarton klingt, und viele weitere klangliche Details dabei einfach niedergemacht werden. Derartige „Bearbeitungsfortschritte“ dienen lediglich der Erhöhung der akustischen Verwendbarkeit von Musik auf technisch-aku­stisch zweifelhaft ausgelegten portablen Musik­systemen. Verbleibt derzeit nur der Bereich der klassischen Musik, der ohne Einsatz leidiger Kom­pression dem Kunden noch ein hochwertiges Klangprodukt zur Verfügung stellt? Zweifel sind angebracht: auch hier beginnt man bereits zu ma­nipulieren.  Ein aufschlußreiches Beispiel bietet der Vergleich zwischen zwei vermeintlich identischen klassi­schen Veröffentlichungen der Decca SXL 6355: Albeniz, Suite Espanola. Ersteres Diagramm zeigt die Digitalisierung einer LP-Nachpressung, die direkt von den analogen Decca-Masterbändern produziert wurde, das zweite Diagramm die Li­zenzveröffentlichung eines speziell auf die Kun­dengruppe der High-Ender ausgerichteten Labels, das auf sogenannten „Spezial-CDs“ veröffent­licht, die aber exakt dem Red-Book-Standard einer „regulären“ und handelsüblichen Audio-CD ent­sprechen. Bei der Masse dieser „Spezial-CDs“ handelt es sich vielfach lediglich um phantasiean­regende Handels- bzw; Marketingbezeichnungen für eine an sich normale Audio-CD. Klar erkenn­bar besitzt ausgerechnet die speziell für High-En­der produzierte „High-End-CD-Ausgabe“ eine um etwa 4 dB verminderte Dynamik gegenüber der von den originalen Masterbändern produzier­ten LP bzw. deren 1: 1- Digitalisierung. Sehen Sie mal auf Seite 44/45 nach … Es soll Hörer geben, die dem Klangbild dieser lizensierten, dynamisch komprimierten Spezialveröffentlichung sogar eine deutlich erhöhte dynamische Bandbreite – beson­ders im feindynamischen Bereich – und auch weni­ger Schärfe im Klangbild attestieren; und es gibt in der Tat auch reichlich vermeintlich edel aufge­machtes Audioequipment, welches diesen klang­lichen Eindruck nähren könnte … Verantwortlich zeichnet für diesen Fehleindruck eher eine fehler­hafte reproduktionstechnische Limitierung inner­halb der in diesen „Hörfällen“ zum Einsatz kom­menden Abhörketten – und oft genug stellte sich der jeweils verwendete Lautsprecher als primärer Problempunkt dar. Unter Verwendung von wirk­lich highendiger Abhörtechnik wird eine derartige dynamische Bearbeitung des Tonmaterials sofort hörbar! Der Tonmeister ist bei seiner Arbeit aller­dings zwingend auf das genaue Hören der klang­lichen Aus- bzw. Rückwirkung seines Tuns angewiesen, und ähnlich wie ein Uhrmacher beim Zu­sammenbau eines komplexen mechanischen Uhr­werkes das passende Werkzeug und eine optisch richtig zeichnende Lupe für die korrekte Aus­führung seiner Arbeit benötigt, ist der Tonmeister insbesondere bei der Produktion von High-End-­Aufnahmen auf wirklich korrektes und die tat­sächliche klangliche Realität abbildendes Au­dioequipment angewiesen: Er muß die tatsächlich auf dem Masterband gespeicherte Toninfor­mation exakt, schnell und untrügerisch für seine Arbeitsausführung beurteilen können. Genau über derartiges Equipment abgehört, fällt die die Ge­samtdynamik einschränkende Berarbeitung jener sogenannten High-End-Remasterings dann auch sofort negativ auf! Mehr als schade, begann doch die wegweisende und sehr edle Aufmachung und Verpackung dieser Spezial-CD mit ihrem textilbe­schichteten Pappschuber und den kunststofflami­nierten Innenseiten dem Autor doch gerade be­sonders gut zu gefallen … Am Ende ist es tief be­dauerlich, daß die tonale Qualität des Lizenz­Remasterings offensichtlich nicht mit der wegwei­senden Verpackung und Optik mithalten kann.

Multichannel

Mono-Stereo-Surround: Das Hoffnungsformat Surround wird vielerorts von der Musikindustrie mit bedenklichen 5-Kanal-Simulationen gefüttert, die nichts von den klangästhetischen Chancen die­ses Formates mehr erahnen lassen, und deren Stereomix-Originale besser klingen als die oftmals preisgünstig hergestellten Mehrkanal-Zweitver­wertungen. Eine hochwertige und wirklich kreati­ve Produktion von echten Multikanalaudioauf­nahmen erfordert oftmals einen nicht unerheb­lichen zeitlichen Mehraufwand und damit weitere Kosten in einer Welt, die heute mehr denn je auf „kurzfristig denkende“ Kosteneffizienz getrimmt ist. Müssen oder können wir einen Beethoven oder Brahms sinnvoll mit echtem künstlerischen Mehrwert auf Multichannel „aufbrezeln“, oder bietet sich dafür nicht vielmehr der Bereich der modernen oder noch aktiven Komponisten für Multichannel-Musikaufnahmeprojekte an, in de­nen der Komponist von vorneherein „Multichannelbedürfnisse“ in seiner Partitur vorgesehen hat?

Und jedem Anfang wohnt ein Zauber inne, der uns beschützt. .. , bemerkte schon der Autor und Nobelpreisträger Hermann Hesse in seinem Stu­fen-Gedicht. Jeder wird sich an die Anfänge der Stereoaufnahmetechnik mit den bekannten und heute eher lustig wirkenden Stereo-Ping-Pong-Ef­fekten erinnern. Es wird noch einige Zeit lang ei­nen festen Willen zum weiteren experimentellen Umgang mit der dagegen jüngeren Materie Mul­tichannel erfordern, bis das Thema der Chancen und Möglichkeiten in aller Breite richtig begriffen werden kann. Daher darf einer neuen Technologie anfängliche „Fehlanwendungen bzw.Fehlverwen­dungen“ nicht pauschal angelastet werden. Es gibt heute bereits interessante Multichannelansätze aus dem Bereich der kleinen unabhängigen Label ­sowie aus Produktionen des öffentlich-rechtlichen Rundfunksektors – und es bleibt gespannt abzu­warten, für welche Musik- und Tonproduktionen Multichannel-Veröffentlichungen am Ende denn einen wirklichen künstlerischen Mehrwert darstel­len können.

Zur Misere des heutigen Musik-Geschäfts stellt sich die Frage, ob nicht durch die ausschließliche und scheinbar bedingungslose Anvisierung des Dollarzeichens seitens der Musikindustrie, die Mu­sikkultur, die Kunst und die Kreativität bereits großen Schaden genommen haben und deren Umsatz- und Gewinneinbußen nichts anderes als die konkrete monetäre Bezifferung dieses von ihr selbst verursachten Schadens darstellt … ? So bleibt es auch am Rande einmal zu hinterfragen, inwie­weit eine börsennotierte Aktiengesellschaft mit ih­rem vierteljährlichen „Quartalsergebnis- und Kennzahlenstreß“ in der Lage sein kann, ausrei­chende Freiräume zu ermöglichen, in denen wirk­lich kreativ-künstlerische Auseinandersetzung mit der Musik und deren Weiterentwicklung über­haupt stattfinden kann.

Abschließende Gedanken

In der gesamten hundertjährigen Geschichte der Tonaufzeichnung gab es nie zuvor potentiell der­art vielfältige Möglichkeiten zur kre1tiven Klang­gestaltung und Produktion wie heute. Fragen wir lieber, was es heute nicht mehr gibt, wenn am En­de der Produktion auf Wunsch der Musikindustrie und deren Manager das mühevoll ausbalancierte Klangbild nach aberwitzigem Einsatz von Ma­sterkompression und Brickwall-Limiting vollends zerstört wird … Als Lichtblick und Retter aus der für die Freunde klanglich und interpretato­risch rundum hochwertiger Musikproduktionen könnten sich in Zukunft die eher kleinen, unab­hängigen Spezial-Label und auch der öffentlich-­rechtliche Rundfunk erweisen, die sich dazu voll­ends der Qualitätsproduktion von Musik ver­schreiben sollten. Echte Kreativität ist und bleibt kein auf Knopfdruck abrufbares oder zeitlich fest einplanbares Gut. Gleichwohl könnten ordentli­che und sinnvolle Grundlagenbedingungen der Kreativität im positiven Sinne förderlich sein. Schlußendlich bleibt zu bemerken, daß es dem Menschen eigentlich schon seit vielen tausend Jahren bekannt sein müßte, daß am Ende nur das geerntet werden kann, was am Anfang zur Aussaat kam – und Bäume, die scheinbar bis unendlich in den Himmel wachsen, dürften auch auf Erden noch nicht erblickt worden sein.

Eine vielleicht häretische Anmerkung zum Schluß:

Dank für das Überleben und Verbreiten der Musik eines Vivaldi, Mozart oder Beethovens – um nur einige zu nennen – bis hin in unser heutiges Zeit­alter, ist in erster Linie Generationen von be­geisterten (und begeisternden!) Musikern, Orche­stern und deren Zuhörern zu zollen … und weni­ger der geschichtlich deutlich jüngeren Tonträge­rindustrie.

Veröffentlicht unter Digitale Audiotechnik | Verschlagwortet mit , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

Risiken und Chancen beim Einsatz von Computer- und Rechnertechnik bei der Aufnahme, Speicherung und Wiedergabe von Musik, Teil 1

 

 

Formschöne und zuverlässige Audio-PCs/DAWs von AudionetworX

Risiken und Chancen beim Einsatz von Computer- und Rechnertechnik bei der Aufnahme, Speicherung und Wiedergabe von Musik, Teil 1

PC und DAWs als Tonquelle

Schallplatte und CD gehören zwar zu den fest etablierten Kulturtonträgern, dennoch kündigen sich durch den technischen Fortschritt des Internets sowohl der PC- als auch der Rechnertechnik neue Möglichkeiten des Musikerwerbs an: Die Musikarchivierung und das Abspielen via Computer. Welchen Sinn respektive neue Möglichkeiten diese Technologien mit sich bringen können – aber auch welche Risiken dagegen stehen -, sollen in unserer Artikelserie genaue Betrachtung finden. Der vielerorts etwas oberflächlichen Mentalität der Betrachtung, die eher den Eindruck von ziellos im Winde flatternden Fahnen hinterlassen, statt dem Leser sachlich verwertbare und fundierte Aufklärung zu bieten, soll hier von vorneherein eine Absage erteilt werden.

Aller Anfang ist schwer

Am Anfang steht das Überspielen, im Fachjargon auch „rippen“ genannt, der eigenen CD-Sammlung auf den Massenspeicher des Rechners. Das kann eine klassische Festplatte (HDD) oder auch – moderner und langzeithaltbarer – eine sogenannte Solid State Disk (SSD) sein. Ideale Tonformate dazu wären WAV, AIFF und FLAC, die keine Datenreduktion des Musikmaterials beeinhalten und von einer Vielzahl von Audio-Software-Formaten auch standardmäßig verarbeitet werden können. Der Autor steht aber grundsätzlich herstellereigenen Formaten wie Apple Lossless oder auch MLP besonders in der Langzeitbetrachtung kritisch gegenüber. So werden Formate wie Apple Lossless, MLP oder auch AIFF derzeit nur von wenigen Netztwerkplayern abgespielt.

Höchste Ansprüche beim Rippen hinsichtlich der Korrektheit der überspielten Daten werden mit der kostenpflichtigen Software dB-Poweramp erfüllt. Sehr positiv ist, daß bei dieser Software eine Vielzahl von CD-Titeln automatisch über die professionelle AMG-Datenbank sicher erkannt werden. Dieses spart eine Menge Zeit, da sich dann manuelles Nacheditieren erübrigt. Allerdings zeigt die Datenbank trotzdem noch so manche partielle Lücke, insbesondere beim Rippen von älteren Klassik-CDs der DGG.

Kostenlos ist dagegen die Freeware Exact Audio-Copy über Internet-Download erhältlich. Die Qualität der Einleseresultate ist wie bei dB-Poweramp hervorragend, allerdings zeigt sich die automatische Titelerkennung weit weniger leistungsfähig als bei dB-Poweramp.

Als dritten im Bunde gibt es das sehr bekannte I-tunes. Das Programm bietet eine hervorragende Übersicht über die gerippten Medien und klingt schon recht gut. Die Formatunterstützung ist allerdings eher bescheiden. Die automatische Tag-Erkennung insbesondere der Cover kann man als mittelmäßig einstufen. Über die Importeinstellung des Programmes lassen sich dazu WAV, AIFF und Apple Lossless als verlustlose Formate anwählen. Die Qualität der Rippresultate erhöht sich hörbar, wenn im Menüpunkt „Importeinstellung“ der Haken bei „Fehlerkorrektur beim Lesen von Audio CDs“ gesetzt wird; allerdings verlangsamt dieses den Einlesevorgang der CD dramatisch.

Ein weiterer kostenloser Medienplayer ist Foobar 2000, dieser weist unter den Softwareplayern mit den besten Klang aus, ist aber mit seiner spartanischen Optik der Medienbibliothek mehr etwas für „Computerspezialisten“.

Zur Gruppe der reinen Datenbank-Verwaltungssoftware ohne Softwareplayer-Funktionen zählt der amerikanische Musik Collector Pro, der mit Hilfe eines mitgelieferten Barcode-Lesers via den heute auf Tonträgern aufgedruckten Barcode (EAN) über den Internetgroßhändler Amazon.com die Daten des Tonträgers automatisch in die Datenbank herunterlädt. Des weiteren erkennt dieser aber auch CDs durch Einlesen über das CD-ROM-Laufwerk des Computers.

Keller’s Musik-Katalog hingegen bringt die Datensätze von ca. 600.000 Tonträgern mit und kann gegebenenfalls weitere Datensätze über die herstellereigene KMK-Datenbank nachladen. Die Datenbank-Software nicht erkannter Alben müssen dagegen mühsam manuell angelegt werden. Allerdings bietet das Programm hinsichtlich der vorhandenen Editiermöglichkeiten erstklassige Quantifizierungsmöglichkeiten des Tonträgers.

Wer es dagegen klassisch mag, für den ist eine selbsterstellte Datenbank mittels Microsoft Excel und Access der Favorit. Letztere Lösung hat die größten und besten Möglichkeiten, da sich auch nachträglich neue Suchkriterien einfügen lassen. Allerdings stellt dieser Modus bei großen Musiksammlungen beinahe eine Lebensaufgabe in Form von stoisch auszuführender manueller Tipparbeit dar, da alle Daten zunächst komplett über Tastatur in die Datenbank übertragen werden müssen! Grundsätzlich ist anzuraten, nach dem Installieren der ersten Audio-Software auf Ihrem PC nicht gleich die komplette CD-Sammlung voreilig in Hundertereinheiten auf die Festplatte zu rippen, sondern sich zuerst mit den Editierungsmöglichkeiten der jeweiligen Software genauer auseinanderzusetzen sowie verschiedene Test zu unternehmen und insbesondere die konkrete Qualität der jeweils eingesetzten CD/DVD-Laufwerke als auch Rippsoftware zu überprüfen. Dazu ist es hilfreich, eine vorher gerippte „Probe-CD“ auf CD-Rohlinge verschiedener Qualitätsanbieter zu brennen und einen nachfolgenden Klangvergleich zwischen Original und Kopie zu unternehmen. Mit dem Rippen ganzer CD-Sammlungen sollte besser erst begonnen werden, wenn sich herausgestellt hat, daß das System auch praktisch klanglich 1:1 vernünftig arbeitet! Für welche Vorgehensweise und Archivierungsstrategie der Anwender sich am Ende entscheidet, bleibt diesem natürlich überlassen. Erste Möglichkeit wäre, tausende CDs aus der persönlichen Sammlung auf den Massenspeicher (Festplatte HDD oder Solid State Disk) des Gerätes komplett aufzuspielen (rippen), was einen nicht unerheblichen Zeitfaktor darstellt. Man kann aber auch nur jeweils die CDs überspielen, für die gerade ein „natürliches Wiederhörbedürfnis“ besteht. Auf jeden Fall sollte der Erfolg des automatischen Editierens nach jeder CD ebenfalls sorgfältig überprüft werden, da zuweilen nicht alle Meta-Daten die dort in Ihrer i-Tunes oder vielfach auf dezidierten Musikservern zum Einsatz kommende dB-Poweramp-Software geladen werden, immer zutreffend sind! Bedenken Sie, daß ein Wiederauffindungsversuch eines falsch editierten Songs oder Albums auf Ihrer Festplatte höchstwahrscheinlich ein beinahe aussichtsloses Unterfangen darstellen wird!

Hardware

Eines sei hier grundsätzlich am Anfang des Hardware-Teils genannt: Jeder Rechner oder auch spezialisierter Musikserver sollte, wenn dieser mit dem Internet verbunden ist, mit einer aktuell gehaltenen Firewall und Virenscanner ausgestattet sein! Ein Musikserver kann  im Aufbau ein klassischer PC oder auch ein spezielles, auf einen Zweck ausgerichtetes sogenanntes Embeded-System sein. Insbesondere bei der Anschaffung eines PCs für Audiozwecke ist es mehr als, sinnvoll gleich auf zertifizierte und für Audiozwecke speziell erprobte Systeme zurückzugreifen. Der Autor hat sowohl mit Dell Precision als auch insbesondere mit DAW-Workstations des Berliner Proaudio-Anbieters AudionetworX gute Erfahrungen gesammelt. Letztere Systeme sind in der Hard- und Softwarezusammenstellung vorher aufwendig speziell für Audiozwecke erprobt worden und harmonieren mit einer Vielzahl gängiger Pro-Audiosoftwaren sowie den wesentlichen externen USB/Firewire-A/D-D/A-Wandlern des Marktes ganz hervorragend, die sich gleichzeitig auch im Produktsortiment dieses Anbieters befinden. Die Referenzliste der Anwender ist lang und u.a. gehört auch Depeche Mode zum Kundenstamm von AudionetworX. Von spontan erworbener Kaufhausware rät der Autor im allgemeinen aber ab. Die Computertechnik schreitet unentwegt voran und PCs mit Touchscrean-Panel, die dank des neuen Betriebssystem Windows 7 problemlos integriert werden können, kosten nicht mehr die Welt und sind damit in bezahlbare Nähe für den Heimanwender gerückt. Erste Wahl für Audio-PCs ist dabei Windows XP SP3 Professional oder auch Windows 7 in der Professional- und Ultimate-Variante. Bei Neuanschaffungen sollte grundsätzlich auf eine dieser Windows-7-Versionen zurückgegriffen werden, da der Support von XP bei Microsoft langsam dem Ende zugeht.

Am Ende bleibt es natürlich dem Anwender überlassen, ob dieser eine reine PC/MAC-Lösung mit einem externen USB/Firewire-D/A-Wandler bevorzugt, oder sich einen „speziellen“ Musikserver anschafft. Wirklich notwendig ist solch ein dezidierter Musikserver allerdings nicht, und spätestens, wenn gerippte Musikinhalte des Musikservers nacheditiert werden müssen – was gar nicht einmal so selten vorkommen kann -, wird spätestens dann ein externer PC/MAC grundsätzlich dazu benötigt. Insbesondere bei externen USB/Firewire-D/A-Wandlern ist darauf zu achten, daß diese am besten mit einer Zusatzsoftware ausgeliefert werden, die insbesondere bei der wechselnden Ausgabe von Tonmaterial mit unterschiedlichen Samplingfrequenzen 44/88/96/192 kHz intelligent mit dem Betriebssystem des Rechners zusammenarbeiteten und dabei klangschädliche betriebssysteminterne Up- oder Downsamplings erfolgreich unterbinden!

Im Pro-Audio-Segment sorgen speziell passende ASIO-Treiber dafür, daß das Betriebssystem des Rechners keine klangschädliche Up- und Downsamplings durchführt. In diesem Zusammenhang wäre es nicht ungünstig, wenn Programmen wie i-Tunes die Möglichkeit mitgegeben werden würde – ähnlich wie bei Proaudio-Programmen schon lange Standard -, auch definitiv das jeweils für die Wiedergabe explizit zum Einsatz kommende Audiodevice manuell innerhalb der Software anwählen zu können, denn nur wenn alles Hand in Hand auch optimal zusammenarbeitet, können entsprechende Klangresultate erzielt werden. In dieser Hinsicht ist dieses mit der Integrationsmöglichkeit eines ASIO-Treibers in den Media Monkey Player bereits fortschrittlicher gelöst. Bei I-tunes benötigt man die dazu nach Meinung des Autors nicht gerade als preisgünstig zu bezeichnende Amarra-Software, die allerdings auch nur auf  Mac-Rechnern lauffähig ist. Diese kostet zwischen 295 US-Dollar für die Mini-Version und 995 US-Dollar für die Vollversion.

Bei Windows XP kann mit einer Freeware namens Reclock der sogenannte K-Mixer von Windows XP umgangen werden, der für ein klangschädliches Up- und Downsampling nicht selten verantwortlich ist. Wer nun zwischenzeitlich ein Bedürfnis nach einem alternativen Weg verspüren sollte, der könnte vielleicht am Ende dieser Zeilen „seine“ Lösung  finden…

CD/DVD-Laufwerke

Es gibt erhebliche Qualitätsunterschiede zwischen den am Markt derzeit erhältlichen CD/DVD-Laufwerken, die für den speziell auf Audiotechnik gerichteten Anwender von besonderem Interesse sind. In vielen Fällen wird man zu einer Mehrlaufwerke-Strategie greifen müssen, da es so gut wie kein Laufwerk gibt, welches beste Eigenschaften beim Einlesen und gleichzeitig beim Brennen von CD-Rohlingen und DVD-Rohlingen in sich vereint! Der Autor hat dahingehend mit den aktuellen BD-Combo-Laufwerken leider keine wirklich guten Erfahrungen gemacht. Für das Brennen von Audio-CDs bietet sich aus Erfahrung des Autors derzeit das LiteOn iHAS324 und der externe USB-Brenner LG 20 GE NU10 EE05 an. Brenner wie der bekannte Plextor Premium 2 glänzen gleichfalls mit ausgezeichneten Resultaten, sind aber durch die mittlerweile veraltete IDE-Schnittstelle in aktuellen Rechnern nicht mehr so recht zu gebrauchen. Der externe USB Brenner LG20 GE NU 10 EE05 brennt CD-Medien auch heute noch in 4- und 8-fach Tempo, welches insbesondere der Qualität von Audio-CDs sehr zuträglich ist. Die beste Qualität wurde mit letztgenanntem CD/DVD-Brenner bei 8-facher Brenngeschwindigkeit unter Verwendung von JVC-CD-Rohlingen erzielt. Der DC-Jitter lag dabei auf dem Niveau der Original-CD, und die auditive Unterscheidung fiel am Ende selbst über „amtliches“ Wiedergabeequipment sehr schwer. Die meisten anderen Brenner boten beim Erstellen von CD-Audio-Medien keine Geschwindigkeiten unterhalb 16x an – und der dabei auftretende DC-Jitter bewegte sich deutlich oberhalb der Werte der Original-CD! Empfohlen sei grundsätzlich die Verwendung von Tayo-Yuden-CD-Rohlingen, die, derzeit als JVC-Rohling bezeichnet, im Pro-Fachhandel erhältlich sind. An dieser Stelle möchte der Autor zur besseren Verdeutlichung der Qualität von Rippresultaten noch auf  einen hilfreichen Link verweisen. Derartige Resulte konnte der Autor auch mit einem handelsüblichen PC und sorgfältiger Auswahl der Laufwerke und Software erzielen. Als Software auf dem PC kam dabei dB Poweramp zum Einsatz die übrigens auch von den RipNAS Stationen verwendet wird.

http://www.ripnas.com/secure.html

http://forum.dbpoweramp.com/showthread.php?t=17274

http://www.dbpoweramp.com/

Das Brennen von High-Resolution-Audiodateien auf DVD-Rohlinge erledigte zufriedenstellend der Pioneer DVR-216D. Eine Anschaffung des CD/DVD-Brenners Plextor PX 880SA bietet sich insbesondere an, da mit diesem Brenner mit Hilfe der beiliegenden Software PlexUtilities die Qualität der zu erstellenden CD/DVD-Medien sehr effektiv kontrolliert und eingeschätzt werden kann. Mit dieser Software lassen sich Tendenzen „besser/schlechter“ der Brennqualität erstaunlich sicher ermitteln. In diskrete Zahlenwerten gefaßte, absolut amtliche Meßresultate lassen sich u.a. dagegen nur mit dem mehr als 100.000 Euro kostenden CATS-Meßsystem ermitteln!

Empfehlenswerte DVD-Rohlinge wären zu den genannten Brennern Verbatim DVD+R Gold Archival 8X und JVC DVD-R 16X TYG03.Für das Rippen von Audio-CDs eignet sich besonders der OptiArc AD-7240S. Die Laufwerke liegen vielfach unterhalb 40 Euro pro Stück.

Optische Speicher

Als optische Speicher bieten sich beschreibbare CD und DVD Rohlinge an; einige wurden bereits genannt. Für hochwertige Anwendungen sollte besser von Kaufhausrohlingen Abstand genommen werden. Der Autor hat sehr gute Erfahrung mit folgenden Rohlingtypen gemacht: JVC CD-Rohling CDR 48X (Tayo Yuden), Verbatim DVD+R Gold Archival 8x, JVC DVD-R 16X (TYG03). Dabei handelt es sich um Qualitätsrohlinge, die von dem explizit genannten Hersteller in eigener Fabrikation gefertigt werden und den jeweils für das Trägerformat festgelegten Spezifikationen auch tatsächlich entsprechen. Die Vielzahl der sogenannten Kaufhausrohlinge stammt hingegen von OEM-Herstellern und wird lediglich unter dem Handelsnamen der jeweiligen Verkaufsorganisation vertrieben.

Fortsetzung folgt

Veröffentlicht unter DAWs und PCs im Dienste der Musik | Verschlagwortet mit , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,

Stereophonie bei der RRG (Reichsrundfunkgesellschaft)

Stereophonie bei der RRG

Im Gedenken an die Stereo-Pioniere der Reichsrundfunkgesellschaft

Schon Anfang der 30er Jahre liefen nicht nur in Deutschland Anstrengungen, ein raumplastisches Aufnahmeverfahren zu entwickeln und anzuwenden. Das enge Monofenster in der Wiedergabe sollte buchstäblich durchstoßen und aufgeweitet werden. Mit dem Beginn der 30er Jahre arbeiteten Alan Dower Blumlein bei der EMI sowie A. C. Keller und I. S. Rafuse bei den Bell Laboratories mit theoretischen und praktischen Versuchen an der Stereoaufnahmetechnik. So gelang bereits dem Team um Keller mit Leopold Stokowski und dem Philadelphia Orchestra im Dezember 1931 und März 1932 – sowie der EMI im Jahre 1934 mit der Aufnahme von Mozarts 41. Symphonie unter Sir Thomas Beecham – jeweils eine echte Stereoaufnahme. Bereits im Jahre 1931 ließ sich Alan D. Blumlein die Zwei-Komponenten-Schrift für die Stereoplatte patentieren. Es war die Kombination aus Edisons Tiefenschriftverfahren von 1877 mit vertikaler Auslenkung der Graviernadel und Emil Berliners Seitenschriftverfahren aus dem Jahre 1887 mit horizontaler Auslenkung der Graviernadel. Die Kombination aus beiden Schriften sollte bereits das auch heute noch verwendete Stereoschriftverfahren der Langspielplatte bilden.

Ein großes Problem seinerzeit war die absolut synchrone Aufzeichnung der zwei Kanäle, die man für das raumplastische Aufnahmeverfahren benötigte. Nach der Entwicklung des Magnetophons und Eduard Schüllers Zwillingskopf, der allerdings ursprünglich für die Aufteilung des Frequenzbereiches auf zwei Spuren konstruiert wurde, um die Dynamik der Bandaufzeichnung zu verbessern, kam nun dieser Zwillingskopf für die Stereoaufnahmen der RRG noch einmal zum Einsatz. Der Zwillingskopf hatte eine 1mm breite Trennspur zwischen den jeweils 2,75mm breiten Tonspuren. Die beiden Einzelköpfe wurden durch ein Kupfer- und Messingblech zwecks Verbesserung der Übersprechdämpfung der beiden Kanäle voneinander abgeschirmt. Ab Januar 1943 wurden dann bei der RRG von den Toningenieuren Helmut Krüger und Dr. Ludwig Heck Stereoaufnahmen für Archivzwecke gefertigt. Welch eine wahrlich kühne Vision – stand doch nicht einmal auf der Abspielseite für den Privatbedarf  Stereoequipment, geschweige denn ein Trägermedium zur Verfügung! Die Stereoschallplatte sollte erst 1958 den Markt erobern.

Welche Magnetophonvarianten bei den o.g. Aufnahmen Verwendung fanden, ist nur lückenhaft dokumentiert. Vermutlich wurden Standardgeräte vom Typ R 22 und R 22a mit paarweise eingesetzten V 5-Wiedergabe- und V7b-Aufnahmeverstärkern eingesetzt. Im Verstärkerlabor der RRG wurden aber auch zu jener Zeit zweikanalige Aufnahme- mit einem gemeinsamen HF-Generator und Wiedergabeverstärker mit jeweils eigenem Netzteil entwickelt. Das hatte den Vorteil gegenüber dem Einsatz von jeweils einem eigenen HF-Generator pro Kanal, daß nun bei einer geringfügigen Verstimmung der HF-Generatorfrequenz keine unangenehmen Pfeiftöne mehr entstehen konnten. Die Löschfrequenz lag bei 60 kHz.

Abgehört wurden diese Aufnahmen über zwei separate Breitbandlautsprecher mit der Braunbuchbezeichnung O 15/15a, die kurz zuvor von dem RRG-Ingenieur Hans Eckmiller  entwickelt wurden. An Microphonen wurde dazu das bekannte Neumann CMV 3 mit seiner noch Jahrzehnte später eingesetzten Kapsel M 7 verwendet. Bis zum Herbst 1944 sollen nach Angaben von Helmut Krüger etwa 250 Stereoaufnahmen gefertigt worden sein. Darunter die Opern Romeo und Julia, Margarete, Tosca, Tannhäuser und der Meistersinger jeweils in Bayreuth 1943 unter Hermann Abendroth und 1944 unter Wilhelm Furtwängler. Als die alliierten Luftangriffe auf Berlin 1944 verstärkt wurden, verlegte man das Zentrallabor der RRG nach Kosten im Wartheland. Hans Joachim von Braunmühl, der spätere Chef des SWF, veranstaltete dort noch Musikabende für die Ärzte eines nahegelegenen Lazarettes. An dieser Stelle verlieren sich nun bis zum heutigen Tage die Spuren der Stereobänder und der eingesetzten Geräte der RRG. Nur fünf Stereoaufnahmen der RRG überlebten vermutlich die Wirren der letzten Kriegstage – und wie das Bernsteinzimmer werden sie sicher für immer verloren bleiben, was wohl ebenfalls zu den schwersten kulturellen Verlusten des Zweiten Weltkrieges gezählt werden kann.

Auf verschlungenen Wegen erreichte vor einiger Zeit den Autor dieser Artikelserie eine Kopie des Finalsatzes aus Bruckners 8. Sinfonie, die im September 1944 mit der Staatskapelle unter Herbert von Karajan im Sendesaal 1 an der Masurenallee von der RRG  in Stereo aufgezeichnet wurde, während die ersten drei Sätze aus den Aufnahmesitzungen Juni/Juli 1944 leider nur in Mono vorliegen. Die Aufnahmequalität dieser Stereoaufnahme ist atemberaubend gut und die machtvolle Interpretation Karajans des Brucknerschen Finalsatzes spricht dabei für sich. In einem Brief an seine Mutter aus dem Juli 1944 schrieb er:  „… es wäre jetzt die Zeit gekommen, wo man sich von der Last der irdischen Dinge befreien und Musik wieder auf die geistigen Höhen bringen solle, von denen sie gekommen sei“. Genau diese Absicht und das Bestreben, so scheint es, ist Karajan wohl noch einmal durch den Kopf gegangen, als er im September des gleichen Jahres zu dieser gewaltigen Interpretation des Brucknerschen Finalsatzes fand. Die Stimmung des Finalsatzes kann man als ehrfurchterbietend und gleichzeitig durchtränkt von unerschütterlicher Ruhe bezeichnen. Sie ist ein Zeugnis der enormen Selbstbeherrschungskräfte, zu denen Karajan in der Lage war. Hans Fritsche, der Leiter der Rundfunkabteilung im damaligen Propagandaministerium, wäre vielleicht gut beraten gewesen, wenn er den trickreichen Bestrebungen Karajans nach einer Neuaufnahme der ersten drei Sätze aus Bruckners 8. Sinfonie – diesmal in Stereo – zugestimmt hätte. Wie dem auch immer sei und was alles gewesen wäre wenn – ich halte es auf jeden Fall beim Hören dieses Finalsatzes, insbesondere der Anfangspassage, für nicht unmöglich, daß bei so manchem erfahrenen Hörer angesichts dieser 65 Jahre alten Aufzeichnung schlicht und spontan die Kinnlade nach unten klappen würde…

Kurz vor dieser Aufnahme in Berlin hatte Karajan noch ein denkwürdiges Erlebnis in der Krypta von St. Florian/Österreich, einem Kloster bei Linz, das nach dem Willen Hitlers der ein Liebhaber der Musik Bruckners war, in einen Brucknerschrein verwandelt werden sollte-ähnlich wie Bayreuth für Wagner stand. Nach einer Probe der 8. Sinfonie für ein Konzert vor den höchsten Vertretern des Reiches ging der Reichsrundfunkangestellte und Leiter des Projektes „Linzer Reichs-Bruckner-Orchester“ Heinrich Glasmeier mit ihm in die Krypta des Klosters, wo die sterblichen Überreste Bruckners bestattet sind. “Sie befinden sich jetzt genau unter der Stelle, wo das Orchester spielen wird“, sagte der Mann. “Bruckner hat seine 8. Sinfonie niemals selber hören können (was nicht stimmt, Anm. d. Autors). Sie haben nun die Möglichkeit, sie für ihn zu spielen. Ich lasse sie jetzt zehn Minuten mit ihm allein.“ Er schloß die Tür und ließ Karajan dort im Dunkeln zurück. Mit der Ausstrahlung der 7. Sinfonie Bruckners-Hitlers Lieblingsinfonie- als letzte Sendung der Reichsrundfunkgesellschaft endete wenige Monate später die Geschichte des Deutschen Reiches und der Zweite Weltkrieg.

Letzte Absage des RRG Sprecher Richard Baier am 2. Mai1945

Der russische Funkkommandant Oberst Popow besetzt am 2. Mai 1945 das Funkhaus mit 200 Soldaten ohne auf Widerstand zu stoßen. Popow hatte von 1931-33 selbst im Funkhaus als Techniker gearbeitet und es noch im Mai 1941 als Mitglied einer sowjetischen Delegation besichtigt.

An dieser Stelle ein weiterer interessanter Link zur Rolle des Rundfunks während des Nationalsozialismus:

http://www.dra.de/rundfunkgeschichte/radiogeschichte/pdf/favre_aufsatz.pdf


Veröffentlicht unter Historische Tontechnik | Verschlagwortet mit , , , , , , , , , , , , , | Kommentar hinterlassen

Geschichte der Tonaufzeichnung Teil 4

Geschichte der Tonaufzeichnung, letzter Teil

Zum Abschluß dieser Artikelserie sollen die Vorgänge gegen Ende des Zweiten Weltkrieges sowie jene des Neubeginns in den späten 1940er-Jahren betrachtet werden. In Stichworten stellen wir schließlich das Ende der professionellen analogen Tonaufzeichnung dar, schließen auf diese Weise den Kreis zu den Ausführungen aus Teil 1.

Genoton Gendorf/Oberbayern

Die Magnetbandproduktion in Gendorf/ Oberbayern liegt in der Verlagerung der Ludwigshafener Luvithermanlage des Jahres 1944 begründet. Man wollte damals die Magnetbandproduktion vor den zunehmenden alliierten Luftangriffen auf die BASF in Ludwigshafen schützen. Im Januar 1946 wurde dann die Magnetbandfabrik, die das Magnetophonband Typ L produzierte, vorerst stillgelegt.

Ab Anfang 1949 wurde mit der Produktion des Massebandes Genoton Typ E wieder begonnen. Hintergrund der Reaktivierung der Genoton war das bizonale Abkommen, den Bandbedarf in der jeweiligen Besatzungszone selbst decken zu können. Die Produktion in Ludwigshafen und Wald Michelbach wurde komplett von der französischen Besatzungsmacht in Anspruch genommen; die Lieferungen aus Wolfen (SBZ) galten vor dem politischen Hintergrund der Nachkriegszeit als nicht sicher genug. Zudem ließ eine Explosion bei der BASF im Juli 1948, von dem der Magnetophonbandbetrieb betroffen war, die Lieferfähigkeit weiter verschlechtern. Die Qualität der Bänder aus der frühen BASF-Nachkriegsproduktion konnte man – vorsichtig formuliert – als nicht unproblematisch einstufen. Nachdem es der BASF gelang, mit dem Magnetophonband Typ L-extra und LG ein Konkurrenzprodukt zu plazieren, reagierte man bei der Genoton mit dem verbesserten Genoton Typ EN. Das Genoton EN-Masseband war bis Anfang 1956, als die Gendorfer Magnetbandproduktion endete, beim deutschen Rundfunk ein sehr beliebtes Magnetband – schon alleine deshalb, weil das Ludwigshafener L-extra Schmierneigungen aufwies. Bis dahin deckte die Gendorfer Produktion den halben deutschen Rundfunkbedarf an Bändern. Es wurden der ORF, BR, RIAS und SFB beliefert.

AGFA

Auch die Aufnahme der Magnetbandproduktion bei AGFA in Leverkusen wurde durch das bizonale Abkommen zwischen den britischen und amerikanischen Besatzungsmächten gefördert, um den Bandbedarf in der jeweiligen Besatzungszone autark sicherstellen zu können. Bei AGFA als Filmfabrikant waren die Umstände dazu günstig, da man bereits auf eine breite Erfahrung in der Beschichtungstechnologie aus der Filmproduktion zurückgreifen konnte, und so wurde 1948 unter der Anleitung von Rudolf Engelhardt, der von der Filmfabrik Wolfen zu AGFA gekommen war, die Magnetbandproduktion aufgenommen. Die notwendigen feinteiligen kubischen Eisenoxide kamen aus dem Bayerwerk Uerdingen. In den ersten Jahren setzte man als Trägermaterial Zelluloseacetat ein, welches sehr präzise herzustellen war. Als Beschichtungslack verwendete man die hervorragenden DD-Lacke (Desmodur-Desmophen) ein, die als äußerst abriebfest galten. Das Magnetband Typ F wurde 1950 vom RTI zum ersten Normal- und Testband erklärt.

Ab 1951 wurde der weiterentwickelte Band Typ FS produziert, der für die Bandgeschwindigkeit von 38,1 cm/s vorgesehen war. Ab Mitte 1954 wurde mit dem deutlich reißfesteren Bandtyp FSP auf PVC-Trägermaterial umgestellt; das Trägermaterial dafür wurde von der Firma Kalle bezogen. Für die Bandtypen FS und FSP verwendete man weiterentwickelte kobaltdotierte kubische Pigmente. Während der Typ F eine Koerzitivität von 160 Oersted besaß, konnten die Bandtypen FS und FSP mit Koerzitivitätswerten von 300 – 320 Oersted aufwarten. Die Entwicklung eines Magnetbandes mit hoher Koerzitivität ist eine Grundvorrausetzung gewesen, um überhaupt bei 38,1 cm/s eine zufriedenstellende Tonqualität verwirklichen zu können. Aufgrund der rauhen Rückseite des Zelluloseacetatträgers liefen diese Bänder auch auf den schnellspulenden Bandmaschinen T 8 und T 9 problemlos, zudem entstanden keine aus dem Wickel herausstehenden Bandkanten, die im Betrieb die gefürchteten Knickbrüche verursachten. Das von AGFA verwendete kubische Pigment verlor allerdings beim Umlauf über eine schlanke Führungsrolle im Bereich der hohen Frequenzen 2 – 3 dB an Pegel. Die fehlenden Höhen führten in der Folge zu einem etwas dumpferen Klangbild.

Ende 1955 folgte mit dem Bandtyp FR 6  die Reaktion auf diese Schwäche des Vorgängerbandtyps. Das Bayerwerk Uerdingen lieferte dazu ein verbessertes nadelförmiges Oxid, das in Mischung mit dem kubischen Oxid eingesetzt wurde. Das in FR 4 umbenannte Band verblieb bis 1965 im AGFA-Bandsortiment. Einen Streich aber sollte jener in der Entwicklung und Herstellung hochkoerzitiver Bänder sonst äußerst bewährte DD-Lack der AGFA noch spielen: Man erkannte, daß das vorgerichtete nadelförmige Eisenoxid für die Herstellung hochkoerzititiver Bänder von entscheidender Bedeutung war. Dazu wurde, während der DD-Lack noch nicht ganz auspolymerisiert war, das Band durch eine Magnetstrecke gefahren, die das nadelförmige Eisenoxid in Bandlaufrichtung ausrichten sollte – doch die molekularen Kräfte des DD-Lackes wirbelten beim Auspolymerisieren die Ausrichtung der nadelförmigen Kristalle wieder durcheinander. Dieses Problem sollte bei AGFA erst mit dem 1963 eingeführten Bandtyp PER 525 vollends gelöst werden.

Die Mitte bis Ende der 50er Jahre aufkommende Mehrspurtechnik – mit ihren schmaleren Spurbreiten pro Aufnahmekanal – erforderten aber dringend höherausteuerbare Bandtypen, um den Dynamikverlust auffangen zu können. AGFA behalf sich mit der Herstellung der sogenannten Dickschichtbänder vom Typ FR 22, die im Vergleich zu den bisherigen FR-6 Typen eine von 15 Mikrometer auf 25 Mikrometer verstärkte Magnetschicht aufwiesen. Mit diesem Bandtyp konnte auf Ein-Zoll-Band vierspurig fast die gleiche Dynamik aufgezeichnet werden wie vormals mit einer Vollspuraufzeichnung auf Viertel-Zoll-Band!

Seit 1956 schließlich stellte AGFA das europaweit erste Magnetband auf Polyesterbasis her. Das war möglich geworden, weil die Hoechst-Tochter Kalle mit der lizensierten Hostaphon-Folie preisgünstig eine Polyesterfolie anbieten konnte. Schon seit 1953 produzierte Scotch mit dem Typ 102 und der von Du Pont gelieferten PE-Folie „Mylar“ bereits Bänder auf PE-Basis. 1961 sollte AGFA mit dem Bandtyp PER (mit noch ungerichtetem Pigment) das erste Rundfunk- und Studioband der Welt auf PE-Basis produzieren. Das FR 22 wurde zum PE 22, gefolgt von PER 555, welches von 1963 – 1973 produziert wurde und die 55-Mikrometer-Variante des PER 525 darstellte. Diese Entwicklung führte zu Bändern mittlerer Schichtstärke, die über den gesamten Aufzeichnungsbereich eine höhere Aussteuerung zuließen.

Im Jahre 1965 wurde die Charge 077B des Bandtyps PER 525 zum Bezugsleerbandteil vom DIN-Normausschuß bestimmt. Der Rundfunk bezog nun gleichteilig den Bandtyp PER 525 von AGFA und den Bandtyp LGR von der BASF. Die Einführung des Stereobetriebs beim Rundfunk forderte die AGFA weiter, die ab 1967 das um 4,1 dB höher aussteuerbare PER 525 Stereo bis 1981 für den Rundfunk produzierte. Auch beim Bandtyp PER 525 sollte es der AGFA wieder gelingen, das Referenzleerbandteil zu stellen. Auch im Bereich der Studiobänder mußte AGFA auf den Ludwigshafener Konkurrenten BASF und seinen Bandtyp SPR 50LH reagieren und produzierte seit 1975 dafür das PEM 468, welches 2 dB weniger rauschte und um 3 dB über den gesamten Frequenzbereich höher aussteuerbar war und zudem die hohe Kopierdämpfung von 58 dB aufwies. Im Bereich der Rundfunkbänder mußte AGFA auf das BASF LGR 50 reagieren, das mit neuen, verbesserten Parametern daherkam und modifizierte dazu das PEM 468 auf die Bedingungen des Rundfunkeinsatzes. Interessanterweise mußte  nun für eine Kompatibilität zum BASF LGR 50 das Bayer-Pigment des PEM 468, das eine höhere Koerzitivität besaß als das von BASF verwendete Pigment des LGR 50, mit dem BASF-Pigment vermischt werden. Daraus entstand schließlich der bekannteste und erfolgreichste Rundfunkbandtyp Europas: das PER 528.

Die Endzeit der analogen Bandaufzeichnung

Anfang 1991 wurden die Magnetbandaktivitäten der BASF und der AGFA Gevaert AG Leverkusen zusammengeführt. 1992 erfolgte eine Sortimentsstraffung. Das Studio Master (PEM ) 469 wurde zugunsten des Studio Master 911 eingestellt, während das Studiomaster (PEM) 468 im Lieferprogramm verblieb. Bis zum Ende der BASF Magnetics GmbH im Jahre 1996 wurden für den Rundfunk beide Bandtypen, LGR 50 und PER 528, weiter produziert. Aufgrund der Umstellung des Rundfunks auf die Digitaltechnik – und der darauf erfolgenden Schrumpfung des Magnetbandbedarfs – blieb am Ende nur das PER 528 im Sortiment übrig. Last but not least wollte man noch einmal zeigen, zu was man in der Lage war, und produzierte für den privaten Studiosektor ab 1994 das Studio Master 900 maxima, welches eine eigentlich überfällige Antwort auf das bereits 1990 erschienene Ampex 499 Grand Master Gold und Scotch 996 darstellte. Die Tiefenaussteuerbarkeit dieses Bandes lag bei +15,5 dB (zum Vergleich: BASF LGR 1961 +5 dB) und einer Dynamik von 78,5 dB bei einer Kopierdämpfung von 55,5 dB. Diese ultimativen Parameter konnten nur noch unter Einsatz der Zweischicht-Technologie und der gekonnten Mischung bzw. Kombination mit zugekauften Pigmenten erreicht werden. Bei 38,1 cm/s und 76,2 cm/s Bandgeschwindigkeit wurden so ein der CD nahenliegender Dynamikwert von 84 dB erreicht. Das Studio Master 900 maxima setzte damit den Schlußpunkt unter eine mehr als sechzigjährige Geschichte der Magnetbandentwicklung für die Tonaufzeichnung.

Interessante Punkte aus Magnetbandentwicklung und -Verwendung

Juli 1962: Größere Überspielaktionen beim Rundfunk von 76,2 cm/s auf 38,1 cm/s.

März 1964: Zunehmende Verbreitung der Mehrspurmaschinen bei der ARD. Sonderentzerrung mit Anhebung bei 4 kHz sollten Rauschverluste aufgrund schmalerer Tonaufzeichnungsspuren kompensieren.

Juli 1972: Anlaufen der Mehrspur-Technik mit zwei Zoll breitem Magnetband.

September 1975: „Wiederentdeckung“ der Bandgeschwindigkeit 76,2 cm/s für die Mehrspurtechnik im speziellen für 24- und 32-Spur-Aufnahmen zur Kompensation der Rauschverluste infolge relativ schmaler Spurbreiten und voller Ausnutzung der Höhenaufzeichnungsfähigkeit bei Bändern der Generation BASF SPR 50 LH.

Schlußwort

Die analoge Aufnahmetechnik erlebte zwischen 1955 und 1990 Höhepunkt und Blütezeit. Mit dem Ende der Magnetbandtechnologie, entwickelt von genialen Köpfen, ging unersetzliches Wissen verloren. Das Wirken großer Künstler ihrer jeweiligen Zeit wurde auf Tonband aufgezeichnet der Nachwelt hinterlassen, Aufzeichnungen in einer künstlerischen Qualität, die bis heute zum Teil unübertroffen sind. Die letzten analogen Bandmaschinen professioneller Herkunft- gemeint sind damit insbesondere Boliden wie die Telefunken M 15, Studer A 80, Studer A820/27, Ampex MM 1200 oder Scotch 3M79, erreichten mit Hilfe der Kompandertechnik wie Telcom C4 und Dolby 361 bereits „digitale“ Störabstandswerte. Nichtsdestotrotz will der Autor die Realitäten der Vergangenheit nicht verklären und jeder, der den Wartungsaufwand beispielsweise einer analogen 16- oder 24-Spur Bandmaschine kennengelernt hat, weiß, welch einen tagesfüllenden Arbeitsaufwand es bedeuten konnte, diese in regelmäßig wiederholenden Abständen neu einzumessen. Die Faszination der analogen Bandaufzeichnung besteht weiterhin und viele namhafte Tonstudios behalten sich bis heute die Möglichkeit vor, auf Kundenwunsch auch künftig Aufnahmeprojekte via „Tape“ fertigen zu können. Nicht selten werden heute noch die Drum-Spuren eines ansonsten digitalen Aufnahmeprojektes über Tape geroutet, um diese mit jenem Sättigungssound zu veredeln, der unseren Ohren auch heute  noch zu schmeicheln scheint. Das Rad der Zeit dreht sich unentwegt weiter und für die versierten Tonschaffenden heutiger Zeiten stellt sich nicht mehr generell dogmatisch die Frage, ob digital oder analog, sondern jene der gekonnten Verschmelzung des besten aus beiden Welten in der täglichen Studio- und Projektarbeit. Trotz aller Erleichterungen, die der technische Fortschritt in den vergangenen 25 Jahren in der Studiowelt auch mit sich brachte und heute praktisch Dinge möglich macht, die vormals schier undenkbar oder technisch kaum umsetzbar waren, stellt sich heute vielfach eher die Frage, auf welche „Tools“ und Bearbeitungsmöglichkeiten man verzichten könnte oder besser sollte, damit eine Produktion vom ersten Akkord an unbelastet und gekonnt gestaltet wird. Die Digitalsierung hat nicht den Klang entscheidend verbessert, sondern die Bearbeitung von Aufnahmen vereinfacht oder um bedenkliche „Ultramiximizer“ DAW-Tools erweitert, mit denen es möglich ist, die Restdynamik einer Musikaufnahme – sehr zum klanglichen Schaden dieser – auf gerade einmal 5dB zusammenzupressen … und das ist der eigentliche „Fortschritt“, der sich durch die Digitaltechnik sicher ausmachen läßt. Diese Artikelserie soll mit einem nachdenklich stimmenden und zugleich mahnenden Zitat von Karl-Hermann von Behren beschlossen werden, der einmal sinnig schrieb: „Wer in Zukunft nur noch mit der Maus wild herumklickt und irgendetwas erzeugt, von dem er gar nicht wissen will, wie es zustande kommt, ist leider nur ein kreativer Anfänger in einer Welt, in der es alles schon einmal gab – auch Fachleute.“

An dieser Stelle noch ein paar interessante Verweise zu den Hit-Maschinen vergangener Zeiten:

:

http://www.studer.ch/support/videos.aspx?vid=155990

http://www.studer.ch/support/videos.aspx?vid=156002

http://www.studer.ch/support/videos.aspx?vid=156002

In technischen Fragen als auch bei Instandsetzungsarbeiten alter Masterbandmaschinen empfiehlt der Autor folgende Adresse:

HILPERT TONSTUDIOTECHNIK
Inh.: Dipl. Ing. Kai Hilpert-Köppinghoff
Brookstieg 5
Einheit 3
22145 Stapelfeld / Braak
(Bei Hamburg, direkt an der Autobahn A1)

Fon: +49 40 64492444
Fax: +49 40 64492446
Emailhilpert@hilpert-audio.de

http://www.hilpert-audio.de/


Veröffentlicht unter Historische Tontechnik | Verschlagwortet mit , , , , , , , , , , , , , , , , , , | Kommentar hinterlassen

Geschichte der Tonaufzeichnug Teil 3

Tonstudiotechnik

Geschichte der Tonaufzeichnung, Teil 3

Nachdem im vorangegangenen Teil die Entwicklung der Trägermaterialien thematisiert wurde, wenden wir uns nun dem Gesamtkomplex „Tonband“ zu, betrachten die wichtigsten Grundlagen und Forschungen sowie die praktischen Ergebnisse.

Die Herstellung und elektroakustischen Eigenschaften des Magnetbandes

Wie bereits im ersten Teil der Artikelserie erwähnt, nahm die Entwicklung des Magnetbandes in Deutschland seinen Anfang. Die Weiterentwicklung bei der I.G. Farben Industrie AG führte zur zwei Bandtypen: dem Masseband Typ L auf PVC-Basis und dem Schichtband Typ C auf Acetylcellulose-Basis. Als magnetisierbare Substanz wurde Eisenoxidpulver verwendet. Nach dem Freiwerden der Patente nach dem zweiten Weltkrieg wurde – im Zuge der internationalen Durchsetzung des Magentophons zur Schallaufzeichnung und dem enormen Anwachsen des Magnetbandbedarfs – die Weltproduktion von etwa 20 Firmen aufgenommen. Im Laufe der 50er Jahre begann neben der Schallaufzeichnung auf Magnetband auch eine weitere Anwendung des Magnetbandes als Bild- und Impulspeicher für technisch-wissenschaftliche sowie die elektronische Datenverarbeitung an Bedeutung zu gewinnen. Das Magnetband als Meßwertspeicher mit stetiger Erhöhung der Speichervolumendichte rückte in den Mittelpunkt der Magnetbandentwicklung. Durch die Entwicklung des Multiplex-Verfahrens und Parallelaufzeichnung von bis zu 14 Spuren nebeneinander wurde es möglich, vielzahlige Meßwerte eines einmaligen und kostspieligen Ereignisses, wie z.B. den Start einer Rakete, aufzunehmen. Man denke an die forcierte Entwicklung von Raketen ab den 50er Jahren für das Militär und die Raumfahrt. Durch die Möglichkeit der Veränderung der Bandgeschwindigkeit konnten Ereignisse in einen Frequenzbereich transformiert werden, für den Analysatoren zur Verfügung standen.

Bei Spezialgeräten mit schmalen Spurbreiten und kleinen Wellenlängen zur Impulsaufzeichnung können Oberflächenfehler einzelne Impulse völlig unterdrücken. Das Ziel war es, hierzu „perfekte“ Bandsorten für den Instrumentensektor zu entwickeln und herzustellen. Die Fabrikationsmethode wich aber von der Herstellung normaler Tonbänder erheblich ab. Sowohl Rechenautomaten und deren Datenspeicherung als auch die Bildaufzeichnung erforderten deutlich leistungsfähigere und andersartige Bandsorten als bisher für die Schallaufzeichnung entwickelt.

Man bedenke, daß ein Oberflächenfehler, der eine Abstandsänderung zwischen Kopf und Magnetschicht von 1 Mikrometer bei einer Wellenlänge von 5 Mikrometer einen Pegeleinbruch von rund 10 dB erzeugt, der z.B. im Fernsehbild einen weißen Punkt bewirken würde. Die Relativgeschwindigkeit bei der Ampex-Videoaufzeichnung zwischen Kopf und Band betrug 40 m/s (!) – und dabei mußte das Band fest an den Kopf gedrückt werden, was eine außergewöhnlich hohe mechanische Beanspruchung der Schichtoberfläche bedeutete und zur Entwicklung von hochabriebfesten Bandsorten führte, die aber gleichzeitig die Köpfe nicht verschmieren durften. Harte Schichtoberflächen fördern den Staubabrieb, während weichere Oberflächen dem entgegenwirken, aber zum Verschmieren der Köpfe führen können. Als Trägermaterial für die neuen Spezialgebiete, und später auch auch für die Tonaufzeichnung, setzte sich Polyethylen durch, welches hohe Reißfestigkeit bei gleichzeitig hoher Schmiegsamkeit an die Köpfe gewährleistete. Als Beschichtungsmaterial setzte sich ausnahmslos das Gamma-Fe2O3 für Magnetbänder durch, da bereits seit den frühen 40er Jahren das schwarze Eisenoxid Fe3O4 (Magnetit) sich als weniger gut geeignet herausstellte. Die Koerzitivkraft wird bei reinen Eisenoxiden durch deren Kristallgröße und -gestalt bestimmt. Es wurde würfel- und nadelförmiges Eisenoxid für die Bandbeschichtung eingesetzt. Die Kantenlänge der hergestellten würfelförmigen Eisenoxid-Kristalle variierte zwischen 0,1 und 0,5 Mikrometer, wobei ab einer bestimmten kritischen Teilchengröße die Koerzitivkraft abnimmt. Das nadelförmige Eisenoxid weist ein Längen/-Durchmesserverhältnis von 1:10 auf und die gebräuchliche Länge beträgt 1 Mikrometer. Auch hier bestimmt die Größe der Teilchen die Koerzitivkraft. Sie nimmt dabei mit wachsender Teilchengröße ab. Ein weiterer Weg zur Steigerung der Koerzitivkraft – und damit zur Herstellung hochaussteuerbarer Bänder – ist der Einbau von Kobalt-Ionen in das Kristallgitter des Eisenoxids. Während kobaltfreies Eisenoxid zwischen 80 und 120 Oersted Koerzitivkraft aufweist, können durch den Einbau von Kobalt-Ionen Werte von mehr als 1500 Oersted erreicht werden. Diese Entwicklung sollte direkt in die Entwicklung und Produktion hochaussteuerbarer Bänder für die Tonaufzeichnung münden.

Magnetbänder im professionellen Betrieb

Bereits 1952 war der Magnetbandverbrauch der europäischen Rundfunkanstalten auf monatlich etwa 20.000 km angewachsen. Das Magnetophon hatte sich in der Tonaufzeichnung weltweit durchgesetzt. Anfang der 50er Jahre war die vorwiegend verwendete Bandgeschwindigkeit noch 76,2 cm/s. In der Schweiz setzte man bereits seit 1951 hochkoerzitive amerikanische Magnetbänder vom Typ Scotch 3M 111 ein, die auch bei 38,1 cm/s Bandgeschwindigkeit gut klingende Aufnahmen erlaubten. Mit den Modellvarianten T 8 (BR28c/38) und T 9u, die sowohl für 76,2 cm/s als auch 38,1 cm/s geeignet waren, standen professionelle Magnetbandmaschinen zur Verfügung, die in Sachen Bandtransport – im Speziellen Gleichlauf -, Sollgeschwindigkeits-Einhaltung und Bandzugkontinuität ihren Vorgängern mit 76,2 cm/s Bandgeschwindigkeit in nichts nachstanden. Seit 1953 bestand breite Einigkeit darüber, daß für professionelle Anwendungen die Bandgeschwindigkeit 38,1 cm/s sich durchsetzten würde, da der Markt mit neuen hochaussteuerbaren und höherkoerzitiven Magnetbändern der Klasse 300 Oersted (nach dem Muster des amerikanischen Scotch Typ 111) aufwarten konnte. Die Musterprüfung der Bandchargen vom Rundfunktechnischen Institut Nürnberg sorgte für die praktische Einhaltung der mit den Bandherstellern vereinbarten Bandspezifikationen.

BASF

Mit dem Typ LGR (Luvitherm-Guß, Rundfunk-nadelförmiges Eisenoxid, gerichtet) entwickelte die BASF ab 1953/54 wieder einen rundfunktüchtigen Bandtyp für die Geschwindigkeit 38,1 cm/s, der den hohen Anforderungen des Rundfunks entsprechen konnte. Nach diversen Problemen in der Entwicklung und Massenfertigung konnte das LGR-Band ab Ende 1956 in die Mengenauslieferung gehen. Die BASF hatte beim LGR große Probleme, die Forderungen des Pflichtenheftes einzuhalten, weil das für das LGR-Band notwendige Magnetpigment aus der LGS-Bandproduktion nicht gleichmäßig genug anfiel. Unter Hochdruck konnte erst Mitte 1956 mit dem Magnetpigment gamma-21 von der französischen Firma Couleur de Provence ein für die LGR-Produktion geeignetes Magnetpigment zugekauft werden. Gamma-21 besaß eine hervorragende Kopierdämpfung von 56 – 58 dB und war so gut, daß dieses von der BASF bis Ende der 70er Jahre noch zugekauft wurde. Mit dem LGR-Bandtyp hatte die BASF wieder ein uneingeschränkt wettbewerbsfähiges Magnetband für den Rundfunk- und Profisektor im Angebot, welches das Vorbild Scotch 3 M Typ 111 noch übertraf.

Ende 1955 meldeten Robl und Merkel von der BASF mit dem Patent DE 1101000 „Bandförmige Magnetogrammträger“ ein weiteres wichtiges Patent an. Durch eine aufgebrachte Rückseitenmattierung des Bandes wurde die Stabilität der offenen Bandwickel, wie sie beim deutschen Rundfunk vorwiegend verwendet wurden, erhöht. Zudem verbesserte sich durch die Rückseitenmattierung der Wiedergabepegel hoher Frequenzen ebenso erheblich wie die antistatischen Eigenschaften des Bandmaterials. Bei hohen Außentemperaturen und geringer Luftfeuchtigkeit konnte es allerdings zu Knistergeräuschen bei der Aufnahme als Folge elektrostatischer Entladungen kommen, wenn das Bandmaterial keine ausreichenden antistatischen Eigenschaften besaß.

In die Rückseitenmattierung konnte nun auch die Chargennummer des jeweiligen Bandes einmarkiert werden – und so erfüllte sich nun die alte Forderung, die schon die RRG stellte: Die Nachverfolgung und Auffindung fehlerhafter Bandchargen an Hand der auf der Bandrückseite aufgedruckten Chargennummer.

Die amerikanischen Bandhersteller haderten lange Zeit mit einer Rückseitenmattierung des Bandmaterials, weil eine rauhe Struktur der Rückseite sich umso mehr in die glatte Magnetschichtoberfläche der anliegenden Wicklungen einprägen konnte, je stärker der Bandzug war. Dadurch wäre verstärktes Modulationsrauschen zu erwarten gewesen. Die richtige Abstimmung zwischen Rauhigkeit der Rückseitentextur und Härte der Magnetschicht und deren elektroakustischen Eigenschaften bedurften genauer Abwägung. Zudem verwendete man in den USA vorwiegend Doppelflanschspulen, die den Bandwickel beidseitig gegen ein Auseinanderfallen zusätzlich sicherten.

Der nächste Entwicklungsschub erfolgte dann Mitte der 60er Jahre, als die ARD ihre Hörfunkprogramme auf Stereobetrieb umstellte. Ein stereophon aufgenommenes Band sollte die gleichen Pegel liefern wie ein vormals aufgezeichnetes Mono-Band. Der um etwa 4,1 dB niedrigere Reproduktionspegel einer Stereowiedergabe konnte am einfachsten kompensiert werden, indem man die Stereobänder um eben diese 4,1 dB höher aussteuerte, ohne dabei aber das Auftreten von Verzerrungen zu vergrößern. Um dies zu ermöglichen, mußte es Verbesserungen im Bereich der Pigmente geben. Die BASF reagierte auf die Herausforderung und kam ab Mitte 1967 mit dem Bandtyp LGR 30, das noch auf PVC-Basis hergestellt wurde, und 1968 mit dem LGR 30P auf Polyester-Basis auf den Markt. Ab 1972 verblieb ausschließlich das LGR 30P im Lieferprogramm. Trägermaterial auf Polyester-Basis hatte sich nun auch bei der BASF ausschließlich durchgesetzt, nachdem es des öfteren zu Problemen bei den 1-Zoll und 2-Zoll Bändern auf PVC-Basis gekommen war, die vorwiegend für die aufkommende Mehrspuraufzeichnung verwendet wurden. Bereits 1960 experimentierte man auch bei der BASF mit der Herstellung eines hochausteuerbaren Studiobandes: durch dickeres Auftragen der Magnetschicht auf dem Trägermaterial. Ergebnis dieser Versuche sollte dann das LGR 56 sein. Auf der PVC-Trägerfolie des LGR 56 wurde die LGR-Dispersion dafür auf 20 Mikrometer anstatt der für den Rundfunk verwendeten Schichtstärke von 13 Mikrometer des Bandtyps LGR aufgetragen. Die Aussteuerbarkeit des LGR 56 wurde dadurch auf + 9,5 dB im Vergleich zu den +4,8 dB beim LGR-Rundfunkband verbessert. Die erhöhte Magnetschichtstärke hatte aber auch eine verminderte Kopierdämpfung von 60 dB beim LGR auf 55 dB beim LGR 56 zur Folge. Eine dickere Magnetschicht bringt den Vorteil der besseren Aussteuerungsfähigkeit im tiefen und mittleren Frequenzbereich, der sich dort mit weniger Verzerrungen äußert und so den Klang des Bandes durchsichtiger macht. Nachdem das LGR 56 unter starkem Konkurrenzdruck durch Produkte von AGFA, 3M, Ampex und Zonal geraten war, erschien ab 1973 das SPR 50LH mit dem getemperten LLN-Oxid der BASF. Mit diesem Band konnte die BASF das in europäischen Studios mittlerweile weit verbreitete Scotch 206, welches zudem eine schlechtere Kopierdämpfung besaß, wieder verdrängen. Der Bandtyp SPR 50LH war bis Ende der 70er Jahre im Lieferprogramm.

Anfang der 80er Jahre erfolgte eine weitere Bandentwicklung mit dem Typ 910, der Mitte der 80er Jahre durch den Typ 911 wieder abgelöst werden sollte. Auch der Rundfunk wollte nun mit neuen Bandtypen an den Fortschritten in der Bandentwicklung teilhaben. Dabei wurde das bisher verwendete Rundfunkband BASF LGR 30P bis 1983 vom verbesserten Nachfolger BASF LGR 50 vollends verdrängt. Ab 1986 hielt das LGR 51 beim Rundfunk Einzug, welches von den Erkenntnissen und der Technologie der Studio Master 911-Fertigung profitierte. Das BASF LGR 51 kam auf eine Aussteuerbarkeit von +12,5 dB relative 320nWb/m, hatte aber das Manko, den manchmal „brutalen“ Arbeitsbedingungen, die unter dem enormen Zeitdruck des Rundfunkbetriebes entstanden, nicht gewachsen zu sein. Ab 1987 setzte man daher dort wieder das Audio Broadcast LGR 50 ein.

Veröffentlicht unter Historische Tontechnik | Verschlagwortet mit , , , , , , , , , , , , , , , , | Kommentar hinterlassen