Risiken und Chancen beim Einsatz von Computer- und Rechnertechnik bei der Aufnahme, Speicherung und Wiedergabe von Musik, Teil 2

Eine traumhafte Zukunft – oder eher ein Alptraum?

In Teil 1 meiner Ausführungen fand die Betrachtung grundsätzlicher Dinge statt: Der PC als Tonquelle, Hard- und Software sowie optische Speicher waren einführender Bestandteil. Steigen wir nun tiefer in die Details…

Speichersysteme

Ohne an dieser Stelle allzu weit auf die technischen Details der Massenspeichertechnik einzugehen, ist es für den Anwender aber von eminent wichtiger Bedeutung, Details zu diesem Aspekt zu wissen, um die verschiedenen Systeme am Markt mit ihren Vor- und Nachteilen grundsätzlich besser beurteilen zu können. Spezielle Musikserver, bzw. dazu umfunktionierte PCs, legen Dateien heute auf einer klassischen Festplatte HDD oder neuerdings auf sogenannte SSD (Solid State Disks) zur Speicherung ab. Eine Festplatte (englisch hard disk oder hard disk drive = HDD) ist ein magnetisches Speichermedium aus der Computertechnik, welches binäre Daten auf die Oberfläche einer rotierenden (5.400-15.000 U/min) ferromagnetischen Scheibe schreibt. Dazu wird die hartmagnetische Beschichtung der Plattenoberfläche entsprechend der aufzuzeichnenden Information magnetisiert. Durch die Remanenz erfolgt die Speicherung der Information. Das Auslesen der Information geschieht durch Abtastung der Magnetisierung der Plattenoberfläche mittels des Lesekopfes. Auf einer Festplatte können beliebige Daten gespeichert werden: Sowohl Dateien des Betriebssystems des Computers oder auch andere, etwa durch Anwendungsprogramme erzeugte persönliche Daten, welche dauerhaft gespeichert werden. In Abgrenzung zu sequentiell adressierbaren Speichermedien wie Magnetband oder Lochstreifen werden Festplatten den direktadressierbaren Speichermedien (engl. direct access storage devices, DASD) zugerechnet, da auf die Daten direkt zugegriffen werden kann. Die HDD-Grundlagentechnik wurde erstmalig 1956 von der Firma IBM entwickelt.

Festplatten sind sensibel

Die typischen Ausfallrisiken der klassischen Festplatte sind besonders bei sehr schnell drehenden System oft thermischer Natur. Vibrationen, Stöße und starke Erschütterungen können während des Betriebes zudem zu vorzeitigem Lagerverschleiß führen. Zudem kann durch mechanisches Aufsetzen des Schreib- und Lesekopfes die Festplatte beschädigt werden – auch Head-Crash genannt. Daher sollte im laufenden Betrieb die Platte nicht bewegt werden. Der Lese-Schreib-Kopf schwebt im Betrieb über der Festplatte und wird nur durch ein Luftpolster am Aufsetzen gehindert, das durch die von der drehenden Scheibe mitgezogenen Luft entsteht. Geöffnete Festplatten zeigen nach einem Head-Crash gut sichtbare Schleifspuren, die ein aufsetzender Schreib-Lesekopf auf dieser hinterlassen hat. Auch ein Auftreten von Fehlern in der Steuerelektronik kann zu Festplattenausfällen führen. Zudem können äußere Magnetfelder die Sektorierung der Festplatte irreversibel zerstören. Eine Löschung mit einem Magnetfeld macht besonders Festplatten neuerer Bauart schnell unbrauchbar.

Vorsicht ist geboten bei jahrelangem Ablegen von Dateien auf Festplatten als sicher geglaubte Backup-Kopie! Ein längerer Stillstand kann dazu führen, daß die Mechanik in verharzten Schmierstoffen steckenbleibt und die Platte gar nicht erst anläuft – auch als sticky disk bezeichnet. Dieses Problem trat besonders akut in den 1990er Jahren auf, scheint seitdem aber durch qualitativ bessere Schmierstoffe heute einigermaßen im Griff zu sein. Alle Angaben zur Haltbarkeit einer Festplatte sind ausschließlich statistische Werte; die Lebensdauer einer Festplatte kann daher im konkreten Einzelfall nicht vorhergesagt werden! Es gibt Unterschiede zwischen verschiedenen Modellreihen eines Herstellers oder mehrerer Hersteller und es lassen sich auch bestimmte Baureihen ausmachen, die als besonders zuverlässig oder fehleranfällig gelten. Für statistisch genaue Angaben zur Zuverlässigkeit bestimmter Festplattenbaureihen sind allerdings eine große Anzahl von baugleichen Platten notwendig, die unter ähnlichen Bedingungen betrieben werden. So können Systemadministratoren, die viele Systeme betreuen, im Laufe der Jahre durchaus Erfahrungen sammeln, welche Festplatten eher zu auffälligem Verhalten und damit vorzeitigem Ausfall neigen. Grundsätzlich bildet aber die Anzahl der Gesamtzugriffe auf eine Festplatte über die Zeit einen mechanischen Verschleißfaktor. Grundsätzlich sollten Festplatten nicht über der vom Hersteller genannten Betriebstemperatur – meist 40 – 55 °C – betrieben werden, da darunter die Lebensdauer leidet. Nach einer Studie von Google (die ihre internen Festplattenausfälle analysiert haben) gab es auch am oberen Ende des zulässigen Bereiches keine vermehrten Ausfälle. Im allgemeinen sind schnelldrehende Server-Festplatten für eine höhere Lebensdauer ausgelegt als typische Desktop-Festplatten, so daß sie theoretisch eine höhere Lebensdauer erwarten lassen. Der 24/7-Dauerbetrieb und häufige Zugriffe, wie sie bei großen Serversystemen Alltag sind, können jedoch dazu führen, daß sich die Lebensdauer relativiert und die Festplatten nach wenigen Jahren ausgetauscht werden müssen. Besonders Festplatten in portablen Systemen wie Laptops werden durch die häufigen Transporte besonders beansprucht und sind dementsprechend trotz robusterer Bauart mit einer kleineren Lebensdauervorhersage als Desktop-Festplatten spezifiziert.

Sicherheitskopien und Grundsätze der Datensicherheit

Als vorbeugende Maßnahmen gegen Datenverlust dient das Erstellen von Sicherheitskopien, auch Backup genannt, die natürlich auf einem weiteren Datenträger zusätzlich angelegt werden müssen. Seit etwa Ende der 1990er Jahre verfügen ATA-Festplatten zur Überwachung der Zuverlässigkeit über eine interne Kontrolle mit der Bezeichnung S.M.A.R.T. Der Status kann von außen abgefragt werden. Achtung: S.M.A.R.T. ist kein Standard, weil jeder Hersteller seine Fehlertoleranz selbst bestimmen kann, und von daher ist S.M.A.R.T. nur ein sehr allgemeines Richtmittel. So gibt es Festplatten, deren S.M.A.R.T.-Funktion selbst dann noch nicht vor Problemen warnt, wenn diese sich bereits im Betrieb durch nicht mehr lesbare Blöcke bemerkbar gemacht haben! Erwähnenswert ist, daß verschiedene Festplatten die Möglichkeit bieten, den kompletten Festplatteninhalt per Paßwort direkt auf Hardware-Ebene zu schützen. Da diese im Grunde nützliche Eigenschaft jedoch kaum bekannt ist und die meisten BIOS die Funktion zum Setzen des Paßwortes nicht selbsttätig ausschalten, besteht rein theoretisch für Schadprogramme wie Viren die Chance, dem Benutzer durch Setzen dieses Paßworts auf einen unbekannten Wert massiv zu schaden. Danach bestünde unter normalen Umständen keine Möglichkeit mehr, noch auf Inhalte der Festplatte zuzugreifen, auf der sich dann beispielsweise der gesamte private Musikfundus befinden könnte! Der Austausch der Festplatten sollte ca. alle 3 – 5 Jahre durchgeführt werden und eine 1:1-Sicherheitskopie muß zeitnah auf einer anderen Festplatte aktuellgehalten werden. Kinderleicht zu bedienende Programme zum Spiegeln kompletter Festplatten stellt z.B. die Software Acronis True Image dar. Diese Software ist in der Lage, eine komplette Festplatte inklusive Betriebssystem, Software und Einstellungen zu spiegeln, so daß nach einem Crash der Systemfestplatte innerhalb kürzester Zeit der PC über die Kopie dauerhaft wieder in Betrieb genommen werden kann. Der Autor rät ausschließlich zur Verwendung von Festplatten, die auch im Professionalbereich erfolgreich ihre Anwendung finden. Von einem überstürzten Spontankauf einer x-beliebigen Festplatte im Elektromarkt auf der Wiese rät der Autor ab. Mit einem Blick auf die Website von Western Digital und dort unter Interne Speicher>Enterprise nachgeschaut, findet man schnell die richtige Festplatte und deren genaue Bezeichnung für die nachfolgende Beschaffung. Unbedacht sollten keinesfalls die Konsequenzen aus einer jahrelangen Mono-Nutzung von Musikdownloadangeboten aus dem Internet bleiben. So ist es bei Musikliebhabern dann auch nicht unwahrscheinlich, das sich innerhalb zweier Jahrzehnte „Datenwerte“ auf Massenspeicher(n) in Höhe von 20000-45000 Euro ergeben können, die dann gleichzeitig einem stetigen „Zwang“ zu einer ausgefeilten Datensicherung erzeugen! Eine echte Datenabsicherung die die Erhaltung dieser Werte auch verantwortungsbewusst gerecht wird ist keinesfalls zum Nulltarif zu bekommen und verursacht im Laufe der Jahre stetig anfallende Kosten die in ihrer Gesamthöhe in Äquivalenz zum eigentlich abzusichernden Wert keinesfalls zu unterschätzen sind und ohne dabei die Möglichkeiten der Plattenindustrie zu besitzen durch Wiederauflage von Tonträgern oder Musikangeboten aus dem Back-Katalog ständig den durch Datensicherung entstehenden laufenden Kosten tragende Einnahmen gegenüberstellen zu können! Die stetig anfallenden Kosten der Datensicherung sind so auf die eigentlichen Erstanschaffungskosten von Musik aus Internetdownloadangeboten zu summieren. Der explizite Musikliebhaber sollte dann auch diese Dinge durchaus einmal kritisch unter betriebswirtschaftlichen Aspekten betrachten, welchen Kosten eine unbedachte eifrige Nutzung dieser Distributionsform über Jahrzehnte betrachtet nach sich ziehen würde. An dieser Stelle sei nochmal explizit erwähnt, das auch der Einsatz eines (Festplatten)- RAID-Systems keinen Ersatz für ein Sicherheits-Backup darstellt! Eine regelmäßige Datensicherung auf externe Speichermedien bleibt unerlässlich, um Gefahren wie Virenbefall, vorsätzlich externer Manipulation oder versehentlicher Löschung von Dateien vorzubeugen, weil diese Fehler sich ebenfalls auf die gespiegelten Laufwerke duplizieren würden. Auch in RAID-Systemen kann also ein Datenverlust auftreten, wenn zwei oder mehr Laufwerke gleichzeitig ausfallen oder ein Rebuild eines ausgefallenen Laufwerks fehlschlägt. Für ein Backup sollte dann auch grundsätzlich ein System mit Wechselmedien zum Einsatz kommen, um die gesicherten Daten abseits der Rechner bzw. Server aufzubewahren zu können. Als Medien stehen Magnetbänder, Wechselplatten, optische Medien und magnetooptische Platten zur Auswahl, wobei sich Magnetbänder (Exabyte, LTO), welche die größte Speicherkapazität aufweisen allgemein etabliert haben. Geöffnete Dateien können unter Umständen nur in einem inkonsistenten Zustand gespeichert werden, insbesondere während laufender „Transaktionen“. Deshalb muss sichergestellt werden, dass nur abgeschlossene Transaktionen gesichert werden. Blockierte Dateien müssen in einem zweiten Anlauf gesichert werden. Aus diesem Grund ist es ratsam, die Sicherungsabläufe nachts, am Wochenende oder zu einem anderen definierten Zeitraum durchzuführen an dem möglichst kein Zugriff auf das zu sichernde System vorgenommen wird. Nach dem Backup sollten die Backup-Medien geprüft und an einem sicheren Ort zur Aufbewahrung kommen. Weder RAID- noch gespiegelte Systeme können vor Viren, Softwarefehlern oder Bedienerfehlern schützen. Auf ein Medium darf aus Sicherheitsgründen nur immer eine Backup-Schicht gespielt werden. Auf eine Datenkompression der Backup-Medien sollte bei wertvollen Daten verzichtet werden, da selbst einzelne Bitfehler dazu führen können, dass der komplette Datensatz nicht mehr rekonstruierbar ist! Da auch bei der Datensicherung noch Fehler auftreten können und Sicherungsmedien unlesbar sein können, sollten Sicherungen von früheren Zeitpunkten noch eine Zeit lang aufbewahrt werden. Ein Verfahren dazu stellt das Generationenprinzip dar, das auf drei verschiedenen Sicherungsmedien basiert. Dazu werden für die ersten drei Sicherungskopien die Daten auf jeweils ein Medium gesichert und aufbewahrt. Ab der vierten Sicherheitskopie wird dann die älteste Sicherungsgeneration wieder überspielt und fortan immer die älteste Generation. Auf diese Art und Weise stehen immer zwei Ersatzgenerationen zur Verfügung, wenn die Wiederherstellung von der jüngsten Sicherungsgeneration nicht möglich sein sollte. Durch Verwendung von mehr als drei Sicherungsgenerationen kann die Sicherheit weiter erhöht werden. Wichtig, bei einem Datenverlust nie die Daten auf den gleichen Server wieder aufspielen, auf dem der Datenverlust eingetreten ist. Immer einen separaten Server hinzuziehen oder eine andere separate Lokation wiederherstellen! Sollte ein nennenswerter bzw. teurer Datenverlust auf einem Speichersystem auftreten sind besser ausschließlich bewährte Fachunternehmen zu konsultieren. Von der Beauftragung zur Datenwiederherstellung -im Schadensfall- der zahlreich im Internet werbenden unbekannten „No Name“ Anbietern, die häufig alles versprechen, aber nichts davon einhalten und ihre Dienste häufig auf „aufgeblähte“ Scheininternetseiten anbieten ist dabei dringend abzuraten! Die Voraussetzungen für eine möglichst hohe Erfolgsquote bei der Datenwiederherstellung havarierter Speichermedien oder havarierter Speichersysteme setzt eine extrem genaue Kenntnis –auf Niveau des Hardware- bzw. Softwareherstellers über das verwendete Betriebssystem, die verwendete Software als auch über die Hardware an sich voraus und Anbieter die dieses Profil tatsächlich auf sich vereinen können sind alles andere als zahlreich. In 60% der Fälle einer mechanisch havarierten Festplatte ist eine fachgerechte Demontage der eigentlichen Festplatte unter Reinraumbedingung durch Fachleute notwendig welches die wenigstens Anbieter wirklich zur Verfügung haben. Sollte das vom Kunden verwendete Serversystem merkwürdige Geräusche meist hochfrequenter Natur von sich geben oder auch die Meldung das Dateien nicht auffindbar oder lesbar sind von sich geben ist das System sofort über den On/Off-Schalter auszuschalten –bitte nicht regulär unter „Ausschalten“ über das Betriebssystem herunterfahren und eine Fachfirma zu konsultieren. Von eigenen Datenrettungsversuchen sollte abgesehen werden, da durch nicht ausreichende spezifische Kenntnisse das Schadensausmaß zumeißt nur deutlich vergrößert wird! Ohnehin führt bei defekten an der Hardware jedes weitere betreiben dieser Komponenten zu einer Vergrößerung des Schadens. Als empfehlenswertes und gleichzeitig renommiertes Unternehmen in Sachen Datenrecovery empfiehlt der Autor die Kroll Ontrack GmbH in Böblingen bei Stuttgart. Der Autor hält es nicht für ausgeschlossen das einen stetige Datensicherung über einen Zeitraum von 50-70 Jahren wie bei Vorhandensein wertvoller Musikbestände aus Online-Download-Angeboten beim Musikliebhaber notwendig wird sich am Ende schnell als eine unliebsame und lästig werdende Belastung und Verpflichtung herauskristallisieren wird, sofern einem teurem Datenverlust sicher vorgebeugt werden soll. Da kommt schnell die Frage auf, ob selbstorganisiert im privaten Rahmen in der Praxis des Lebens kontinuierlich eine zuverlässige elektronische Datensicherung über teilweise mehr als 5 Jahrzehnte überhaupt geleistet werden kann oder ob es dann nicht ratsamer ist –sofern bezahlbar bzw. wirtschaftlich überhaupt sinnvoll darstellbar diese Aufgabe einem professionellen Anbieter zu übergeben!?. Derzeit kosten 1000 GB an Daten bei Anbietern wie Stellar-Online auf deren Servern abgelegt und damit professionell gesichert ca. 480 Euro pro Jahr. Je nach durchschnittlicher Datenmenge pro Album entspricht dieses Datenvolumen ca. 1800 als wav in 16Bit/44,1Hz oder ungefähr 3000 kompletten Musikalben als FLAC-Dateien verlustlos komprimiert. Vor diesem Hintergrund und der Erfahrung im Umgang mit elektronischen Daten empfindet der Autor es mehr als entspannend einfach in ein Plattenregal greifen zu können und dort eine LP oder CD zum Abspielen herausziehen zu können welche dort u.U. unberührt seit einem Vierteljahrhundert lagerte und deren unversehrte Existenz –wenn man denn möchte auch täglich im vorbeigehen simpel optisch überprüft werden kann und ohne dabei elektronische Checksummenprüfmechanismen bemühen zu müssen.

Solid State Disk

Ein Solid State Drive, kurz „SSD“ (zu deutsch: allgemein „Festkörperlaufwerk“ oder auch „Halbleiterlaufwerk“) ist ein Speichermedium, das wie eine herkömmliche magnetische Festplatte eingebaut und angesprochen werden kann, ohne eine rotierende Scheibe oder andere bewegliche Teile zu enthalten, da nur Halbleiterspeicherbausteine verwendet werden. Vorteile eines Solid State Drive sind mechanische Robustheit, kurze Zugriffszeiten, niedriger Energieverbrauch und das Fehlen jeglicher Geräuschentwicklung. Der Hauptnachteil ist zur Zeit noch ein erheblich höherer Preis im Vergleich zu Festplatten gleicher Kapazität. Außerdem sind SSDs heutezutage noch nicht mit ganz so hohen Kapazitäten wie klassische Festplatten im Angebot verfügbar. Ein weiterer Vorteil ist die festplattengleiche, unbegrenzte Wiederbeschreibbarkeit; Flash-Chips sind je nach Qualitätsgrad auf 100.000 bis 5 Millionen Schreibzyklen begrenzt. Eine „Zelle“ wird bei Verschleiß automatisch gegen eine von rund zwei Prozent Reservezellen ausgetauscht. Die kommende Generation der Marken-SSDs wird mit einer deutlich gesteigerten Lebensdauer ausgestattet sein. Die Firma Scan Disk spricht dabei von 100 Jahren bei normaler Benutzung.

Der Autor dieser Zeilen präferiert insbesondere in der Massenspeicherfrage grundsätzlich die professionelle SSD, da diese eine deutlich erhöhte Lebensdauer gegenüber der klassischen Festplatte aufweist. Insbesondere bei vollintegrierten dezidierten Musikserversystemen ist das nicht selten von entscheidender Bedeutung. Bei einem hochwertigen CD-Player würde man ja auch ungern im Fünfjahres-Rhythmus das verbaute CD-Laufwerk austauschen wollen… Durch den Wegfall der empfindlichen Motorlagerung und Lese-/Schreibmechanik der Laufwerke mit rotierenden Platten, ergibt sich eine Vervielfachung der Schocktoleranz. Aber auch die Temperaturtoleranz ist größer, ebenso wie deren schnelle Änderung keine Probleme mit sich bringt. Beides qualifiziert SSDs übrigens auch für den mobilen Einsatz. Am häufigsten finden sich die flashbasierten SSDs daher schon in MP3-Playern und USB-Sticks. Da sie zudem weniger Energie verbrauchen als Festplatten, ferner leichter und kleiner sind, werden sie auch für (Sub-)Notebooks interessant. Weitere Anwendungsgebiete finden sich in Umgebungen, in denen Schmutz, Erschütterungen sowie Druckschwankungen, Temperatur und Magnetfelder (Raumfahrt) den Einsatz mechanischer Platten verhindern. Durch Temposteigerungen und Preisverfall bei den Solid-State- und besonders den Flashspeichern ist damit zu rechnen, daß sie in den nächsten Jahren die konventionelle Festplattentechnik ergänzen oder sogar ersetzen, und zwar besonders in mobilen Geräten. Allerdings basieren die zahlreichen MLC-Modelle des Endkundenmarktes auf nur drei verschiedenen Laufwerks-Controllern. Produkte mit gleichem Chip haben praktisch eine jeweils identische Performance. Trotzdem bestehen noch deutliche Leistungsunterschiede sowohl zwischen verschiedenen Controllern als auch Produkten gleicher Preisgestaltung. Die Speicherkapazitäten von SSDs nähern sich langsam denen von HDDs an, so hat bereits im letzten Jahr der Hersteller OCZ Technology auf der größten IT-Messe in Asien eine 3,5″-SSD mit bis zu 1024 GB Kapazität vorgestellt. Zur Zeit liegt der Preis für 1 Terabyte Speicherkapazität auf SSD noch bei ca. 2.400 Euro, aber die Preise im IT-Bereich fallen bekanntermaßen recht schnell. Auch bei der SSD gilt, daß SSD nicht gleich SSD ist. Wer einigermaßen sichergehen möchte, daß die ausgewählte SSD nicht „unerwartet vorzeitig“ den Dienst einstellt, sollte sich auch dort besser aus dem Pro-Bereich eines Markenherstellers bedienen. Der Autor präferiert aus diesem Segmant Scan Disk und OCZ. Moderne Betriebssysteme wie Windows 7 sind bereits optimal auf die Ansteuerung und Verwaltung von SSDs vorbereitet.

Langzeitarchivierung

Ein Thema allerhöchster Wichtigkeit ist die Betrachtung der Langzeitarchivierungssicherheit von Daten auf digitalen Speichersystemen! Die Archivierung digitaler Informationen über längere Zeiträume von sechs bis sogar mehrere hundert Jahre wirft Probleme auf, da nicht nur die Informationen aufgrund der sehr begrenzten Haltbarkeit von heutigen Massenspeichersystemen eventuell verlorengegangen sind, sondern weil auch die Computer, Betriebssysteme und Programme zum Bereitstellen dieser Informationen nicht mehr verfügbar sein könnten. Grundsätzlich sind digitale Daten in sich regelmäßig wiederholenden Zyklen geplant neu zu archivieren, respektive umzukopieren! Bislang sind nur analoge Verfahren wie Mikrofilm, Druck auf spezielles Papier oder z.B. auch eine Vinyl-Langspielplatte in der Lage, sogar über sehr lange Zeiträume Informationen sicher bewahren zu können. Besondere Probleme wirft heute die Langzeitarchivierung von digitalen Informationen auf, da die Haltbarkeit der derzeit üblichen Datenträger begrenzt ist – insbesondere im extrem verstärkten Maße von sogenannten „gebrannten“, das heißt, selbsterstellten Medien inklusive der heute verfügbaren digitalen Massenspeichersysteme. Ein „Brennen“ von Dateien auf selbstbeschreibbaren CD/DVD/Blueray-Medien stellt allenfalls eine Datensicherung für vielleicht fünf Jahre dar, weil die organischen Farbstoffe in diesen Speichermedien recht schnell verfallen können. Intensive Lichteinstrahlung, hohe Lagerungstemperaturen oder Luftfeuchtigkeit beschleunigen im allgemeinen den Zerfallprozeß weiter. Als Metapher und auch Warnung aus der jüngeren Zeitgeschichte sei hier noch einmal erwähnt, daß heute bereits Teile der Magnetbänder mit den Daten des Apollo-Raumfahrtprogrammes nicht mehr lesbar sind, weil die Computer, Betriebssysteme und Programme von damals nicht mehr verfügbar sind, während beispielweise eine dazu eher simple Vinyl-LP aus dieser Zeit auch heute noch ohne weiteres abspielbar ist und bleibt… Von daher ist auch in Zukunft davon auszugehen, daß wohl insbesondere in einem naturgemäß aufwandsbeschränkten privaten Rahmen eine LP länger abspielbar bleiben wird als die von ihr durchgeführten privaten Digitalsierungen.

Am Ende gibt es genaugenommen nur zwei Methoden, Daten langzeithaltbar zu machen. Die erste wäre, diese in Stein zu meißeln … und insbesondere im digitalen Zeitalter ein „ständiges“ Umkopieren auf ein neueres, jeweils jüngeres digitales Speichermedium.

Insbesondere individuelle herstellerspezifische Insellösungen, die nur in kleiner Serie zur Datenspeicherung produziert werden, schneiden bei Langzeitdatensicherheits-Betrachtungen zumeist mehr als schlecht ab. Von daher ist es anzuraten, eine digitale Speicherung und Sicherung mit Betriebssystemen und Software durchzuführen, die auch möglichst große Verbreitung aufweisen, weil dieses die Wahrscheinlichkeit des sicheren Auslesens älterer Datenbestände – und damit erst die Möglichkeit eines Kopierens auf ein zeitaktuelles Medium – deutlich erhöhen oder grundsätzlich erst möglich machen. Auch für den privaten Anwender erfordert dieses, wenn er sich auf solch eine Lösung eingelassen hat, ein ständiges und regelmäßiges „am Ball bleiben“, was die Auslese- und Kopiereigenschaften des jeweils verwendeten digitalen Massenspeichsystems angeht! Ruhige und relativ lange Zeitabstände, wie sie der Anwender bei der industriell hergestellten Musik-CD oder Langspielplatte noch „genießen“ konnte, werden insbesondere beim Umgang mit Musik, die aus Download-Angeboten des Internets stammt und bei denen es bei der Auslieferung der Musik naturgemäß keinen langzeitstabilen industriell erzeugten Tonträger dazu gab, dann schlußendlich der Vergangenheit angehören! Zudem erscheint es mehr als fraglich, ob es für den Endkonsumenten wirklich sinnvoll ist, auf einen langzeitstabilen Auslieferungstonträger verzichten zu wollen… Es dürfte wesentlich leichter sein, im Schadensfalle eine beispielsweise 35 Jahre alte Original-CD beim Hersteller zu reklamieren und dort Ersatz durch Umtausch zu bekommen – Restbestände gibt’s erfahrungsgemäß lange.

Fortsetzung folgt

Advertisements
Galerie | Dieser Beitrag wurde unter DAWs und PCs im Dienste der Musik abgelegt und mit , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.