HHDD

HHDD

Ein Solid State Drive (SSD, dt. Festkörperlaufwerk), auch Solid State Disk (dt. Festkörperplatte) genannt, ist ein Speichermedium, das wie eine herkömmliche Festplatte eingebaut und angesprochen werden kann, ohne eine rotierende Scheibe oder andere bewegliche Teile zu enthalten, da nur Halbleiterspeicherbausteine vergleichbar großer Kapazität verwendet werden.

Der englische Begriff solid state in der Geschichte der Elektronik bedeutet, dass keinerlei bewegliche mechanische Teile wie Relais, Röhren usw. verwendet werden, sondern Halbleiterbauteile, die mit Hilfe der Festkörperphysik entwickelt wurden. Insofern erscheint die Bezeichnung paradox, da ein eben gerade ohne bewegliche Teile auskommendes Medium als 'Drive' bzw. 'Disk' angesprochen wird, dies geschieht in Analogie zu anderen Festplatten. Außerdem bestehen auch Festplatten physikalisch gesehen ausschließlich aus Festkörpern (abgesehen von Schmierstoffen).

Vorteile eines 'Solid State Drive' sind Robustheit, kurze Zugriffszeiten und niedriger Energieverbrauch. Nachteile sind noch bei Kapazität und Preis zu finden. Wird eine herkömmliche Festplatte mit einem Solid-State-(Zwischen)Speicher ausgestattet bzw. funktionsgleich eingesetzt, spricht man von einer Hybridfestplatte (HHD).

Inhaltsverzeichnis

Zwei Verfahren

Das Innere eines USB-Sticks. Links der Flash-Speicherchip, rechts der Controllerchip.
SDRAM-Speicherchips.

Es gibt zwei Arten verwendeter Speicherchips: einerseits Flash-basierte und andererseits SDRAMs.

Erstere sind besonders energieeffizient und sogar stromunabhängig, wenn es um das Beibehalten des Inhaltes geht. Herstellerseitig werden hier rund 10 Jahre versprochen, bei den konventionellen Festplatten fehlt diese Angabe, da ihre Magnetisierung im Laufe der Zeit nachlässt.

Die SDRAM-Chips ihrerseits sind flüchtig und verbrauchen pro Gigabyte deutlich mehr Energie als eine konventionelle Festplatte. Ihr Vorteil liegt dafür in der extremen Geschwindigkeit. Mitte der 1990er auch als „RAM Disks“ eingeführt, fanden sie von Anfang an Einsatz in Servern, wo auf ihnen Caches, temporäre Dateien und Journale von Datei-, Web-, Datenbank-Servern o. Ä. abgelegt wurden. Sie können als Steckkarte oder auch als Gerät mit emulierter Festplatten-Schnittstelle realisiert sein; oft mit einer Sicherungsbatterie oder eigenem Stromanschluss. Sie haben gegenüber Festplatten eine rund 700-fach geringere Verzögerung, um beliebige Daten aufzufinden, gegenüber der Flash-Technik sind sie 80-fach schneller. Ein zweiter Vorteil ist die festplattengleiche, unbegrenzte Wiederbeschreibbarkeit; Flash-Chips sind hier auf 0,1 bis 5 Millionen Schreibzyklen begrenzt. Diese Beschränkung gilt jedoch nicht für Lesevorgänge und zudem für jede einzelne Speicherzelle. Eine solche wird bei Verschleiß automatisch gegen eine von rund zwei Prozent Reservezellen ausgetauscht.

Es liegt nahe, die Geschwindigkeit der SDRAMs mit dem Datenerhalt anderer Speichertypen - Festspeicher - zu verbinden. So integrieren manche Hersteller etwa auch eine konventionelle Festplatte in das Gehäuse der SDRAM-SSD, um ein Abbild dieser bei einem Stromausfall zu haben. An dieser Stelle schließt sich der Kreis: denn umgekehrt verfügen konventionelle Festplatten über immer mehr SDRAM- und neuerdings Flashchips als Zwischenspeicher (sog. „Cache“).

Vorteile und Einsatzgebiete

Der Wegfall der empfindlichen Motorlagerung und Lese-/Schreibmechanik der Laufwerke mit rotierenden Platten ergibt eine Vervielfachung der Schocktoleranz. Aus gleichem Grund beschleunigt sich das Ansteuern beliebiger Bereiche des Datenträgers. Es genügt ein elektrischer Impuls, statt des Bewegens der Mechanik. Aber auch die Temperaturtoleranz ist größer, ebenso wie deren schnelle Änderung keine Probleme mit sich bringt. Beides qualifiziert SSDs für den mobilen Einsatz. Am häufigsten finden sich die flashbasierten daher in MP3-Playern und USB-Sticks. Da sie zudem weniger Energie verbrauchen als Festplatten, dazu leichter und kleiner sind, werden sie auch für (Sub-)Notebooks interessant. Dort kommt auch zugute, dass ihre Geschwindigkeit nicht vom Formfaktor abhängt – auf kleinen rotierenden Platten dagegen finden pro Umdrehung weniger Daten Platz als auf größeren. Hybridfestplatten und reine SSD-Modelle sind seit 2007 im Handel.

Im stationären Einsatz finden sich eher die SDRAM-basierten SSDs und dies meist weit ab vom Massenmarkt. Ihr Einsatzgebiet sind Anwendungen, die sehr laufwerkslastig arbeiten (Datenbanken, Sortieranwendungen), indem sie wiederholt kleine Datenmengen von verschiedensten Speicherbereichen anfordern. Gern werden diese Laufwerke auch von Entwicklern und Testern benutzt, um die Leistungsfähigkeit von Festplatten-Controllern und -bussen zu messen, da sie diese maximal auslasten. Ihre Geschichte startete 1978, als das Unternehmen StorageTek die „Solid State Disk STK 4305“ auf den Markt brachte, welche kompatibel zum Festkopfplattenspeicher IBM 2305 war und mit Großrechnern vom Typ System/370 benutzt wurde. StorageTek selber benutzt die Bezeichnung „Solid-State Disk“.[1] Aktuell sind hier die RamSan-Laufwerke der Texas Memory Systems zu nennen, die in Form eines Desktopgehäuses die derzeit schnellsten (Massen-)Speicher darstellen. Ihre Preise starten bei 1700 $ pro Gigabyte, ihre Geschwindigkeit liegt beim 30fachen der Flash-SSDs und dem über 300fachen normaler Server-Festplatten.

Aber auch im Bereich der eingebetteten Systeme, in denen es ausschließlich auf den Verzicht der mechanischen Teile ankommt, werden häufig Solid State Drives verwendet. Eine Ein-Chip-Mikrocontrolleranwendung verfügt aus Platz- und Energiegründen häufig erst gar nicht über einen Festplattenanschluss. Stattdessen liegt deren Steuerungsprogramm oder Betriebssystem meist in einem Flash-Chip. Einen solchen hat heutzutage auch jeder neue PC. Dieser fasst unter einem Megabyte und enthält das BIOS.

Weitere Anwendungsgebiete finden sich in sehr elektronikfeindlichen Umgebungen, in denen Schmutz, Erschütterungen, sowie Druckschwankungen, Temperatur und Magnetfelder (Raumfahrt) den Einsatz mechanischer Platten verhindern.

SSDs auf dem Weg in den Massenmarkt

CompactFlash-Karten sind die günstigsten, aber auch kapazitätsärmsten SSDs, die Festplatten ersetzen können – wie hier mit P-ATA-Adapter.

Durch Temposteigerungen und Preisverfall bei den Solid-State- und besonders den Flashspeichern ist damit zu rechnen, dass sie in den nächsten Jahren die konventionelle Festplattentechnik ergänzen und sogar ersetzen, und zwar besonders in mobilen Geräten durch Flashspeicher. So entschloss sich Fujitsu, im 1,8"-Segment nur noch Flashfestplatten zu entwickeln; der Marktforscher iSuppli sagt die Verwendung von Hybrid- oder reinen Flashfestplatten in mindestens jedem zweiten Notebook bis 2009 voraus. Mit einer Ablösung wären gleichzeitig auch zahlreiche Unterscheidungsmerkmale der Hersteller verschwunden. Dazu gehören die entfallenden Punkte Lautstärke und Kühlungsbedarf, aber auch die dann prinzipbedingt sehr ähnliche Schockresistenz, Zugriffszeit und der Energiebedarf. Herstellern bliebe Gestaltungsfreiraum bei Geschwindigkeit, Kapazität und Preis. Aber auch hier sind die bisherigen Produkte gleicher Generationen kaum zu unterscheiden. Diese Situation besteht bereits bei USB-Sticks. Dort wurden daher zusätzliche Eigenschaften eingeführt, etwa beigelegte Software zur Verschlüsselung der Daten oder die Abdichtung des Speichers gegenüber Wasser und Schmutz. Trotz dieser Versuche ist aber mit einer Phase der Fusionen und Allianzen zu rechnen, insbesondere zwischen den heutigen Festplatten- und Flashherstellern. Dies äußerte sich bislang in Aufteilungen von Märkten. So beliefert ein Hersteller nur OEM-Kunden, während er seine Laufwerke anderen Herstellern für den Endkundenmarkt zur Verfügung stellt. Bislang bestehen jedoch deutliche Leistungsunterschiede sowohl zwischen Produkten verschiedener Hersteller, als auch denen gleicher Preisgestaltung.

Hybridfestplatte/HHD

Funktion und Technik

Der Schreib-/Lesekopf einer Festplatte. HHDs parken diesen während 95 % der Laufzeit neben den empfindlichen und während 5 % der Zeit stillstehenden Platten. So wird ein geringer Energieverbrauch erreicht.

Bei der Hybridfestplatte (Hybrid Hard Disk) wird eine herkömmliche Festplatte mit einem Solid-State-Speicher kombiniert.[2] Seine nur geringe Größe soll den Mehrpreis auffangen, seine Vorteile aber schon heute einem breiten Markt zugänglich machen.
Die Kombination mit DDR-SDRAM bietet vorerst nur ein Hersteller innerhalb Japans und fern des Massenmarktes ab rund 1000 € an. Die DTS „Platinum HDD“ [3] verwendet einen Chip desselben Herstellers, der über die Zeit lernen soll, welche Inhalte sich für den schnellen Zwischenspeicher empfehlen. Dieser behält durch einen Kondensator seine Daten bis anderthalb Minuten nach Ende der Stromzufuhr und besteht aus einem ein Gigabyte DDR-SDRAM-Modul. Dieses ist mit einer 2,5″-Festplatte in einem 3,5″-Gehäuse untergebracht. Dadurch ist dieser Ansatz nicht für mobile Geräte verwendbar, spart aber ein Drittel der Energie konventioneller 3,5″-Festplatten. Da hier ein Chip die Auswahl übernimmt, beschleunigt dieses Laufwerk jedes Betriebssystem; bei HHDs muss dies das Betriebssystem übernehmen. Bisher leistet dies nur Windows Vista. Im Desktop- und kleinen Serverbereich kann das Laufwerk für Datenmengen unter einem Gigabyte jegliche Flashlaufwerke deutlich übertreffen. Die eingebaute Festplatte fasst zwischen 80 und 200 GB, die kleinste Ausführung kostet rund 900 €.
Die Kombination mit Flash ist bereits verfügbar und wird wegen der Unterstützung durch große Hersteller, sowie Mobileignung und Datenerhalt auch zukünftig weiter verbreitet sein. Mit ihr befassen sich daher die folgenden Absätze. Technisch gibt es zwei Umsetzungen. Intel integriert den Flashspeicher nicht in die Festplatte selbst, sondern verwendet wie für den Arbeitsspeicher einen proprietären Anschluss auf dem Mainboard. Damit entsteht eigentlich keine Hybridfestplatte, der erzielte Effekt ist aber derselbe. Dieses Prinzip nennt Intel „Turbo Memory[4]. Alle anderen Anbieter dieser Technologie sind Festplattenhersteller und integrieren den Flashspeicher in das Laufwerk selbst – meist 256 MB. Intel verwendet die vier- bis achtfache Kapazität. Ob dies aber einen Praxisvorteil ergibt, ist derzeit nicht abzusehen.

Grundlage beider Varianten ist, dass Flashchips ihre Daten schneller als die Festplatte selbst liefern können. Die in den Festplatten bereits vorhandenen SDRAM-Zwischenspeicher verlieren ihren Inhalt ohne permanente Stromversorgung. Flash ist jedoch beim Schreiben nicht nur langsamer als dieser SDRAM, sondern unterbietet auch die Festplatte selbst. Er ist also kein Ersatz, sondern eine Ergänzung. Eine Datei wird daher auch nicht beim ersten Zugriff, sondern erst nach häufiger Verwendung in den Flashbereich aufgenommen; mitunter auch nur einzelne Bestandteile. Diese werden beim Lesen dann deutlich schneller bereitgestellt, als die Festplatte es könnte. Sie wird nur bei Bedarf – also für selten benutzte Dateien – gestartet. Bei Internet- oder Büroarbeit sind die Hybrid-Konzepte somit oft lautlos und sehr energiesparend (um 0,3 W). Diese beiden Punkte, zusammen mit der im Stillstand höheren Stoßfestigkeit sind ihre Vorteile. Da diese besonders dem Mobileinsatz zugutekommen, werden HHDs bisher nur in 2,5 Zoll gefertigt. Dank des S-ATA-Anschlusses sind sie aber auch im Desktop verwendbar. „Turbo Memory“ dagegen ist nur für Notebooks verfügbar, 2008 soll die zweite Generation dann auch den Desktop erreichen. Intels Lösung ist dabei immer an einen Mainboard-Chipsatz aus gleichem Hause gebunden.

Beide Konzepte benötigen Windows Vista, das bislang als einziges Betriebssystem den Flashbereich mit den meistbenötigten Daten zu bestücken vermag. Alle anderen Betriebssysteme benutzen den Flashbereich nicht. Dort entspricht das Verhalten dem konventioneller Festplatten. Allein der Aufpreis von 20 € bleibt bestehen. Im Folgenden sind die theoretischen Vorteile der Praxis gegenübergestellt.

Flash-Verwendung. HHDs sammeln beim Schreiben zunächst 32 MB an Daten, bevor der Spindelmotor startet. Noch einmal soviel wird den über Sondertasten einiger Tastaturen startbaren Programmen bereitgestellt. Der weitere Bereich steht den meistverwendeten Daten zur Verfügung. „Turbo Memory“ wird stattdessen erst durch einen nachzuinstallierenden Treiber aktiviert, der nicht in Windows Vista enthalten ist. Eine Hälfte des Flashmoduls funktioniert dann wie der einer HHD, die andere wird wie ein schneller Auslagerungsspeicher verwendet (siehe ReadyBoost). Dies beschleunigt PCs mit 1 GB RAM wirksam auf das Niveau einer 2GB-Ausstattung, ist jedoch auch nicht abstellbar, wenn diese bereits vorhanden ist. Ohne Auslagerungsbedarf bleibt also eine Hälfte des Moduls ungenutzt.

Akku-Laufzeit. Um tatsächlich Energie zu sparen, erfordern beide Konzepte manuelle Eingriffe. Da bei „Turbo Memory“ eine konventionelle Festplatte Anwendung findet, wird diese durch die Windows-Energieoptionen heruntergefahren, nicht durch einen HHD-Laufwerkscontroller. Deren Voreinstellung sieht aber eine mehrminütige statt sekündliche Verzögerung nach einem Festplattenzugriff vor. Wird die Einstellung auf „3 Minuten“ korrigiert, verlängert sich die Akkulaufzeit durchaus um 15 %, so beispielsweise von drei auf dreieinhalb Stunden. Ein vergleichbarer Effekt stellt sich auch bei HHDs ein, wenn die Einstellung „Windows Hybrid-Festplattenenergiesparmodus“ in den Energieoptionen aktiviert wurde.

Tempogewinn. Viele Benchmarks können die Mehrleistung der Hybride prinzipiell nicht wiedergeben – denn sie verwenden möglichst viele, verschiedene und große Dateien, um eine maximale Last zu erzeugen. Diese überschreiten dann die Kapazität des Zwischenspeichers um ein Vielfaches. Zudem verwenden sie gerade kein wiederkehrendes Zugriffsmuster – um auszuschließen, das ein Laufwerkshersteller sein Produkt daraufhin optimiert. Damit werden viele verfügbare Leistungstests jedoch der typischen Notebook-Verwendung nicht gerecht – und ähnlich einem Hybridauto unter Volllast – haben HHDs und „Turbo Memory“ in diesen Tests keinen Vorteil. Erstere beschleunigen Windows-Start und Herunterfahren um rund 20 Prozent; ähnlich den Start häufig benutzter Programme. „Turbo Memory“ bewirkt nach ersten Tests von AnandTech.com jedoch keine Beschleunigung. Die Notebookhersteller Sony und Dell kamen zu gleichen Ergebnissen und verzichten daher vorerst auf diese Technologie. AnandTech untersuchte dies zusammen mit Intel [5] und stellte im „PCMark“-Test tatsächlich die vom Hersteller versprochene Leistungsverdopplung fest. Außerhalb des Benchmarks zeigten sich jedoch keine Tempovorteile, weder beim normalen Arbeiten, noch beim Windows-Start oder Herunterfahren.

Auch wenn Hybridfestplatten erst 2007 auf den Markt gekommen sind, gab es eine ähnliche Technik schon mehr als zehn Jahre zuvor: Der Hersteller Quantum hatte eine SCSI-Festplattenserie namens Rushmore im Programm. Diese kombinierte eine herkömmliche Festplatte statt – mit damals eher bremsendem – Flash, mit SD-RAM in Laufwerksgröße. Die reichte bei Einstellung der Serie anno 2000 von 130 Megabyte bis 3,2 Gigabyte. Alle gespeicherten Daten wurden im Betrieb aus dem extrem schnellen „Cache“ geliefert. Da dieser jedoch auf Strom angewiesen war, wappnete der Hersteller das Produkt mit Batterien gegen Datenverlust. Deren Energie ließ im Notfall die Festplatte starten und alle Daten aus dem RAM übernehmen. Wegen der hohen Preise für RAM-Chips waren die Rushmore-Platten für Privatanwender aber praktisch unerschwinglich – sie lagen beim Tausendfachen heutiger Flashchips. Daher war auch die optional verfügbare Grundversion keine Ausnahme: ihr fehlten die sowieso relativ günstigen Bauteile Festplatte und Batterie.

Marktsituation

Nach Samsungs Debüt der ersten HHD [6] im März 2007 begann Seagate im Juli mit der Fertigung eines Modells gleicher Flashgröße [7]. Das starke Engagement des Samsung-Konzerns, Festplatten möglichst bald durch Flashspeicher zu ersetzen, dürfte durch die Chipproduktion im eigenen Haus unterstützt werden, denn über diese Synergie verfügt neben Samsung nur noch Toshiba als einziger Festplattenhersteller. Toshiba plant ebenfalls massive Investitionen in den neu entstehenden Markt, den sie bislang zu rund einem Drittel beliefern. Marktführer ist mit 45 Prozent Samsung. Hitachi beließ es bei der Ankündigung einer um Flashspeicher ergänzten Version ihrer aktuellen Notebook-Festplatten. Der Aufpreis liegt bei allen um 20 €.

Zusammen mit Fujitsu, die noch keine HHD ankündigten, gründeten die genannten Hersteller Anfang 2007 die „Hybrid Storage Alliance“ [8], um die Vorteile der neuen Technologie besser vermarkten zu können – denkbar wären etwa einheitliche Logos und Mindeststandards zu deren Erlangung.

Die verfügbaren HHDs werden von den Notebook-Herstellern jedoch kaum angenommen, da ihre Vorteile den Mehrpreis derzeit nicht rechtfertigten. Zum gleichen Ergebnis gelangen verschiedene Computermagazine[9][10]. Erst ein weitaus größerer Flashanteil könnte die erwartete Leistungssteigerung bringen, der wiederum würde aber den Mehrpreis deutlich erhöhen. Ein weiterer Grund könnte die Bindung an das bislang verhalten gestartete Windows Vista sein. Einige Hersteller bieten aufgrund der Kundennachfrage wieder den Vorgänger XP an, das den Flashspeicher und damit die Vorteile einer HHD jedoch völlig ungenutzt lässt.

Intels Lösung wurde mit der Centrino-Generation „Santa Rosa“ im Mai 2007 eingeführt. Sony, HP, Dell und MSI nahmen jedoch bisher Abstand davon, das entsprechende Intel-Flashmodul auch in ihre Notebooks einzubauen. Von Microsoft zurückgewiesen wird Sonys Begründung, die zur Nutzung von HHD und auch „Turbo Memory“ nötige Unterstützung sei in Vista nicht vollständig enthalten. Tests (siehe Absatz Tempogewinn) bestätigen diese Annahme. Ein Sony-Sprecher sagte zuvor, Vista könne gar nicht entscheiden, welche Dateien im Flashbereich vorgehalten werden sollen. So erklärten sich auch die nur geringen erzielten Geschwindigkeitsvorteile. Da er diese Funktion mit dem ersten ServicePack für Vista erwarte, hält er einen dann folgenden Einbau der Flashmodule für wahrscheinlich. HP nennt als Begründung für den vorläufigen Verzicht auch den hohen Preis der Intel-Flashmodule. Sie seien mit 50$ pro Gigabyte etwa doppelt so hoch, wie marktüblich. Motivation für die eigene Lösung – Flashspeicher und Festplatte zu kombinieren – dürfte bei Intel wie auch Samsung darin liegen, die Flash-Chips aus eigener Produktion so auch selbst zu vermarkten. Da Intel jedoch keine Festplatten fertigt, entstand diese Lösung mit separatem Flashmodul. PC-Hersteller können dadurch beliebige konventionelle Festplatten mit verschieden großen Flashspeichern kombinieren. Und Käufer diesen gegen größere und schnellere tauschen, so sie einzeln verkauft würden.

Während Intel mit der Version „2.0“ [11] seines Produkts diesen Weg auch 2008 weiterverfolgt, gibt es seitens der HHD-Anbieter keine Ankündigungen zu Nachfolgern der ersten Generation von 2007.

Reine Flash-Laufwerke

Funktion und Technik

Diese Laufwerke bestehen aus Flash- und Controllerchips, die auf einer Leiterplatte angeordnet sind. Deren Größe hat keinen Einfluss auf die Geschwindigkeit, nur auf die Chip-Anzahl. Auf kleinem Formfaktor sind also weiter nur geringere Kapazitäten realisierbar, nun jedoch mit hoher Performance. Viele Modelle sind mit Plastik oder Metall (teil-)verkleidet, um die Bauteile zu schützen und – im zweiten Fall – Solidität zu vermitteln. Dies hebt dafür den Vorteil geringen Gewichts und teilweise der Stoßfestigkeit durch die Unnachgiebigkeit des Metallmantels wieder auf. Bestehen bleiben hohe Temperaturtoleranz, Lautlosigkeit, sowie Energieeffizienz. Letzteres galt jedoch nicht für die 2007 produzierten, ersten Flashfestplatten mit SATA-Anschluss, da diese noch für den Vorgänger PATA entwickelt wurden. Sie enthielten einen Chip, der die Übersetzung übernahm; dafür jedoch rund ein Watt benötigte. Daher verbrauchten sie mit zwei Watt im Leerlauf das Doppelte herkömmlicher Notebooklaufwerke in 2.5"-Bauform. Gleiches war zuvor beim Wechsel konventioneller Festplatten vom PATA- zum SATA-Anschluss zu beobachten und verschwand wie bei den aktuellen Flashfestplatten mit den ersten reinen SATA-Designs.

Verwendung finden in allen Preissegmenten die sogenannten NAND-Chips in der schnelleren SLC-, oder beim Schreiben langsameren MLC-Ausführung (siehe Kasten Architektur-Vergleich). Sie erreichen unter den Flashtechniken den besten Kompromiss zwischen Kapazität, Preis und Geschwindigkeit. Nur ihre Zugriffszeit ist zweigeteilt: Betriebssystem und Programme starten von Flashfestplatten zwar zwei- bis dreimal so schnell wie von konventionellen Festplatten. Beim Schreiben zeigt sich jedoch der Nachteil des Kompromisses, der bei den Hybrid-Konzepten noch kaschiert werden kann – insbesondere die MLC-basierten Flash-SSDs liegen bei kontinuierlichen Schreibvorgängen unter dem Niveau normaler Festplatten.[12] Bei reinen Lesevorgängen [12] aber auch bei Multitasking, also bei gleichzeitigem Lesen und Schreiben, sind die SSDs überlegen.[13] In einer Desktopumgebung wird meist gelesen, sodass hier die Schreibschwäche nicht zu sehr ins Gewicht fällt.

Die I/O-Performance, die sehr wichtig für Server ist, ist bei guten SLC-SSDs deutlich besser als bei konventionellen Festplatten. Die MLC-SSDs sind aufgrund kleinerer Wiederbeschreibbarkeitszyklen für Server mit hohem Schreibaufkommen ungeeignet.

Die Geschwindigkeitssteigerungen in neuen Produkt-Generationen werden wie in Grafikchips vor allem durch starke Parallelisierung erlangt: So verfügen die neusten SSDs bereits über einen 10-Kanal-Controller.[14]

Architektur-Vergleich
SLC ist zu MLC NAND ist zu NOR
10x haltbarer 10x haltbarer
3x schneller schreibend
vergleichbar lesend
4x schneller schreibend
5x langsamer lesend
halb so kompakt bis 16x kompakter
30 % teurer 30 % günstiger
Folgende Technologien sollen die Vorteile von NAND und NOR vereinen: OneNAND (Samsung), mDOC (Sandisk) und ORNAND (Spansion).

Was diese Laufwerke beim verteilten Zugriff so langsam schreiben lässt, ist ihre interne Organisation. Sie sind in Blöcke unterteilt. Wird auch nur ein Byte darin geändert, muss der gesamte Block neu geschrieben werden. Tatsächlich schreibt das Laufwerk intern also im vom Hersteller angegebenen Tempo die Blöcke neu. Anwender und Leistungstests nehmen jedoch nur die wenigen geänderten Bytes wahr. Der Schreibvorgang erscheint langsam. Dieser Effekt wird im Englischen „Write Amplification“ genannt. Demzufolge wird also das Schreiben umso schneller, je mehr es dem Volumen eines Blockes entspricht. Dateien mit mehreren Megabyte werden so tatsächlich mit der angegebenen Transferrate geschrieben, denn hier werden alle Bytes in den Blöcken geändert – die Nutzrate entspricht der Schreibrate.

Ein erster Versuch, diesen Effekt aufzuheben ist die „Managed Flash Technology“ von EasyCo. Sie ordnet auf Betriebssystemebene die Schreibkommandos so an, das sie möglichst zusammenhängend, statt verteilt geschehen. Vom Hardwareprodukt unabhängig, ist sie für den Heimgebrauch vorerst noch zu kostenintensiv. Praktikabler wäre der Einbau eines SDRAM-Zwischenspeichers. Konventionelle Festplatten verfügen über einen solchen Chip – um dieselben Performanceprobleme abzufedern. Auch Flashlaufwerke ab 2008 integrieren diesen weitgehend, verwalten darin jedoch oft die Daten zur Nutzungsverteilung. Die eigentliche Zwischenspeicherung erfolgt hier meist im noch schnelleren SRAM des SSD-Controllerchips.[15]

Ähnlich wie konventionelle Festplatten leisten auch Flash-Festplatten bei nur geringer Restkapazität nicht mehr die volle Leistung. Bei beiden Laufwerks-Typen spielt dabei die Suche nach den nur wenigen freien Speicher-Bereichen die Hauptrolle. Der oben beschriebene Effekt der „Write Amplification“ verstärkt dies noch auf Seiten der Flashfestplatten. Die Gesamtleistung sinkt so im Alltagsbetrieb um etwa ein Drittel.[16]

Zwischenzeitlich eignen sich Flashfestplatten besonders für den Mobileinsatz, spezielle Desktops und wenige Server. Hier vor allem zum Ausliefern von Webseiten, weniger für Datenbankanwendungen und kaum für Mailserver, da in diesen Fällen zunehmend kleine Datenmengen auch geschrieben werden.

Marktsituation

Bereits 1995 führte MSystems die ersten flashbasierten SSDs ein. Bis 2006 blieben diese aber militärischen und anderen wenig preissensitiven Märkten vorbehalten. Im März 2006 fertigte Samsung dann ein Modell, das mit einem Achtel des Preises einen anderen Zielmarkt anvisierte: Notebooks mit 2,5- und 1,8-Zoll-Festplatten – und per Adapter auch Desktop-PCs. Damit wurde versucht, einen neuen Markt für erschwingliche Flash-Festplatten zu eröffnen. Mit 600 $ für 32 GB gelang dies zwar noch nicht, allerdings eroberte Samsung die Marktführerschaft mit einem Marktanteil von 45 %. So ist Apple ein wichtiger Großabnehmer und auch Mtron im oberen SSD-Segment steuert – mit eigenem Controller – ebenfalls Samsung-Chips an. Im Jahr 2007 forschten eine Reihe von Anbietern mit gleicher Zielstellung an Konkurrenzprodukten zu Samsungs erstem Versuch. Im zweiten Quartal dieses Jahres erschienen die Vertreter der zweiten Generation. Momentan findet im Bereich der Flashfestplatten für Heimanwender ein sehr starker Preisverfall bei gleichzeitiger massiver Steigerung der Kapazität statt.[17]

Da die Flashfestplatten im Vergleich zu herkömmlichen Festplatten gut skalierbar sind – die Mechanik entfällt schließlich völlig – werden sie auch in den sogenannten Mini-Notebooks eingebaut. Damit kommt diese neue Technik überraschenderweise im günstigsten Segment mobiler Computer zuerst serienmäßig ohne Aufpreis zum Einsatz. Die verwendeten Laufwerke fassen zwischen 0,5 und 8 GB und kosten mit rund 10 $ deutlich weniger als konventionelle Festplatten, die dafür ein vielfaches Fassungsvermögen haben.

In der folgenden Tabelle werden der Verbrauchersektor dem immer noch existenten Hochpreissektor der Flash-Laufwerke sowie konventionellen Festplatten gegenübergestellt.

 
konventionelle Festplatte Flash-SSD Kommerziell Flash-SSD Industriell
max. Kapazität 2 TB 512 GB 1,6 TB
Betriebstemperatur 5 bis 55 °C 0 bis 70 °C −40 bis 85 °C
Schreibzyklen „unbegrenzt“ 100 000 / Flashzelle 1 bis 5 Millionen / Flashzelle
Datenerhalt keine Angaben 10 Jahre 10 Jahre
Flugschreiber-geeignet nein nein ja
Sicheres Löschen ja teilweise ja
S.M.A.R.T. ja teilweise ja

Betriebssystemunterstützung von Flashspeicher

Windows Vista führte zwei Möglichkeiten ein, um Flashspeicher zur Unterstützung konventioneller Festplatten zu nutzen. Ihre Anwendung zeigt jedoch nur in seltenen Situationen mit SSDs vergleichbare Leistungen, erzeugt im Gegenzug allerdings auch nur geringe oder gar keine Mehrkosten.

Für Linux gibt es spezielle Dateisysteme, die an die Besonderheiten von rohen Flashspeichern angepasst sind, so etwa JFFS2, YAFFS und UBIFS; für heute übliche SSDs mit FTL ("Flash Translation Layer") und integriertem Wear-Levelling werden aber wie etwa auch für USB-Sticks einfach konventionelle Dateisysteme wie ext3 genutzt, teilweise aber mit optimierten Schreibzugriffseinstellungen (oder aber besser geeignete Dateisysteme wie ZFS, btrfs, NILFS oder LogFS). Solche Dateisysteme zielen darauf ab, Flashspeicher so zu verwenden, dass ihre Vorteile bestmöglich genutzt werden können. Dadurch können höhere Geschwindigkeiten und bessere Datenintegritäts-Kontrolle erreicht werden.

Vista erkennt die Möglichkeiten von HHDs und kopiert meistverwendete Programm- und Betriebssystem-Dateien in deren Flashteil. Die erzielbaren Effekte sind weiter oben beschrieben.

Vista soll zudem von USB-Sticks oder Flash-Speicherkarten profitieren. Es bietet hierzu an, mit ihnen eine HHD nachzuempfinden, indem ein Teil ihres Speicherplatzes als schneller Zwischenspeicher genutzt wird. Hierbei wird auf dem Flashspeicher jedoch nur das gesammelt, was während des Betriebs nicht mehr in den Arbeitsspeicher passt. Repräsentative Tests zeigen daher nur bei PCs mit weniger als einem GB Arbeitsspeicher einen spürbaren Vorteil für die „ReadyBoost“ genannte Idee [18]. Sie dient somit als leicht zu installierende RAM-Erweiterung. Unter Berücksichtigung der Preise für Arbeitsspeicher ist dies jedoch nur sinnvoll, wenn ein entsprechend schneller Flashspeicher bereits vorhanden, oder eine Erweiterung des Arbeitsspeichers nicht möglich ist. Anders als in HHDs bleibt hier die Festplatte auch weiterhin auf Touren, wodurch weder Energieverbrauch noch Lautstärke gesenkt werden. Die Festplatte enthält zudem ein Abbild des Zwischenspeichers, das bei Entfernen des Flashspeichers verwendet wird. Die darauf ausgelagerten Daten werden sicherheitshalber mit 128 Bit verschlüsselt und das Medium vor Gebrauch sinnvollerweise kurz auf ausreichende Geschwindigkeit getestet. ReadyBoost erfordert eine Laufwerksgröße von 256 MB, maximal verwendet Vista 4 GB. Der verwendete Anteil ist beim Anschließen einstellbar. Unter Linux ist eine ähnliche Methode schon seit langem möglich, in dem man den Flashspeicher als Swapping mountet.

Windows XP verfügt von Haus aus über keine der beiden Vista-Optionen, Flashspeicher zur Temposteigerung einzusetzen. Das Moskauer Unternehmen MDO Limited bietet mit „eBoostr“ [19] jedoch ein Tool an, das die „ReadyBoost“-Idee unter XP umsetzt. Zwar funktioniert es auch mit älteren externen Flashspeichern, um aber tatsächlich einen Tempogewinn zu erhalten, sollte das ReadyBoost-Logo auch hier als Anhaltspunkt beachtet werden. Dieses erhalten USB-Sticks und Speicherkarten, die ein von Microsoft festgelegtes Performancelevel erreichen. Das Programm kann - anders als Vista - auch mehrere Flashspeicher gleichzeitig nutzen und dabei die Lastverteilung zwischen Festplatte und Flashspeicher anzeigen. Zielgruppe sind jene PCs, die bereits über einen USB 2.0-Port verfügen, für die eine RAM-Erweiterung jedoch technisch oder ökonomisch nicht möglich ist. Die Demoversion erlaubt die volle Nutzung für vier Stunden nach einem Neustart, die Vollversion kostet rund 17 €.

Flash-Besonderheiten

Verschleiß und Ausfallvorhersage

Konventionelle und Flashfestplatten verschleißen mit der Zeit. Während sich das bei ersteren aus der Abnutzung der Mechanik ergibt, wirkt bei der Flashtechnik ein elektrischer Effekt begrenzend. Lesevorgänge sind hier zwar unbegrenzt möglich, je nach Qualität kann eine Flashzelle aber nur zwischen 100.000 und 5 Millionen Schreibvorgänge absolvieren. Danach „vergisst“ sie, was neu geschrieben wird und kann nur noch gelesen werden [20]. Flashspeicher wären so mitunter schon nach wenigen Tagen defekt. Dem wirken seit einigen Jahren „Wear-Levelling“-Verfahren entgegen. Der Controller im Flashlaufwerk verteilt Schreibvorgänge auf alle Speicherzellen so, dass jede möglichst gleich häufig beschrieben wird. Die hierfür verwendeten Algorithmen sind herstellerspezifisch, in jedem Fall aber vom Rest des Computers aus weder sichtbar noch beeinflussbar. Dieses Verteilungs-Verfahren gibt es in verschiedenen Ausbaustufen. So verwendet eine Flashfestplatte häufig komplexere Controller als ein USB-Stick und sehr wenige Wechseldatenträger auch gar keinen [21]. Hier können dann Software-Lösungen wie in Windows Vista oder das Dateisystem JFFS2 unter Linux aushelfen.

Je nach Ausbaustufe führt das Verfahren zu einer Haltbarkeit, die konventionellen Festplatten nahe kommt oder sie übertrifft [22].

Eine Ausfallvorhersage wie bei konventionellen Festplatten (z. B. durch S.M.A.R.T.) fehlte bei SSDs jedoch. Bei Laufwerken über 1000 € hat sie MTron daher vor einigen Jahren und SiliconSystems im Jahr 2007 durch eine vergleichbare ergänzt [23] [24]. Letztere ist jedoch kein Standard und auf diesen Hersteller begrenzt. Die Prüfung ist im Vergleich zu konventionellen Festplatten sehr übersichtlich: Es wird ausschließlich geprüft, ob von den 2 bis 4 Prozent Reserveblöcken noch mehr als 95 Prozent übrig sind [25]. Ist dies nicht mehr der Fall, geht das Laufwerk sicherheitshalber in einen Nur-Lese-Modus über. Da bei guten „Wear-Levelling“-Verfahren alle normalen Sektoren zu ähnlicher Zeit abgenutzt sind, ist ein Ausfall nach der Verwendung erster Reservesektoren vermutlich nahe.

Ein Nebeneffekt aller Verteilungs-Verfahren ist, dass kein sicheres Löschen mehr möglich ist. Der Hintergrund ist im folgenden Abschnitt Sicheres Löschen und Defragmentierung erläutert.

Methoden der Nutzungsverteilung

Dateien werden immer als Bitfolge geschrieben. Heute enthält eine Flashzelle meist 2 Bits (ein Viertel Byte), welche in Blöcken von 2.000 oder 4.000 Byte zusammengefasst sind. Angesprochen werden vom Controller immer ganze Blöcke. Beim Lesen einzeln, beim Schreiben werden sie abermals zusammengefasst – zu einem „Erasable Block“. Dieser enthält 32 oder 64 Blöcke. Bei jeder Änderung in einem seiner Blöcke wird der zunächst nicht gelöscht, sondern als unaktuell markiert. Geschrieben wird in den nächsten freien Block desselben Erasable Block. Erst, wenn alle seine Blöcke unaktuell sind, wird er einmal komplett gelöscht. Somit müssen bei jedem geänderten Byte mehrere Kilobyte (der nächste Block) neu geschrieben werden. Und damit entstünde eine inakzeptable Haltbarkeit. Im folgenden Beispiel wird eine Textdatei viermal überarbeitet und gespeichert.

Schreibvorgang 1 2 3 4   weiter wie 2
Block            
1   Datei.txt unaktuell unaktuell löschen Datei.txt ...
2   leer Datei.txt unaktuell löschen leer ...
3   leer leer Datei.txt löschen leer ...
5   leer leer leer leer leer ...
6   ... ... ... ... ... ...


Ein Erasable Block umfasst hier der Übersicht wegen nur drei Blöcke. Jeder Block umfasst 2 oder 4 KB.


Dynamic Wear Levelling
Soll ein Erasable Block beschrieben werden, wird hier von den noch nicht belegten der am wenigsten abgenutzte ausgewählt. Dies ist vergleichsweise einfach im Controller umzusetzen. Es hat den Nachteil, dass bei gut gefülltem Laufwerk der wenige freie Platz schneller abgenutzt wird. Die Schreibzyklen steigen um den Faktor 25 gegenüber fehlendem Wear-Levelling.

Static Wear Levelling
Soll ein Erasable Block beschrieben werden, wird hier der am wenigsten abgenutzte ausgewählt. Ist dieser schon belegt, werden dessen Daten auf einen anderen umverlagert, dann die neuen Daten geschrieben. Dies erfordert einen etwas komplexeren Controller, führt aber zu sehr gleichmäßiger Abnutzung. Die Schreibzyklen steigen um den Faktor 100 gegenüber fehlendem Wear-Levelling.

Defekte Blöcke
Scheitert ein Schreibversuch auf einen Block, wird dieser wie bei konventionellen Festplatten als nicht mehr benutzbar markiert und ein Reserveblock aktiviert.

Sicheres Löschen und Defragmentierung

Gewöhnliche Betriebssysteme löschen nicht den Dateiinhalt selbst, sondern entfernen lediglich den Eintrag im Inhaltsverzeichnis des Dateisystems. Dies beschleunigt den Löschvorgang, ermöglicht aber auch eine Wiederherstellung der Datei. Um dies zu verhindern gibt es Programme welche die Dateien tatsächlich komplett überschreiben. Dieses Überschreiben leiten Flashspeicher mit Nutzungsverteilung dann aber auf die bisher am wenigsten benutzten Blöcke, nicht auf jene, in denen die Datei steht.

Um dieses Sicherheitsleck zu nutzen und auf die so gelöschte Datei zugreifen zu können, müsste aber das Laufwerk geöffnet und der Controller gegen einen ausgetauscht werden, der alle Blöcke ausliest. Zudem fehlt die Information, welche Blöcke zu einer durch „Überschreiben“ gelöschten Datei in welcher Reihenfolge gehören. Kryptographiehersteller warnen trotzdem vor dem Einsatz solcher Laufwerke, da zumindest Schlüssel auffindbar sein könnten.

Behebbar ist das Problem erst durch einen Controller, der auf Wunsch vorübergehend die Nutzungsverteilung abschalten kann und so ein „Secure Erase“ ermöglicht. Entsprechende Laufwerke sind aber nur im Hochpreissegment zu finden, etwa von M-Systems. Diese enthalten dann auch Löschalgorithmen nach US-Airforce- oder Navy-Standard.

Für den Heimgebrauch dürfte es bereits genügen, das Laufwerk einmalig mit Dateien zufälligen Inhalts vollständig zu beschreiben. Somit wird jeder Sektor einmal überschrieben, unbesehen seines Nutzungsgrades. Ab Windows XP leistet dies etwa DiskBench [26]. Ein Nebeneffekt ist das unberührt bleibende Inhaltsverzeichnis des Dateisystems, das alle Datei- und Verzeichnisnamen enthält. Dieser Nebeneffekt tritt nicht auf, wenn die zufälligen, hinreichend großen Datenmengen nicht in eine Datei, sondern direkt in die Partition geschrieben werden, so dass alle Informationen innerhalb dieser Partition zuverlässig zerstört werden. Behauptungen, dass die Verwendung von Dateien wichtig sei, weil ein dateisystemloses Beschreiben nicht den gewünschten Effekt habe, entbehren einer plausiblen Begründung.

Eine Defragmentierung ist aufgrund der marginalen Lese-Zugriffszeiten nicht nötig. In Bezug auf die Schreibleistung differieren die Herstellerangaben jedoch. So warnt OCZ die Nutzer seiner MLC-basierten Core-Serie vor dem Defragmentieren [27], während MTron für seine SLC-basierten Produkte ein Defragmentieren sogar empfiehlt [28]. Bei SSDs mit Wear Leveling ist jede Defragmentierung nutzlos.

Solid State Drives im Vergleich

Im Folgenden sind die derzeit aktuellen Verfahren zum Vergleich aufgeführt, der Hochpreissektor der Solid State Drives bleibt dabei unberücksichtigt. Ein Video-Vergleich ist ebenfalls verfügbar [29].

  Flash-Laufwerk CompactFlash-Karte RAM-Disk Festplatte
1,0″ bis 3,5″ per ATA-Adapter als Teil des Arbeitsspeichers 1,0″ bis 3,5″
Größe bis 512 GB bis 64 GB bis 16 GB je Modul bis 2000 GB
Preis pro GB ab 1,43 € ab 1,56 € ab 6,01 € ab 0,066 €
Anschluss S-ATA, P-ATA S-ATA, P-ATA auf Hauptplatine befestigt S-ATA, P-ATA, SCSI, SAS
Lesen bis 280 MB/s bis 45 MB/s 1000 bis 3000 MB/s 70 bis 150 MB/s
Schreiben bis 200 MB/s bis 40 MB/s 1000 bis 3000 MB/s 70 bis 150 MB/s
Mittlere Zugriffszeit lesen 0,2 ms 0,8 ms 0,04 µs 3,5 bis >14 ms
Mittlere Zugriffszeit schreiben 0,4 ms 10 bis 35 ms 0,04 µs 3,5 bis >14 ms
Überschreibbar 0,1 bis 5 Millionen Mal 0,1 bis 2 Millionen Mal beliebig beliebig
Lagerbar bei −55 bis 95 °C −40 bis 85 °C −25 bis 85 °C −40 bis 70 °C
stoßfest – Betrieb 1500 G 2000 G  ? 60 G
stoßfest – Lagerung 1500 G 2000 G  ? 350 G
Verbrauch – Ruhe 0,05 – 1,3 W 0,0003 W 1 W pro SDRAM-Modul 7 W und höher
Verbrauch – Zugriff 0,5 – 3 W 0,25 W 8 W pro SDRAM-Modul 10 W und höher
Verhalten beim PC-Ausschalten problemlos problemlos Datenverlust; manche Software sichert auf Festplatte problemlos
Verhalten bei Stromausfall problemlos problemlos Datenverlust problemlos
Lautlos
 
ja ja ja nein
Bemerkungen Bietet nur teilweise die Selbstüberwachung S.M.A.R.T. Erst Adapter ab 2004 unterstützen DMA. Größe abhängig von Hauptplatine, nicht bootfähig. Bieten die Selbstüberwachung S.M.A.R.T.

Die in der Tabelle angegebenen Werte sind in der Regel Bestwerte. Insbesondere die Geschwindigkeiten können je nach Modell auch deutlich niedriger liegen.

Bei Betriebssystem-, Programmstarts und wo immer Zugriffszeiten eine Rolle spielen, sind diese Solid-State-Verfahren den Festplatten überlegen. Prinzipbedingt gelingt es ihnen, die obigen Geschwindigkeiten bei zufällig verteilten Zugriffen aufrecht zu erhalten.

Für die CompactFlash-Variante ergibt sich eine weitere Anwendungsmöglichkeit. Dank Adaptern, die als Slotblende befestigt werden, kann die CF-Karte von außen ausgetauscht werden – die Verkabelung bleibt im Gehäuse. Da der Adapter außerdem weder PCI- noch andere Kontaktleisten hat, kann er ganz nach Platzangebot eingebaut werden. Das ist ein Unikum dieser Solid-State-Variante und ermöglicht so Anwendungen, Benutzer oder Betriebssysteme sauber und sicher voneinander zu trennen. Denn so kann jeder Benutzer seine bevorzugte Betriebssystem- und Arbeitsumgebung mitbringen, wobei er gleichzeitig keinerlei Daten im PC hinterlässt, da er die „Festplatte“ einfach mitnimmt. Zusätzlich sind CompactFlash-Karten viel robuster und handlicher als ihre „Vorfahren“, die Festplatten im Wechselrahmen [30].

Weblinks

Einzelnachweise

  1. [1] StorageTek Forum 2004 conference guide (PDF, englisch)
  2. [2] Bestandteile einer Hybridfestplatte
  3. [3] DTS „Platinum HDD“
  4. [4] Intel „Turbo Memory“
  5. [5] Beschleunigt „Turbo Memory“ wirklich?
  6. [6] HHD-Serie Samsung
  7. [7] HHD-Serie Seagate
  8. [8] „Hybrid Storage Alliance“
  9. [9] Was bringen Hybridfestplatten? Tomshardware.de
  10. [10] Was bringen Hybridfestplatten? PCWelt.de
  11. [11] Intel „Turbo Memory“ 2.0
  12. a b [12] FC-Test - continued
  13. [13] Anandtech: Multitasking
  14. [http://www.tomshardware.com/de/X25-M-Intel,testberichte-240143-4.html
  15. [14] SSD-Cachegestaltung
  16. [15] SSD Leistung bei geringer Restkapazität
  17. Eine Übersicht der für Privatpersonen verfügbaren Modelle und deren Preise und Preisentwicklungen findet sich im heise Preisvergleich.
  18. [16] Was bringt „ReadyBoost“? Computerbase.de
  19. [17] eBoostr – ReadyBoost-Alternative für Windows XP
  20. [18] Longevity/Lifespan of a flash cell
  21. [19] Verfahren zur Nutzungsverteilung. Format: PDF, 0.8 MB
  22. [20] c't - Test zur Haltbarkeit von Flashzellen (Absatz Halbwertszeit)
  23. [21] MTron S.M.A.R.T. - Unterstützung
  24. [22] SiSMART - Unterstützung
  25. [23] S.M.A.R.T.-Funktionen einer SSD beispielhaft (S.31). Format: PDF, 0.5 MB.
  26. [24] DiskBench – Flashmedien hinreichend sicher löschen
  27. [25] Defragmentierung - Herstellermeinung OCZ Core Series
  28. [26] Defragmentierung - Herstellermeinung MTron
  29. [27] Vergleich eines PC-Starts mit Flash- und SDRAM-SSD sowie schneller, konventioneller Festplatte. Format: WMV, 0.8 MB.
  30. [28] Diskussion und Tests zu CF-Karten als Festplattenersatz (engl.)

Wikimedia Foundation.

Игры ⚽ Поможем написать реферат

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”