Solid-State-Drive


Solid-State-Drive
Speichermedium
Solid State Drive (SSD)
2008Computex Ritek RiDATA Ultra-S IDE SATA2 SSD.jpg
Verschiedene SSD (Computex Ritek RiDATA Ultra-S)
Allgemeines
Typ Halbleiterbausteine
Kapazität bis rund 5 TB
Lebensdauer Lesen unbegrenzt,
Schreibvorgänge je Zelle:
3.000 (MLC in 25-nm-Fertigung) 5.000 (MLC in 34-nm-Fertigung), 10.000 (MLC in 50-nm-Fertigung) und 100.000 (SLC in 50-nm-Fertigung) und bis zu 5 Mio. (selektierte SLC-Chips)
Größe verschieden
Ursprung
Entwickler Samsung
Markteinführung 1978 von StorageTek
Vorgänger Festplattenlaufwerk

Ein Solid-State-Drive, kurz SSD, auch Festkörperlaufwerk oder speziell auch Halbleiterlaufwerk ist ein durch Halbleiterspeicher realisierter nichtflüchtiger Speicher für informationstechnische Anwendungen. Die Bauform und die elektrischen Anschlüsse können, müssen aber nicht den Normen für Laufwerke mit magnetischen oder optischen Speicherplatten entsprechen, so können Solid-State-Drives auch als PCIe-Steckkarte ausgeführt sein. Die Bezeichnungen Drive bzw. Laufwerk weisen daher lediglich auf die hieraus resultierende Austauschbarkeit hin: Es handelt sich nicht um Laufwerke im Wortsinn, bewegliche Teile sind nicht enthalten. Vorteile eines Solid-State-Drive gegenüber herkömmlichen Laufwerken sind mechanische Robustheit, sehr kurze Zugriffszeiten und das Fehlen jeglicher Geräuschentwicklung. Der Hauptnachteil im Vergleich zu konventionellen Festplatten gleicher Kapazität ist derzeit noch ein erheblich höherer Preis.

Die Preise, bezogen auf die Speicherkapazität, waren ursprünglich sehr hoch. Ebenso wie die Baugrößen verringerten sich die Preise schnell, entsprechend dem Mooreschen Gesetz. Dies führte dazu, dass um die Jahrtausendwende SSDs für spezielle Anwendungen wirtschaftlich sinnvoll eingesetzt werden konnten.

Im November 2011 lagen die Preise (in Euro pro Gigabyte) für ein SSD-Laufwerk noch bei ungefähr dem Doppelten des Preises für ein herkömmliches Magnetspeicher-Laufwerk (0,92 €/GB für ein 120 GB großes SSD-Laufwerk gegenüber 0,44 €/GB für eine 2.000 GB-Magnetfestplatte).

Auf Dauer ist durch diese Entwicklung mit einer Ablösung der Magnetspeicher als bedeutendstem Massenspeicher durch SSD zu rechnen.

Wird herkömmliche, magnetische Festplattentechnik mit einem Solid-State-Speicher zu einem Gerät kombiniert, so spricht man von einer Hybridfestplatte (engl. hybrid hard drive, HHD).

Inhaltsverzeichnis

Begriffsklärung

In der Geschichte der Elektronik bedeutet der englische Begriff „solid state“, dass Halbleiterbauteile verwendet werden, die mit Hilfe der Festkörperphysik entwickelt wurden, statt Elektronenröhren oder bewegliche mechanische Teile wie z. B. rotierende Magnetplatten. In Analogie zu anderen Festplattentechniken wird das Medium als „Drive“ oder „Disk“ bezeichnet, obwohl das Speichermedium ohne bewegliche Teile funktioniert.

Verfahren

Das Innere eines USB-Sticks: Links der Flash-Speicherchip, rechts der Controllerchip.
SO-SDRAM-Speicherchips

Zwei Arten von Speicherchips werden verwendet: Flash-basierte und SDRAMs.

Flash-Speicher sind besonders energieeffizient und sogar stromunabhängig, wenn es um das Beibehalten des Inhaltes geht. Herstellerseitig werden hier rund 10 Jahre versprochen, bei den konventionellen Festplatten lässt die Magnetisierung im Laufe der Zeit nach.

SDRAM-Chips sind flüchtig und verbrauchen pro Gigabyte deutlich mehr Energie als eine konventionelle Festplatte. Ihr Vorteil liegt dafür in der deutlich höheren Geschwindigkeit. Mitte der 1990er auch als „RAM-Disks“ eingeführt, fanden sie von Anfang an Einsatz in Servern, wo auf ihnen Caches, temporäre Dateien und Journale von Datei-, Web-, Datenbank-Servern o. Ä. abgelegt wurden. Sie können als Steckkarte oder auch als Gerät mit emulierter Festplattenschnittstelle realisiert sein – oft mit einer Sicherungsbatterie oder eigenem Stromanschluss. Sie haben gegenüber Festplatten eine rund 700-fach geringere Verzögerung, um beliebige Daten aufzufinden. Gegenüber der Flash-Technik sind sie 80-fach schneller. Ein zweiter Vorteil ist die festplattengleiche, unbegrenzte Wiederbeschreibbarkeit; Flash-Chips sind hier auf 100.000 bis 5 Millionen Schreibzyklen begrenzt. Diese Beschränkung gilt jedoch nicht für Lesevorgänge und zudem für jede einzelne Flashzelle. Eine solche wird bei Verschleiß automatisch gegen eine von rund zehn Prozent Reservezellen ausgetauscht.

Es liegt nahe, die Geschwindigkeit der SDRAMs mit dem Datenerhalt anderer Speichertypen – Festspeicher – zu verbinden. So integrieren manche Hersteller etwa auch eine konventionelle Festplatte in das Gehäuse der SDRAM-SSD, um z. B. bei einem Stromausfall ein Abbild dieser zu haben. An dieser Stelle schließt sich der Kreis, denn umgekehrt verfügen konventionelle Festplatten über immer mehr SDRAM- und neuerdings Flashchips als Zwischenspeicher (sog. „Cache“).

Vorteile und Einsatzgebiete

Der Wegfall der empfindlichen Motorlagerung und Lese-Schreib-Mechanik der Laufwerke mit rotierenden Platten ergibt eine Vervielfachung der Stoßfestigkeit. Aber auch die Temperaturtoleranz ist größer, ebenso wie deren schnelle Änderung keine Probleme mit sich bringt. Beides qualifiziert SSDs für den mobilen Einsatz. Am häufigsten finden sich die flashbasierten SSDs daher in MP3-Playern und USB-Sticks. Da sie zudem weniger Energie verbrauchen als Festplatten, dazu leichter und kleiner sind, werden sie auch für (Sub-)Notebooks interessant. Dort kommt auch zugute, dass ihre Geschwindigkeit nicht vom Formfaktor abhängt – auf kleinen rotierenden Platten dagegen finden pro Umdrehung weniger Daten Platz als auf größeren. Hybridfestplatten und reine SSD-Modelle sind seit 2007 im Handel.

Im stationären Einsatz finden sich eher SDRAM-basierte SSDs und das meist weitab vom Massenmarkt. Ihr Einsatzgebiet sind Anwendungen, die sehr laufwerkslastig arbeiten (Datenbanken, Sortieranwendungen), indem sie wiederholt kleine Datenmengen von verschiedensten Speicherbereichen anfordern. Gern werden diese Laufwerke auch von Entwicklern und Testern benutzt, um die Leistungsfähigkeit von Festplatten-Controllern und -bussen zu messen, da sie diese maximal auslasten. Ihre Geschichte startete 1978, als das Unternehmen StorageTek die „Solid State Disk STK 4305“ auf den Markt brachte, welche kompatibel zum Festkopfplattenspeicher IBM 2305 war und mit Großrechnern vom Typ System/370 benutzt wurde. StorageTek selber benutzt die Bezeichnung „Solid-State Disk“.[1] Aktuell (2007) sind hier die RamSan-Laufwerke der Texas Memory Systems zu nennen, die in Form eines Desktopgehäuses die derzeit schnellsten (Massen-)Speicher darstellen.

Ihre Preise lagen 2007 bei 700 US-Dollar pro Gigabyte,[2] ihre Geschwindigkeit lag damals beim 30-fachen der Flash-SSDs und dem über 300-fachen normaler Server-Festplatten.

Mit steigender Leistung der Flash-SSDs und besseren Controllern war 2008 erstmals ein vergleichbar performantes Laufwerk auf NAND-Basis verfügbar. Es wird zugunsten schneller Systemanbindung als PCIe-x4-Karte angeboten. Aufgrund dessen ist es jedoch nicht als Laufwerk für das Betriebssystem verwendbar, da dieses zunächst starten muss, um das „fusion io“ via Treiber ansprechen zu können. Das und der Preis von 50 € pro GB machen es für den Endkundenmarkt uninteressant, stellen aber im oben genannten Einsatzgebiet ein sehr günstiges Angebot für eine Leistung auf RamSan-Niveau dar.[3] Im Jahr 2010 wurden Speicherkapazitäten bis rund 5 TB angeboten, die Bauform ist bei diesen Modellen PCIe2.0 x8 oder PCIe2.0 x16.[4]

Aber auch im Bereich der eingebetteten Systeme, in denen es ausschließlich auf den Verzicht der mechanischen Teile ankommt, werden häufig Solid-State-Drives verwendet. Eine Ein-Chip-Mikrocontrolleranwendung verfügt aus Platz- und Energiegründen häufig erst gar nicht über einen Festplattenanschluss. Stattdessen liegt deren Steuerungsprogramm oder Betriebssystem meist in einem Flash-Chip. Einen solchen hat heute auch jeder PC. Dieser fasst aktuell bis zu zwei Megabyte und enthält das BIOS.

Weitere Anwendungsgebiete finden sich in Umgebungen in denen Schmutz, Erschütterungen, sowie Druckschwankungen, Temperatur und Magnetfelder (Raumfahrt) den Einsatz mechanischer Platten verhindern.

SSDs im Endkundenmarkt

CompactFlash-Karten sind die günstigsten, aber auch kapazitätsärmsten SSDs, die Festplatten ersetzen können – wie hier mit P-ATA-Adapter.

Durch Temposteigerungen und Preisverfall bei den Solid-State- und besonders den Flashspeichern ist damit zu rechnen, dass sie die konventionelle Festplattentechnik ergänzen und sogar ersetzen, und zwar besonders in mobilen Geräten. Bis 2012 wird der Marktanteil der Flashspeicher nach Einschätzung des A-Data-Vorsitzenden Simon Chen allerdings eher stagnieren,[5] da die konventionellen Festplatten vor allem ihren Kapazitätsvorsprung bei günstigen Preisen halten. Mit einer Ablösung durch Flashspeicher verschwinden zahlreiche Unterscheidungsmerkmale der Hersteller. Dazu gehören die Punkte Lautstärke und Kühlungsbedarf, aber auch die dann prinzipbedingt sehr ähnliche Stoßfestigkeit, Zugriffszeit und der Energiebedarf. Herstellern bliebe Gestaltungsfreiraum bei Geschwindigkeit, Kapazität und Preis. Allerdings basieren die zahlreichen MLC-Modelle des Endkundenmarktes auf nur einer Handvoll verschiedener Laufwerks-Controller. Produkte mit gleichem Controller haben eine praktisch identische Performance. Trotzdem bestehen noch deutliche Leistungsunterschiede sowohl zwischen verschiedenen Controllern, als auch Produkten gleicher Preisgestaltung. Diese Situation besteht bereits bei USB-Sticks. Dort wurden daher zusätzliche Eigenschaften eingeführt, etwa beigelegte Software zur Verschlüsselung der Daten oder die Abdichtung des Speichers gegenüber Wasser und Schmutz. Trotz dieser Versuche ist aber mit einer weiteren Phase der Fusionen und Allianzen zu rechnen, insbesondere zwischen den heutigen Festplatten- und Flashherstellern. Das äußerte sich bislang in Aufteilungen von Märkten. So entschloss sich Fujitsu, im 1,8″-Segment nur noch „Flashfestplatten“ zu entwickeln und Western Digital übernahm den SSD-Hersteller Silicon Systems. Oft beliefert ein Hersteller auch nur OEM-Kunden direkt, während er seine Laufwerke anderen Herstellern für den Endkundenmarkt mit individueller Verpackung zur Verfügung stellt. Die Speicherkapazitäten von SSDs nähern sich langsam denen von HDDs an, so kündigte im Sommer 2009 Toshiba 2,5″-SSDs mit bis zu 512 GB Kapazität für den Endkundenmarkt an. Der Hersteller OCZ Technology hat 2009 auf der größten IT-Messe in Asien eine 3,5″-SSD mit bis zu 1024 GB Kapazität vorgestellt.

Hybridfestplatte/HHD

Funktion und Technik

Der Schreib-Lese-Kopf einer alten Festplatte. (vor GMR)

Bei der Hybridfestplatte (Hybrid Hard Disk) wird eine herkömmliche Festplatte mit einem Solid-State-Speicher kombiniert.[6] Seine nur geringe Größe soll den Mehrpreis auffangen, seine Vorteile aber schon heute einem breiten Markt zugänglich machen.

DDR-SDRAM

Die Kombination mit DDR-SDRAM bietet vorerst nur ein Hersteller innerhalb Japans und fern dem Massenmarkt ab rund 1000 € an. Die DTS „Platinum HDD“[7] verwendet einen Chip desselben Herstellers, der über die Zeit lernen soll, welche Inhalte sich für den schnellen Zwischenspeicher empfehlen. Dieser behält durch einen Kondensator seine Daten bis anderthalb Minuten nach Ende der Stromzufuhr und besteht aus einem 1-Gigabyte-DDR-SDRAM-Modul. Dieses ist mit einer 2,5″-Festplatte in einem 3,5″-Gehäuse untergebracht. Dadurch ist dieser Ansatz nicht für mobile Geräte geeignet, spart aber ein Drittel der Energie konventioneller 3,5″-Festplatten. Da hier ein Chip die Auswahl übernimmt, beschleunigt dieses Laufwerk jedes Betriebssystem; bei HHDs muss das Betriebssystem diese Aufgabe übernehmen. Bisher leistet das nur Windows Vista und Windows 7. Im Desktop- und kleinen Serverbereich kann das Laufwerk für Datenmengen unter einem Gigabyte jegliche Flashlaufwerke deutlich übertreffen. Die eingebaute Festplatte fasst zwischen 80 und 200 GB, die kleinste Ausführung kostet rund 900 €.

Flash-Speicher

Die Kombination mit Flash ist bereits verfügbar und wird wegen der Unterstützung durch große Hersteller, sowie Mobileignung und Datenerhalt auch zukünftig weiter verbreitet sein. Mit ihr befassen sich daher die folgenden Absätze. Technisch gibt es zwei Umsetzungen. Intel integriert den Flashspeicher nicht in die Festplatte selbst, sondern verwendet wie für den Arbeitsspeicher einen proprietären Anschluss auf dem Mainboard. Damit entsteht eigentlich keine Hybridfestplatte, der erzielte Effekt ist aber derselbe. Dieses Prinzip nennt Intel „Turbo Memory“.[8] Alle anderen Anbieter dieser Technologie sind Festplattenhersteller und integrieren den Flashspeicher in das Laufwerk selbst – meist 256 MB. Intel verwendet die vier- bis achtfache Kapazität. Ob das aber einen Praxisvorteil ergibt, ist derzeit nicht abzusehen.

Grundlage beider Varianten ist, dass Flashchips ihre Daten mit geringerer Verzögerung als die Festplatte selbst liefern können. Die in den Festplatten bereits vorhandenen SDRAM-Zwischenspeicher verlieren ihren Inhalt ohne permanente Stromversorgung. Flash ist jedoch beim Schreiben nicht nur langsamer als dieser SDRAM, sondern unterbietet hier auch die Festplatte selbst. Er ist also kein Ersatz, sondern eine Ergänzung. Eine Datei wird daher auch nicht beim ersten Zugriff, sondern erst nach häufiger Verwendung in den Flashbereich aufgenommen; mitunter auch nur einzelne Bestandteile. Diese werden beim Lesen dann deutlich schneller bereitgestellt, als die Festplatte es könnte. Sie wird nur bei Bedarf – also für selten benutzte Dateien – gestartet. Bei Internet- oder Büroarbeit sind die Hybridkonzepte somit oft lautlos und sehr energiesparend (um 0,3 W). Diese beiden Punkte, zusammen mit der im Stillstand höheren Stoßfestigkeit sind ihre Vorteile. Da diese besonders dem Mobileinsatz zugutekommen, werden HHDs bisher nur in 2,5 Zoll gefertigt. Dank des S-ATA-Anschlusses sind sie aber auch im Desktop verwendbar. „Turbo Memory“ dagegen ist nur für Notebooks verfügbar, 2008 soll die zweite Generation dann auch den Desktop erreichen. Intels Lösung ist dabei immer an einen Mainboard-Chipsatz aus gleichem Hause gebunden.

Beide Konzepte benötigen Windows Vista oder Windows 7, die bislang als einzige Betriebssysteme den Flashbereich mit den meistbenötigten Daten zu bestücken vermögen. Alle anderen Betriebssysteme benutzen den Flashbereich nicht.

Neuere Hybridfestplatten brauchen nicht mehr das Betriebssystem um den Flashspeicher zu benutzen. Dieser Vorgang wird von einem Controller in der Festplatte selbst übernommen. Dadurch können solche Festplatten in jedem Betriebssystem in vollem Umfang genutzt werden.

Vor- und Nachteile
Festplattenlaufwerk (links) und SSD (rechts)

Im Folgenden sind die theoretischen Vorteile der Praxis gegenübergestellt.

  • Flash-Verwendung: HHDs sammeln beim Schreiben zunächst 32 MB an Daten, bevor der Spindelmotor startet. Noch einmal soviel wird den über Sondertasten einiger Tastaturen startbaren Programmen bereitgestellt. Der weitere Bereich steht den meistverwendeten Daten zur Verfügung.
    „Turbo Memory“ wird stattdessen erst durch einen nachzuinstallierenden Treiber aktiviert, der nicht in Windows Vista enthalten ist. Eine Hälfte des Flashmoduls funktioniert dann wie der einer HHD, die andere wird wie ein schneller Auslagerungsspeicher verwendet (siehe ReadyBoost). Das beschleunigt PCs mit 1 GB RAM wirksam auf das Niveau einer 2-GB-Ausstattung, ist jedoch auch nicht abstellbar, wenn diese bereits vorhanden ist. Ohne Auslagerungsbedarf bleibt also eine Hälfte des Moduls ungenutzt.
  • Akku-Laufzeit: Um tatsächlich Energie zu sparen, erfordern beide Konzepte manuelle Eingriffe. Da bei „Turbo Memory“ eine konventionelle Festplatte Anwendung findet, wird diese durch die Windows-Energieoptionen heruntergefahren, nicht durch einen HHD-Laufwerkscontroller. Deren Voreinstellung sieht aber eine mehrminütige statt sekündliche Verzögerung nach einem Festplattenzugriff vor. Wird die Einstellung auf „3 Minuten“ korrigiert, verlängert sich die Akkulaufzeit durchaus um 15 %, so beispielsweise von drei auf dreieinhalb Stunden. Ein vergleichbarer Effekt stellt sich auch bei HHDs ein, wenn die Einstellung „Windows Hybrid-Festplattenenergiesparmodus“ in den Energieoptionen aktiviert wurde.
  • Geschwindigkeitsgewinn: Viele Benchmarks können die Mehrleistung der Hybride prinzipiell nicht wiedergeben – denn sie verwenden möglichst viele, verschiedene und große Dateien, um eine maximale Last zu erzeugen. Diese überschreiten dann die Kapazität des Zwischenspeichers um ein Vielfaches. Zudem verwenden sie gerade kein wiederkehrendes Zugriffsmuster – um auszuschließen, dass ein Laufwerkshersteller sein Produkt daraufhin optimiert. Damit werden viele verfügbare Leistungstests jedoch der typischen Notebook-Verwendung nicht gerecht, und HHDs und „Turbo Memory“ haben – ähnlich einem Hybridauto unter Volllast – in diesen Tests keinen Vorteil. Erstere beschleunigen Windows-Start und Herunterfahren um rund 20 Prozent; ähnlich den Start häufig benutzter Programme.
    „Turbo Memory“ bewirkt nach ersten Tests von AnandTech.com jedoch keine Beschleunigung. Die Notebookhersteller Sony und Dell kamen zu gleichen Ergebnissen und verzichten daher vorerst auf diese Technologie. AnandTech untersuchte das zusammen mit Intel[9] und stellte im „PCMark“-Test tatsächlich die vom Hersteller versprochene Leistungsverdopplung fest. Außerhalb des Benchmarks zeigten sich jedoch keine Tempovorteile, weder beim normalen Arbeiten noch beim Windows-Start oder Herunterfahren.

Auch wenn Hybridfestplatten erst 2007 auf den Markt gekommen sind, gab es eine ähnliche Technik schon mehr als zehn Jahre zuvor: Der Hersteller Quantum hatte eine SCSI-Festplattenserie namens Rushmore im Programm. Diese kombinierte eine herkömmliche Festplatte statt mit – damals eher bremsendem – Flash, mit SD-RAM in Laufwerksgröße. Die reichte bei Einstellung der Serie im Jahre 2000 von 130 Megabyte bis 3,2 Gigabyte. Alle gespeicherten Daten wurden im Betrieb aus dem extrem schnellen „Cache“ geliefert. Da dieser jedoch auf Strom angewiesen war, rüstete der Hersteller das Produkt mit Batterien gegen Datenverlust aus. Deren Energie ließ im Notfall die Festplatte starten und alle Daten aus dem RAM übernehmen. Wegen der hohen Preise für RAM-Chips waren die Rushmore-Platten für Privatanwender aber praktisch unerschwinglich – sie lagen beim Tausendfachen heutiger Flashchips. Daher war auch die optional verfügbare Grundversion keine Ausnahme: Ihr fehlten die sowieso relativ günstigen Bauteile Festplatte und Batterie.

Marktsituation

Nach Samsungs Debüt der ersten HHD[10] im März 2007 begann Seagate im Juli mit der Fertigung eines Modells gleicher Flashgröße.[11] Marktführer ist mit 45 Prozent Samsung.

Zusammen mit Fujitsu, die noch keine HHD ankündigten, gründeten die genannten Hersteller Anfang 2007 die „Hybrid Storage Alliance“,[12] um die Vorteile der neuen Technologie besser vermarkten zu können.

Die verfügbaren HHDs werden von den Notebook-Herstellern jedoch kaum angenommen, da ihre Vorteile den Mehrpreis derzeit nicht rechtfertigten. Zum gleichen Ergebnis gelangen verschiedene Computermagazine.[13][14]

Intels Lösung wurde mit der Centrino-Generation „Santa Rosa“ im Mai 2007 eingeführt. Sony, HP, Dell und MSI nahmen jedoch bisher Abstand davon, das entsprechende Intel-Flashmodul auch in ihre Notebooks einzubauen.

Während Intel mit der Version „2.0“[15] seines Produkts diesen Weg auch 2008 weiterverfolgt, gibt es seitens der HHD-Anbieter keine Ankündigungen zu Nachfolgern der ersten Generation von 2007.

Betriebssystemunterstützung von Hybrid-Flashspeichern

Windows Vista führte zwei Möglichkeiten ein, um Flashspeicher zur Unterstützung konventioneller Festplatten zu nutzen. Ihre Anwendung zeigt jedoch nur in seltenen Situationen mit SSDs vergleichbare Leistungen, erzeugt im Gegenzug allerdings auch nur geringe oder gar keine Mehrkosten.

Für Linux gibt es spezielle Dateisysteme, die an die Besonderheiten von rohen Flashspeichern angepasst sind, so etwa JFFS2, YAFFS und UBIFS; für heute übliche SSDs mit FTL („Flash Translation Layer“) und integriertem Wear-Levelling werden aber wie etwa auch für USB-Sticks einfach konventionelle Dateisysteme wie ext3 genutzt, teilweise aber mit optimierten Schreibzugriffseinstellungen (oder aber besser geeignete Dateisysteme wie ZFS, btrfs, NILFS oder LogFS). Solche Dateisysteme zielen darauf ab, Flashspeicher so zu verwenden, dass ihre Vorteile bestmöglich genutzt werden können. Dadurch können höhere Geschwindigkeiten und bessere Datenintegritätskontrolle erreicht werden.

Vista erkennt die Möglichkeiten von HHDs und kopiert meistverwendete Programm- und Betriebssystemdateien in deren Flashteil. Die erzielbaren Effekte sind weiter oben beschrieben.

Vista soll zudem von USB-Sticks oder Flash-Speicherkarten profitieren. Es bietet dazu an, mit ihnen eine HHD nachzuempfinden, indem ein Teil ihres Speicherplatzes als schneller Zwischenspeicher genutzt wird. Dabei wird auf dem Flashspeicher jedoch nur das gesammelt, was während des Betriebs nicht mehr in den Arbeitsspeicher passt. Repräsentative Tests zeigen daher nur bei PCs mit weniger als einem GB Arbeitsspeicher einen spürbaren Vorteil für die „ReadyBoost“ genannte Idee.[16] Sie dient somit als leicht zu installierende RAM-Erweiterung. Unter Berücksichtigung der Preise für Arbeitsspeicher ist das jedoch nur sinnvoll, wenn ein entsprechend schneller Flashspeicher bereits vorhanden, oder eine Erweiterung des Arbeitsspeichers nicht möglich ist. Anders als in HHDs bleibt hier die Festplatte auch weiterhin auf Touren, wodurch weder Energieverbrauch noch Lautstärke gesenkt werden. Die Festplatte enthält zudem ein Abbild des Zwischenspeichers, das bei Entfernen des Flashspeichers verwendet wird. Die darauf ausgelagerten Daten werden sicherheitshalber mit 128 Bit verschlüsselt und das Medium vor Gebrauch sinnvollerweise kurz auf ausreichende Geschwindigkeit getestet. ReadyBoost erfordert eine Laufwerksgröße von 256 MB, maximal verwendet Vista 4 GB. Der verwendete Anteil ist beim Anschließen einstellbar. Unter Linux ist eine ähnliche Methode schon seit langem möglich, indem man den Flashspeicher als Swapping mountet.

Windows XP verfügt von Haus aus über keine der beiden Vista-Optionen, Flashspeicher zur Temposteigerung einzusetzen. Das Moskauer Unternehmen MDO Limited bietet mit „eBoostr“[17] jedoch ein Tool an, das die „ReadyBoost“-Idee unter XP umsetzt. Zwar funktioniert es auch mit älteren externen Flashspeichern, um aber tatsächlich einen Tempogewinn zu erhalten, sollte das ReadyBoost-Logo auch hier als Anhaltspunkt beachtet werden. Dieses erhalten USB-Sticks und Speicherkarten, die ein von Microsoft festgelegtes Performancelevel erreichen. Das Programm kann – anders als Vista – auch mehrere Flashspeicher gleichzeitig nutzen und dabei die Lastverteilung zwischen Festplatte und Flashspeicher anzeigen. Zielgruppe sind jene PCs, die bereits über einen USB 2.0-Port verfügen, für die eine RAM-Erweiterung jedoch technisch oder ökonomisch nicht möglich ist.

Reine Flash-Laufwerke

Funktion und Technik

Diese Laufwerke bestehen aus Flash- und Controllerchips, die auf einer Leiterplatte angeordnet sind. Deren Größe hat keinen Einfluss auf die Geschwindigkeit, nur auf die Chip-Anzahl. Auf kleinem Formfaktor sind also weiter nur geringere Kapazitäten realisierbar, nun jedoch mit hoher Performance. Viele Modelle sind mit Plastik oder Metall (teil-)verkleidet, um die Bauteile zu schützen und – im zweiten Fall – Solidität zu vermitteln. Das hebt dafür den Vorteil des geringen Gewichts und teilweise der Stoßfestigkeit durch die Unnachgiebigkeit des Metallmantels wieder auf. Bestehen bleiben hohe Temperaturtoleranz, Lautlosigkeit und Energieeffizienz.

Verwendung finden in allen Preissegmenten die sogenannten NAND-Chips in der schnelleren SLC-, oder beim Schreiben langsameren MLC-Ausführung (siehe Kasten Architektur-Vergleich). Sie erreichen unter den Flashtechniken den besten Kompromiss zwischen Kapazität, Preis und Geschwindigkeit. Nur ihre Zugriffszeit ist zweigeteilt: Betriebssystem und Programme starten von Flashfestplatten zwar zwei- bis dreimal so schnell wie von konventionellen Festplatten. Beim Schreiben zeigte sich bis 2009 jedoch der Nachteil des Kompromisses, der bei den Hybrid-Konzepten noch kaschiert werden konnte – insbesondere die MLC-basierten Flash-SSDs lagen bei kontinuierlichen Schreibvorgängen unter dem Niveau normaler Festplatten.[18] Das hat sich seitdem umgekehrt, die schnellsten Festplatten schreiben zumindest messbar langsamer als die langsamsten verfügbaren Flash-SSDs[19] Bei reinen Lesevorgängen[18] aber auch bei Multitasking, also bei gleichzeitigem Lesen und Schreiben, waren die SSDs bereits überlegen.[20] In einer Desktopumgebung wird meist gelesen, so dass hier Schreibschwächen weniger ins Gewicht fallen.

Die Geschwindigkeitssteigerungen in neuen Produkt-Generationen werden wie in Grafikchips vor allem durch starke Parallelisierung erlangt: So verfügen die neusten SSDs bereits über einen 10-Kanal-Controller.[21]

Architektur-Vergleich
SLC ist zu MLC NAND ist zu NOR
10× haltbarer 10× haltbarer
3× schneller schreibend
vergleichbar lesend
4× schneller schreibend
5× langsamer lesend
halb so kompakt bis 16× kompakter
30 % teurer 30 % günstiger
Folgende Technologien sollen die Vorteile von NAND und NOR vereinen: OneNAND (Samsung), mDOC (Sandisk) und ORNAND (Spansion).

Erst diese Beschleunigung glich ein systembedingtes Problem aus: die interne Organisation. Flash-SSDs sind in Blöcke oder Pages unterteilt. Wird auch nur ein Byte darin geändert, muss der gesamte Block neu geschrieben werden. Tatsächlich schreibt das Laufwerk intern also im vom Hersteller angegebenen Tempo die Blöcke neu. Anwender und Leistungstests nehmen jedoch nur die wenigen geänderten Bytes wahr. Der Schreibvorgang erscheint langsam. Dieser Effekt wird im Englischen „Write Amplification“ genannt. Demzufolge wird also das Schreiben umso schneller, je mehr es dem Volumen eines Blockes entspricht. Dateien mit mehreren Megabyte werden so tatsächlich mit der angegebenen Transferrate geschrieben, denn hier werden alle Bytes in den Blöcken geändert – die Nutzrate entspricht der Schreibrate.[22][23][24]

Der Versuch, diesen Effekt auf Betriebssystemebene aufzuheben, setzte sich nicht durch. Die „Managed Flash Technology“ von EasyCo. ordnete dazu die Schreibkommandos so, dass sie möglichst zusammenhängend, statt verteilt geschehen. Vom Hardwareprodukt unabhängig, war sie für den Heimgebrauch aber zu kostenintensiv. Stattdessen ergänzten die Hersteller einen SDRAM-Zwischenspeicher für den Controller und führten eine umfassende Optimierung der Firmwares durch. Diese spielt noch vor dem Controller selbst die entscheidende Rolle bei der Leistungsfähigkeit eines Laufwerks. Dazu nutzt sie, wie zuvor bei konventionellen Festplatten, möglichst effizient den SDRAM-Chip, verwaltet darin allerdings die Daten zur Suche nach dem Schreibbereich, um Geschwindigkeit und Nutzungsverteilung zu optimieren. Die eigentliche Datenzwischenspeicherung erfolgt meist im noch schnelleren SRAM des SSD-Controllerchips.[25]

Ähnlich wie konventionelle Festplatten bringen auch Flashfestplatten bei nur geringer Restkapazität nicht mehr die volle Leistung. Bei beiden Laufwerkstypen spielt dabei die Suche nach den nur wenigen freien Speicherbereichen die Hauptrolle. Der oben beschriebene Effekt der „Write Amplification“ verstärkt das noch auf Seiten der Flashfestplatten. Daher zweigen deren Hersteller etwa 10 % des Laufwerks für eine „Spare Area“ als Leistungs- und Verschleißreserve ab.

Heute eignen sich Flashfestplatten besonders für den Mobileinsatz, leistungsorientierte Desktops und wenige Server. Für letztere bieten einige Hersteller Serien mit SLC-Speicher an, um der viel höheren Schreibbelastung gerecht zu werden. MLC-Chips haben mit 10.000 Zyklen je Zelle eine zehnmal geringere Wiederbeschreibbarkeit.

Marktsituation

Bereits 1996 führte MSystems die ersten flashbasierten SSDs ein. Bis 2006 blieben diese aber militärischen und anderen wenig preissensitiven Märkten vorbehalten. Im März 2006 fertigte Samsung dann ein Modell, das mit einem Achtel des Preises einen anderen Zielmarkt anvisierte: Notebooks mit 2,5- und 1,8-Zoll-Festplatten – und per Adapter auch Desktop-PCs. Damit wurde versucht, einen neuen Markt für erschwingliche Flashfestplatten zu eröffnen. Mit 600 $ für 32 GB gelang das zwar noch nicht, allerdings eroberte Samsung die Marktführerschaft mit einem Marktanteil von 45 %. So ist Apple ein wichtiger Großabnehmer und auch Mtron im oberen SSD-Segment steuert – mit eigenem Controller – ebenfalls Samsung-Chips an. Im Jahr 2007 forschten eine Reihe von Anbietern mit gleicher Zielstellung an Konkurrenzprodukten zu Samsungs erstem Versuch. Im zweiten Quartal 2008 erschienen die Vertreter der zweiten Generation. Im selben Jahr wechselten viele Hersteller von SLC zu MLC-Speicherchips, um die Preise attraktiver zu gestalten. Bei den ersten Produkten dieser Gattung kam es jedoch häufiger zu unpraktikablen Leistungswerten.[26]

2009 folgten Produkte mit stark verbesserter Leistung, die in einigen Leistungspunkten sogar SLC-Laufwerke übertrafen. Seitdem erfolgen Preissenkungen[27][28] meist parallel zu einer Strukturverkleinerung in der Flashchip-Fertigung. Die nächste ist damit für das vierte Quartal 2010 zu erwarten.[29]

Da die Flashfestplatten im Vergleich zu herkömmlichen Festplatten gut skalierbar sind – die Mechanik entfällt schließlich völlig – werden sie auch in den sogenannten Netbooks eingebaut. Damit kommt diese neue Technik überraschenderweise im günstigsten Segment mobiler Computer zuerst serienmäßig ohne Aufpreis zum Einsatz. Die verwendeten Laufwerke fassen zwischen 0,5 und 8 GB und kosten mit rund 10 $ deutlich weniger als konventionelle Festplatten, die dafür ein vielfaches Fassungsvermögen haben.

In der folgenden Tabelle werden der Verbrauchersektor dem immer noch existenten Hochpreissektor der Flash-Laufwerke sowie konventionellen Festplatten gegenübergestellt.

konventionelle Festplatte kommerzielle Flash-SSD industrielle Flash-SSD
max. Kapazität 4 TB[30][31][32] 2 TB > 2 TB
Betriebstemperatur 5 bis 55 °C 0 bis 70 °C −40 bis 85 °C
Schreibzyklen[33] 10 Mrd. (3 Jahre MTBF) 3.000 – 100.000 / Flashzelle 1 - 5 Mio / Flashzelle („handverlesene“ Chips)
Datenerhalt keine Angaben 10 Jahre 10 Jahre
Flugschreiber-geeignet nein nein ja
Sicheres Löschen ja teilweise ja
S.M.A.R.T. ja teilweise ja

Flash-Besonderheiten

Verschleiß und Ausfallvorhersage (S.M.A.R.T.)

Konventionelle und Flashfestplatten verschleißen mit der Zeit. Während sich das bei ersteren aus der Abnutzung der Mechanik ergibt, wirkt bei der Flashtechnik ein elektrischer Effekt begrenzend. Lesevorgänge sind hier zwar unbegrenzt möglich, je nach Qualität kann eine Flashzelle aber nur zwischen 3.000 (MLC 25nm) und 100.000 (SLC) Schreibvorgänge absolvieren. Danach „vergisst“ sie, was neu geschrieben wird und kann nur noch gelesen werden.[34] Flashspeicher wären so mitunter schon nach wenigen Tagen defekt. Dem wirken seit einigen Jahren „Wear-Leveling“-Verfahren entgegen. Der Controller im Flashlaufwerk verteilt Schreibvorgänge auf alle Speicherzellen so, dass jede möglichst gleich häufig beschrieben wird. Die dafür verwendeten Algorithmen sind herstellerspezifisch, in jedem Fall aber vom Rest des Computers aus weder sichtbar noch beeinflussbar. Dieses Verteilungsverfahren gibt es in verschiedenen Ausbaustufen. So verwendet eine Flashfestplatte häufig komplexere Controller als ein USB-Stick und sehr wenige Wechseldatenträger auch gar keinen.[35] Hier können dann Software-Lösungen wie in Windows Vista oder das Dateisystem JFFS2 unter Linux aushelfen.

Je nach Ausbaustufe führt das Verfahren zu einer Haltbarkeit, die konventionellen Festplatten nahe kommt oder sie übertrifft.[36] Ein Nebeneffekt aller Verteilungsverfahren ist, dass kein sicheres Löschen mehr möglich ist. Der Hintergrund wird in den Abschnitten Sicheres Löschen und Defragmentierung beschrieben.

Eine Ausfallvorhersage wie bei konventionellen Festplatten durch S.M.A.R.T. ist auch bei nahezu allen Flash-SSDs enthalten, wie im verlinkten Absatz beschrieben, allerdings noch nicht mit allen Programmen möglich. Die derzeitige Situation ist durch den Standard selbst begründet. Er umfasst alleinig die Kommunikation zum Laufwerk, um die S.M.A.R.T.-Werte auszulesen.[37] Ihre Bedeutung und Skalierung sind nicht festgeschrieben. Für konventionelle Festplatten ist über die Jahre allerdings ein De-facto-Standard entstanden, der für Flash-SSDs derzeit schlicht fehlt.
Die Prüfung konzentriert sich auf die Anzahl der vorgenommenen Löschzyklen und das Vorhandensein genügender Reserveblöcke.[38] Wurden hier die vorgesehenen Grenzen übertreten, geht das Laufwerk sicherheitshalber in einen Nur-Lese-Modus über. Da bei guten „Wear-Levelling“-Verfahren alle normalen Sektoren zu ähnlicher Zeit abgenutzt sind, ist ein Ausfall nach der Verwendung erster Reservesektoren vermutlich nahe.

Methoden der Nutzungsverteilung

Dateien werden immer als Bitfolge geschrieben. Heute enthalten MLC-Flashzellen jeweils 4 Bits und sind zu sogenannten Pages mit je 4096 Byte Größe zusammengefasst.[39] Angesprochen werden vom Controller immer ganze Pages. Beim Lesen einzeln, beim Schreiben werden sie abermals zusammengefasst – zu einem „Erasable Block“. Dieser enthält 64 oder 128 Pages und ist somit 256 oder 512 KB groß. Bei jeder Änderung in einer seiner Pages wird diese zunächst nicht gelöscht, sondern als unaktuell markiert. Geschrieben wird in die nächste freie Page desselben Erasable Block. Erst, wenn alle seine Pages unaktuell sind, wird er einmal komplett gelöscht. Somit müssen bei jedem geänderten Byte die bisherige Page mit der vorzunehmenden Änderung in die nächsten kopiert werden. Das lässt die zu schreibenden Daten von wenigen geänderten Byte auf mehrere Kilobyte ansteigen. Diese Vervielfachung wird daher auch als Write Amplification bezeichnet. Damit entstünde eine inakzeptable Haltbarkeit. Im folgenden Beispiel wird eine Textdatei viermal überarbeitet und gespeichert.

Schreibvorgang 1 2 3 4   weiter wie 2
Block            
Page 1   Datei.txt unaktuell unaktuell löschen Datei.txt
Page 2   leer Datei.txt unaktuell löschen leer
Page 3   leer leer Datei.txt löschen leer
Page 4   leer leer leer leer leer
Page 5  
Legende:
Ein „erasable“ Block: umfasst hier der Übersicht wegen nur drei Pages. Jede Page umfasst 2 oder 4 KB.
Dynamic Wear Levelling
Soll ein Erasable Block beschrieben werden, wird hier von den noch nicht belegten der am wenigsten abgenutzte ausgewählt. Das ist vergleichsweise einfach im Controller umzusetzen, hat aber den Nachteil, dass bei gut gefülltem Laufwerk der wenige freie Platz schneller abgenutzt wird. Die Schreibzyklen steigen um den Faktor 25 gegenüber fehlendem Wear-Levelling.
Static Wear Levelling
Soll ein Erasable Block beschrieben werden, wird hier der am wenigsten abgenutzte ausgewählt. Ist dieser schon belegt, werden dessen Daten auf einen anderen umverlagert, dann die neuen Daten geschrieben. Das erfordert einen etwas komplexeren Controller, führt aber zu sehr gleichmäßiger Abnutzung. Die Schreibzyklen steigen um den Faktor 100 gegenüber fehlendem Wear-Levelling.
Defekte Blöcke
Scheitert ein Schreibversuch auf einen Block, wird dieser wie bei konventionellen Festplatten als nicht mehr benutzbar markiert und ein Reserveblock aktiviert.

Auslagerungsspeicher auf Flash-SSDs

Zur Bewertung der Eignung von Flashlaufwerken für die Aufnahme des Auslagerungsspeichers (oder Auslagerungsdatei) eines Betriebssystems eignet sich am besten eine Analyse der Zugriffe auf diesen Speicher. Microsoft hat eine solche während seiner Arbeit an Windows 7 durchgeführt.[40] Die Auswertung ergab ein Zugriffsmuster aus kurzem, verteiltem Lesen und längerem, zusammenhängendem Schreiben. Das entspricht den Stärken von Flashspeichern. Lesezugriffe überstiegen Schreibvorgänge um das Vierzigfache, während zu je zwei Dritteln erstere bis 4 KB Größe hatten und zweitere ab 128 KB Länge besaßen. Da das etwa einem Erasable Block entspricht, gibt es laut Microsoft kaum geeignetere Anwendungen für Flashlaufwerke als den Auslagerungsspeicher. Dennoch besitzen nicht alle MLC-basierenden Produkte eine hinreichende Geschwindigkeit, so dass ein Studium der konkreten Leistungsfähigkeit sinnvoll ist.[41]

Sicheres Löschen

Hauptartikel: Datenvernichtung

Gewöhnliche Betriebssysteme löschen nicht den Dateiinhalt selbst, sondern entfernen lediglich den Eintrag im Inhaltsverzeichnis des Dateisystems. Das beschleunigt den Löschvorgang, ermöglicht aber auch eine Wiederherstellung der Datei. Um dies (und damit Spionage) zu verhindern, gibt es Programme, welche die Dateien tatsächlich komplett löschen sollen. Dazu weisen diese Programme an, alle zur Datei gehörenden Sektoren mehrfach – ggf. mit Zufallsdaten – zu überschreiben. Festplatten können so sicher gelöscht werden.

Die von Flashspeichern nach außen kommunizierten Sektoren haben aber nichts mehr mit den tatsächlichen Speicherorten zu tun.[24] Das liegt an ihrer Nutzungsverteilung, welche Schreibvorgänge auf die bisher am wenigsten benutzten Blöcke leitet, welche höchstens zufällig die sind, in denen die Datei steht. Deren Inhalt bliebe somit bestehen, während die Überschreibversuche an anderer Stelle gespeichert würden. Nach außen bleiben die vom Programm adressierten Sektoren stimmig: Liest man sie aus, erhielte man die neuen Daten. Die Umverteilung geschieht unmerklich für das Betriebssystem und darauf laufende Programme im SSD-Controllerchip. Die Umverteilung findet umso mehr statt, je mehr nach dem letzten Formatieren nicht beschriebene, oder durch TRIM wieder freigegebene Sektoren auf dem Laufwerk vorhanden sind – ein gut gefülltes Laufwerk ist so betrachtet ein „sichereres“.

Um dieses Sicherheitsleck zu nutzen und auf die nicht wirklich gelöschte Datei zugreifen zu können, müsste aber eine Firmware programmiert und installiert werden, die alle Blöcke auslesen kann. Mit Installation dieser würde jedoch wahrscheinlich die Information zur bisherigen Nutzungsverteilung verloren gehen. Somit fehlte das Wissen, welche Blöcke zu einer durch scheinbares Überschreiben gelöschten Datei in welcher Reihenfolge gehören. Kryptographiehersteller warnen trotzdem vor dem Einsatz von SSDs, da zumindest Schlüssel auffindbar sein könnten.

Behebbar ist das Problem erst durch einen Controller, der auf Wunsch vorübergehend die Nutzungsverteilung abschalten kann und so ein „Secure Erase“ ermöglicht. Entsprechende Laufwerke sind aber nur im Hochpreissegment zu finden, etwa von M-Systems. Diese enthalten dann auch Löschalgorithmen nach US-Airforce- oder Navy-Standard.

Für den Heimgebrauch gibt es keine vollständige Löschmöglichkeit. Das liegt am nicht ansprechbaren Reservespeicher („Spare Area“)[42] der SSDs, welcher nur dem Controller zugänglich ist. Jener Bereich dient sowohl als Ruheplatz der abgenutztesten Sektoren, als auch der Geschwindigkeitssteigerung.

Defragmentierung

Eine Defragmentierung ist aufgrund der marginalen Lesezugriffszeiten nicht nötig. In Bezug auf die Schreibleistung differieren die Herstellerangaben jedoch. So warnt OCZ die Nutzer seiner MLC-basierten Core-Serie vor dem Defragmentieren,[43] während MTron für seine SLC-basierten Produkte ein Defragmentieren sogar empfiehlt.[44] Kingston hingegen rät stets vom Defragmentieren ab – ganz gleich, ob für das SLC- oder MLC-Format.[45] Intel rät generell nicht zum Defragmentieren ihrer SSDs.

Performanceverlust bei Verwendung (TRIM und Garbage Collection)

Hintergrund

Das Dateisystem streicht „gelöschte“ Dateien nur aus dem Inhaltsverzeichnis, die eigentliche Datei aber bleibt weiter gespeichert. Dadurch kann sie wiederhergestellt werden und auch das „Löschen“ großer Datenmengen ist sehr schnell möglich. Beim nächsten Schreiben auf einen so freigestellten Bereich muss der bisherige Inhalt demzufolge aber erst gelöscht werden. Nach einiger Zeit der Nutzung ist damit jeder Bereich des Laufwerks mit entweder aktuellen, oder noch nicht tatsächlich gelöschten Inhalten belegt. Bei Festplatten war das kein Problem, da sie ihre Magnetisierungszustände direkt ineinander übergehen lassen können. (Für sie hätte das tatsächliche Löschen der Dateien damit sogar einer Ressourcenverschwendung entsprochen.) Flashspeicher hingegen müssen die noch gefüllten Flashzellen erst leeren, um sie im zweiten Durchgang mit der neuen Datei zu beschreiben. Diese doppelte Arbeit ist anhand einer dann ziemlich exakt doppelt so langen Schreibzeit nachvollziehbar.[46] Davon sind allerdings nur verteilte, kurze Schreibvorgänge betroffen, welche kleiner als Erasable Blocks sind – denn durch die Befüllung mit aktuellen und noch nicht gelöschten Daten sind deren Einzelblöcke gefüllt, wodurch bei jeder Änderung der gesamte Erasable Block neu geschrieben werden muss – inklusive der eigentlich „gelöschten“ Dateifragmente. Selbst in diesen Fällen bleiben die Geschwindigkeiten aber oftmals noch oberhalb des – gleichbleibenden – Niveaus konventioneller Festplatten.

Maßnahmen

Um dieser Situation abzuhelfen, können SSDs ab Mitte 2009 die freigestellten Bereiche schon vor einer neuerlichen Verwendung löschen. Das findet einerseits durch eine Logik im Laufwerk statt (Garbage Collection) und kann andererseits durch das Betriebssystem gesteuert werden (via TRIM-Befehl). Ersteres bedarf nur der Umsetzung in der Laufwerksfirmware, letzteres erfordert die Unterstützung eines neuen ATA-Befehls vom steuernden Betriebssystem, des empfangenden Laufwerks und – falls vorhanden – des weiterleitenden RAID-Controllers.

Praxistests zeigen, dass durch weiter verbesserte Firmware seit 2010 TRIM keinen messbaren Leistungsvorteil mehr bringt. Die laufwerksinterne Garbage Collection ist mittlerweile leistungsfähig genug. Somit sind keine manuellen Maßnahmen zur Aufrechterhaltung der Leistungsfähigkeit mehr nötig.[47]

Beide Vorgehensweisen betreffen aber weder das Überschreiben einer Datei noch den Fall nahezu gefüllter Laufwerke (denn hier gibt es kaum freie Bereiche), sondern ermöglichen nur, die freigestellten Bereiche schreibfertig vorzubereiten.[48] Die Vorbereitung entspricht jedoch nicht einem umgehenden Löschen beim Leeren des Papierkorbs. Dieses findet zu einem nicht vorhersagbaren Zeitpunkt statt, spätestens dann beim nächsten Beschreiben des Bereiches. Er wird direkt gelöscht und beschrieben, das vorherige Auslesen wird erspart: Daraus entsteht der Geschwindigkeitsvorteil.

Der bleibende Vorteil von TRIM liegt in der effektiveren Vermeidung des Neuschreibens bereits aus dem Papierkorb gelöschter Dateien. Das schont die Flashzellen. Die Unterstützung von TRIM durch das installierte Laufwerk wird etwa durch CrystalDiskInfo[49] in der Zeile Supported Features sichtbar, die Zeile Firmware zeigt die installierte Firmwareversion.

Controller Garbage Collection TRIM-Unterstützung
Indilinx Barefoot und ECO[50] ab Version 1916 ab Version 1819
Intel X-25M G1 immer enthalten nicht verfügbar
Intel X-25M G2 immer enthalten ab Version 02HD
Samsung RBB[51] ab 1901Q / 19C1Q ab 1901Q / 19C1Q
SandForce SF-1x00[52] immer enthalten immer enthalten
Toshiba Daikoku 2[53] immer enthalten immer enthalten

Die Funktionsweise der Garbage Collection wird von den Herstellern nicht veröffentlicht, funktioniert aber wahrscheinlich über die Nutzung der Reservesektoren in einem Laufwerk. (Deren Zahl gibt der Overprovisioning Factor an, liegt er bei 1,1, verfügt das Laufwerk über 10 Prozent davon. Dieser Bereich wird auch als „Spare Area“ bezeichnet.) Das Laufwerk selbst kann nicht wissen, welche Sektoren zum Überschreiben freigestellte Daten beinhalten. Das erfährt es aber, wenn Sektoren überschrieben werden sollen: deren bisheriger Inhalt ist offensichtlich freigestellt. Daher leitet es die neuen Daten in die leeren Reservesektoren um. Das ist schnell und der Controller weiß nun, dass die ursprünglich angesteuerten Sektoren wirklich nicht mehr gebraucht werden. Diese löscht er nun im Leerlauf, wodurch sie frei werden. Diese Vorgehensweise behebt nicht die Ursache des Problems, großenteils aber dessen Auswirkungen.[54] Zum Löschen der Sektoren benötigt das Laufwerk jedoch Leerlaufzeit.

Laufwerke ohne automatische Garbage Collection oder TRIM-Unterstützung sind nur durch Programme wie Secure Erase[55] auf die Werksperformance rücksetzbar. Dabei wird das Dateisystem gelöscht, was somit auch alle von ihm freigestellten, aber noch alte Dateien beinhaltenden Blöcke freigibt.

Performanceverluste unter Windows

Weitere Performanceverluste treten unter Umständen auf, wenn Windows die Defragmentierung, Prefetch und SuperFetch nach der Installation der SSD nicht selbstständig deaktiviert. Dieser Effekt könnte etwa beim Kopieren einer bestehenden Installation von Festplatte auf SSD entstehen. Für die volle Performance einer SSD sollte man diese Funktionen daher gegebenenfalls manuell deaktivieren.

Prefetch bringt z. B. nur bei Festplatten einen Vorteil, bei denen häufig verwendete oder/und Bootdaten auf die äußersten Spuren geschrieben werden, wo Festplatten am schnellsten sind. Bei SSDs ist das nur zusätzlicher Aufwand ohne Nutzen und bedeutet höchstens Verschleiß der Zellen.

Ebenso entfällt der Vorteil von SuperFetch, bei dem häufig verwendete Daten aus Erfahrungswerten in das RAM geladen werden. Die Zugriffszeiten von SSDs sind so kurz, dass es verglichen mit RAM keinen praktischen Unterschied mehr macht, jedoch kleinere Schreib- und Lesezugriffe weiterhin Arbeit erfordern würden.

Alignment bzw. Ausrichtung

Die kleinste beschreibbare Einheit eines Flashspeichers ist die Page. Die kleinste beschreibbare Einheit im Dateisystem wird Cluster oder Zuordnungseinheit genannt. Diese ist bei der Formatierung idealerweise auf die Größe einer Page einzustellen, derzeit sind das 4 KB. Überstiege die Clustergröße jene der Page, müssten sonst bei jeder Änderung gleich mehrere Pages unnötig neu geschrieben werden.

Ein zweiter Schritt zur optimalen Datenstruktur stellt die Ausrichtung von Partitionen dar. Beginnt eine Partition inmitten eines Erasable Blocks, verschieben sich auch die Zuordnungseinheiten des Dateisystems, manche erstrecken sich dann über eine Blockgrenze. Für jede Änderung dieser Einheiten werden demzufolge beide Blöcke beschrieben, und demzufolge auch öfters gelöscht. Der Effekt dieses Mehraufwandes ist produktbezogen allerdings sehr unterschiedlich[56] und reicht von kaum messbar bis zur Drittelung der Schreibleistung bei zufälligen Zugriffen. Sämtliche sequenziellen Schreib- und alle Lesezugriffe sind vom Alignment nicht betroffen.

Um eine Partition an den Grenzen der Erasable Blocks auszurichten, wäre die Blockgröße in Erfahrung zu bringen. Software kann diese jedoch nicht auslesen. Alle seit 2009 gängigen MLC-Laufwerke verwenden jedoch durchgängig Größen von 512 KB. Ein manuelles Nachmessen[57] ist daher selten nötig.

Die Angabe zum Alignment im AS-SSD-Benchmark[58] wird anhand der verwendeten Zuordnungseinheit durchgeführt. Wenn das Programm Alignment als „OK“ ansieht, heißt es nicht, dass die Partition direkt an der Grenze des Erasable Blocks ausgerichtet ist, sondern dass sich keine Zuordnungseinheit des Dateisystems gleichzeitig in zwei Blöcken befindet. Da der erste Erase Block immer bei 0 Byte anfängt, reicht es aus, wenn die Startposition jeder Partition durch die Clustergröße (typischerweise 4096 Byte) teilbar ist.

Im Zweifel kann auch direkt ein größerer Wert verwendet werden. Dem folgend verwenden Windows Vista und 7 gleich eine Ausrichtung an 1024 KB (1 MB). Dieser Wert ist durch alle aktuellen Erasable-Block-Größen ohne Rest teilbar und bewirkt demnach für jede SSD eine korrekte Ausrichtung. Linux-Nutzer müssen zur Ausrichtung verschiedene Faktoren berücksichtigen,[59] Nutzer vergangener Windows-Versionen können entweder mit den Installations/Recovery-CDs von Vista und 7 eine vorbereitete Partition einrichten, oder diese per Bordwerkzeug selbst erstellen.[60] Ohne manuelles Vorgehen starten die älteren Windowsversionen Partitionen bei 32 KB, und damit nicht an den gängigen Erasable Blocks ausgerichtet.

Das Offset bestehender Partitionen ist in Windows auf der Eingabeaufforderung mit dem Diskpart-Befehl list partition nach Auswahl der SSD mit select disk <Nummer> ersichtlich. Die Nummer ist anhand der Datenträgergröße mittels list disk bestimmbar. Die Angabe hier ist allerdings ungenau, da sie auf ganze Kilobyte gerundet wird. Besser ist es daher, zunächst select partition <Nummer> und danach detail partition aufzurufen. Alternativ findet sich die gleiche Information auch mittels msinfo32 bei Systemübersicht\Komponenten\Speicher\Datenträger als Partitionstartoffset.

Solid-State-Drives im Vergleich

Im Folgenden sind die derzeit aktuellen Verfahren zum Vergleich aufgeführt, der High-end-Sektor der Solid-State-Drives im Serverbereich bleibt dabei unberücksichtigt. Ein Video-Vergleich ist ebenfalls verfügbar.[61]

  MLC-NAND-Flash-Laufwerk
1,0″ bis 3,5″
CompactFlash-Karte
per ATA-Adapter
RAM-Disk
als Teil des Arbeitsspeichers
Festplatte
1,0″ bis 3,5″
Größe bis 600 GB[62] bis 128 GB[63][64][65][66] bis 16 GB je Modul bis 3 TB
Preis pro GB (Stand Okt. 2011) ab ca. 0,90 €[67] ab ca. 1,06 €[68] ab ca. 3,75 €[69] ab ca. 0.03 €[70]
Anschluss S-ATA, P-ATA, mSATA S-ATA, P-ATA hauptsächlich DIMM-Connector S-ATA, P-ATA, SCSI, SAS
Lesen (kein RAID) bis 509 MB/s[71] bis 100 MB/s[63][64][65][66] bis 38400 MB/s bis 150 MB/s
Schreiben (kein RAID) bis 446 MB/s[71] bis 100 MB/s[63][64][65][66] bis 38400 MB/s bis 150 MB/s
Mittlere Zugriffszeit lesen 0,2 ms 0,8 ms 0,00002 ms ab 3,5 ms
Mittlere Zugriffszeit schreiben 0,4 ms 10…35 ms 0,00002 ms ab 3,5 ms
Überschreibbar 3 bis 10 Tausend Mal (MLC) 3 bis 10 Tausend Mal (MLC) „beliebig“ „beliebig“
Lagerbar bei −45…85 °C −40…85 °C −25…85 °C −40…70 °C
stoßfest – Betrieb[72] 1500 g 2000 g  ? 60 g
stoßfest – Lagerung 1500 g 2000 g  ? 350 g
Verbrauch – Ruhe 0,05…1,3 W 0,0003 W 1 W pro SDRAM-Modul 4 W und höher
Verbrauch – Zugriff 0,5 – ? W 0,25 W 8 W pro SDRAM-Modul 6 W und höher
Verhalten beim PC-Ausschalten problemlos problemlos Datenverlust; manche Software sichert auf Festplatte problemlos
Verhalten bei Stromausfall mit Stützkondensator problemlos
ohne Stützkondensator Datenverlust möglich
Datenverlust möglich Datenverlust Datenverlust möglich
Lautlos
 
ja ja ja nein
Bemerkungen Bietet nur teilweise die Selbstüberwachung S.M.A.R.T. zusätzlicher Adapter nötig Größe abhängig von Hauptplatine oder zusätzlicher Adapter nötig, nicht trivial bootfähig (aber möglich siehe Linux Live-CDs) Bieten die Selbstüberwachung S.M.A.R.T.

Die in der Tabelle angegebenen Werte sind in der Regel Bestwerte. Insbesondere die Geschwindigkeiten können je nach Modell auch deutlich niedriger liegen.

Bei Betriebssystem-, Programmstarts und wo immer Zugriffszeiten eine Rolle spielen, sind diese Solid-State-Verfahren den Festplatten überlegen. Prinzipbedingt gelingt es ihnen, die obigen Geschwindigkeiten bei zufällig verteilten Zugriffen aufrechtzuerhalten.

Für die CompactFlash-Variante ergibt sich eine weitere Anwendungsmöglichkeit. Dank Adaptern, die als Slotblende befestigt werden, kann die CF-Karte von außen ausgetauscht werden – die Verkabelung bleibt im Gehäuse. Da der Adapter außerdem weder PCI- noch andere Kontaktleisten hat, kann er ganz nach Platzangebot eingebaut werden. Das ist ein Unikum dieser Solid-State-Variante und ermöglicht so Anwendungen, Benutzer oder Betriebssysteme sauber und sicher voneinander zu trennen. Denn so kann jeder Benutzer seine bevorzugte Betriebssystem- und Arbeitsumgebung mitbringen, wobei er gleichzeitig keinerlei Daten im PC hinterlässt, da er die „Festplatte“ einfach mitnimmt. Zusätzlich sind CompactFlash-Karten viel robuster und handlicher als ihre „Vorfahren“, die Festplatten im Wechselrahmen.[73] Die CompactFlash-Spezifikation sieht dabei für alle UDMA-Modi 80-adrige Kabel, sowie ab UDMA-5 nur ein Gerät bei maximal 15 cm Datenkabellänge vor.[74]

Weblinks

Einzelnachweise

  1. StorageTek Forum 2004 conference guide. Thirty-Five Years of Innovation. StorageTek, Oktober 2004, S. 6, abgerufen am 17. Oktober 2010 (PDF, englisch).
  2. Trina MacDonald: Solid-state storage not just a flash in the pan. In: Storage. 6, Nr. 9, 2007 (PDF, abgerufen am 22. Oktober 2011).
  3. http://www.tomshardware.com/de/FusionIO-ioDrive-Flash-IBM,testberichte-240265-6.html fusion io – Leistung im Vergleich zu normalen SLC-Flash-SSDs.
  4. ioDrive Octal Data Sheet. 2010, abgerufen am 6. November 2010 (englisch).
  5. Peter Gräber: SSD-Markt wird bis 2012 kaum wachsen. In: Hard Tecs 4U. 22. April 2010, abgerufen am 17. Oktober 2010.
  6. Bestandteile einer Hybridfestplatte
  7. DTS „Platinum HDD“
  8. Intel „Turbo Memory“
  9. Beschleunigt „Turbo Memory“ wirklich?
  10. HHD-Serie Samsung
  11. HHD-Serie Seagate
  12. „Hybrid Storage Alliance“
  13. Was bringen Hybridfestplatten? Tomshardware.de
  14. Was bringen Hybridfestplatten? PCWelt.de
  15. Intel „Turbo Memory“ 2.0
  16. Was bringt „ReadyBoost“? Computerbase.de
  17. eBoostr – ReadyBoost-Alternative für Windows XP
  18. a b FC-Test – continued
  19. Reale Schreibgeschwindigkeit schneller Festplatten und SSDs von 2010
  20. Anandtech: Multitasking
  21. Im Inneren der X25-M SSD: 10-Kanal Flash
  22. Patent DE10349595: Verfahren zum Schreiben von Speichersektoren in einem blockweise löschbaren Speicher.
  23. Patent EP1514171: Verfahren zur Wiederherstellung von Verwaltungsdatensätzen eines blockweise löschbaren Speichers.
  24. a b Patent DE102005001038: Verfahren zur Umsetzung von logischen in reale Blockadressen in Flashspeichern.
  25. SSD-Cachegestaltung
  26. http://www.anandtech.com/storage/showdoc.aspx?i=3531&p=17 Zu leistungsarme erste MLC-Laufwerke
  27. Überblick zu Preisen aktueller Flash-SSD im Computerbase-Forum [1]
  28. Eine Übersicht der für Privatpersonen verfügbaren Modelle und deren Preise und Preisentwicklungen findet sich im heise Preisvergleich
  29. Nächste Preissenkungsrunde bei Flash-SSDs mit Umstellung auf 25nm zu erwarten
  30. http://www.anandtech.com/show/4758/seagates-goflex-desk-4tb-external-hdd-review
  31. http://www.everythingusb.com/seagate-goflex-desk-external-hard-drive-21320.html
  32. http://www.chip.de/news/Seagate-GoFlex-Desk-USB-3.0-Festplatte-mit-4-TByte_51400213.html
  33. Schreibzyklen SLC und MLC - Absatz How long have you got before the disk is trashed?
  34. Longevity/Lifespan of a flash cell
  35. Verfahren zur Nutzungsverteilung. Format: PDF, 0.8 MB
  36. c't – Test zur Haltbarkeit von Flashzellen (Absatz Halbwertszeit)
  37. http://www.t13.org/Documents/UploadedDocuments/docs2008/D1699r6a-ATA8-ACS.pdf Letzter Entwurf des aktuell gültigen Standards, die S.M.A.R.T.-Attribute fehlen weiterhin
  38. S.M.A.R.T.-Funktionen einer SSD beispielhaft (S.31). Format: PDF, 0.5 MB.
  39. http://www.anandtech.com/show/2738/5 SSD Page und Erasable Block Größe
  40. http://blogs.msdn.com/e7/archive/2009/05/05/support-and-q-a-for-solid-state-drives-and.aspx Eignung von Flash-SSDs für die Auslagerungsdatei
  41. Ein Überblick zur Leistungsfähigkeit aktueller MLC-Laufwerke im Computerbase-Forum [2]
  42. Reservebereich einer SSD ist nicht überschreibbarer Speicher
  43. Defragmentierung – Herstellermeinung OCZ Core Series
  44. Defragmentierung – Herstellermeinung MTron
  45. FAQ for SSDNow (englisch) – Eintrag bei der Kingston Technology Company; Stand: 20. April 2010
  46. http://www.anandtech.com/storage/showdoc.aspx?i=3531&p=13
  47. http://www.computerbase.de/artikel/laufwerke/2010/test_ssds_corsair_supertalent_intel/7/ TRIM bringt keinen messbaren Vorteil bei aktuellen Laufwerken.
  48. http://www.anandtech.com/storage/showdoc.aspx?i=3531&p=10
  49. http://crystalmark.info/software/CrystalDiskInfo/index-e.html Anzeigen der Trim-Unterstützung
  50. http://www.hardwareluxx.de/community/f227/indilinx-barefoot-und-eco-faq-679488.html#post13729487 Firmware Indilinx Changelog
  51. http://www.samsung.com/global/business/semiconductor/products/flash/ssd/2008/business/business.html Firmware Samsung
  52. SandForce Recycler für die Garbage Collection
  53. Toshiba Daikoku 2 Überprüfung der Garbage Collection und TRIM
  54. http://hothardware.com/News/OCZ-and-Indilinx-Collaborate-On-New-SSD-Garbage-Collection-Scheme Effekt der Garbage Collection
  55. http://cmrr.ucsd.edu/people/Hughes/SecureErase.shtml Secure Erase zum Wiederherstellen der Werksperformance bei nicht vorhandener Garbage Collection unter Datenverlust
  56. http://www.anandtech.com/show/3681/oczs-vertex-2-special-sauce-sf1200-reviewed/6 Effekt von nicht an Erasable Blocks ausgerichteten (unaligned) Partitionen
  57. http://www.hardwareluxx.de/community/f227/os-optimierungen-fuer-flash-ssds-543445-4.html#post11066540 Manuelle Ermittlung der Erasable Block-Größe
  58. http://www.alex-is.de/PHP/fusion/downloads.php?cat_id=4 AS-SSD-Benchmark
  59. http://forum.corsair.com/forums/showpost.php?p=448636&postcount=5 Linux und die Ausrichtung von Partitionen an Erasable Blocks
  60. http://www.chip.de/artikel/SSD-So-haelt-die-Hightech-Festplatte-8x-laenger-5_37897062.html Windows XP/Server 2003 Anleitung zum Ausrichten von Partitionen an Erasable Blocks (anstelle des Wertes „64“ ist „1024“ für 1 MB Offset zu empfehlen.
  61. Vergleich typischer PC-Anwendungsfälle zwischen Flash-SSD und schneller, konventioneller Festplatte. Format: Flash, 24 MB
  62. http://geizhals.at/deutschland/a624949.html
  63. a b c http://www.allround-pc.com/news/hardware/2011/januar/compactflash-karte-mit-bis-zu-100-mbs-vorgestellt
  64. a b c http://www.computerbild.de/artikel/cb-News-Foto-Schnelle-Compact-Flash-Karte-Sandisk-5888462.html
  65. a b c http://www.chip.de/news/Sandisk-Extrem-schnelle-und-teure-CF-Karte_46688559.html
  66. a b c http://www.digiklix.de/2011/01/11/schnellste-compactflash-karte-der-welt-von-sandisk-sandisk-extreme-pro-compactflash-karte-mit-128gb/
  67. http://geizhals.at/deutschland/?cat=hdssd&sort=r
  68. http://geizhals.at/deutschland/?cat=sm_cf&sort=r
  69. http://geizhals.at/deutschland/?cat=ramddr3&sort=r
  70. http://geizhals.at/deutschland/?cat=hde7s&sort=r
  71. a b http://www.tecchannel.de/storage/ssd/2034662/test_ocz_vertex_3_schnellste_ssd_mit_sandforce_sf_2200/
  72. Die Steckverbindungen halten lediglich bis zu 30 g stand; Technische Spezifikation von 184-pin DIMM-Sockeln (PDF-Datei, 90 kB), Technische Spezifikation von SATA-Steckern (PDF-Datei, 167 kB)
  73. Diskussion und Tests zu CF-Karten als Festplattenersatz (engl.)
  74. Vorgaben für die Verwendung schneller CompactFlash-Karten

Wikimedia Foundation.

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Solid State Drive — Pour les articles homonymes, voir SSD. Carte SSD de 8Gb provenant de l Asus Eee PC 901. La connectique est mini PCI Exp …   Wikipédia en Français

  • Solid-State Drive —   [Abk. SSD, dt. sinngemäß »Halbleiterlaufwerk«], Speichermedium, das komplett aus RAM Chips besteht, aber wie ein Festplattenlaufwerk benutzt wird. Solche Medien werden dort eingesetzt, wo es auf besonders kurze Zugriffszeiten ankommt, etwa beim …   Universal-Lexikon

  • Solid-state drive — A solid state drive (SSD) is a data storage device that uses solid state memory to store persistent data. Unlike flash based memory cards and USB flash drives, an SSD emulates a hard disk drive interface, thus easily replacing it in most… …   Wikipedia

  • Solid State Drive — Ein Solid State Drive (SSD, dt. Festkörperlaufwerk), auch Solid State Disk (dt. Festkörperplatte) genannt, ist ein Speichermedium, das wie eine herkömmliche Festplatte eingebaut und angesprochen werden kann, ohne eine rotierende Scheibe oder… …   Deutsch Wikipedia

  • Solid State Drive — Запрос «SSD» перенаправляется сюда. Cм. также другие значения. Твердотельный накопитель (англ. SSD, Solid State Drive, Solid State Disk) энергонезависимое, перезаписываемое компьютерное запоминающее устройство без движущихся механических частей.… …   Википедия

  • Solid-state drive — Carte SSD de 8 Gio provenant de l’Asus Eee PC 901. La connectique est mini PCI Express …   Wikipédia en Français

  • Solid State Disk — Solid State Drive Pour les articles homonymes, voir SSD. Carte SSD de 8Gb provenant de l Asus Eee PC 901. La connectique est mini PCI Exp …   Wikipédia en Français

  • Solid state — may refer to:In science:*Solid state chemistry *Solid state physics *Solid state laser *Solid matterIn electronics:*Solid state (electronics) are circuits that do not contain relays, vacuum tubes or, more currently, moving parts. *Solid state… …   Wikipedia

  • Solid-State Disk Drive — Solid State Disk Drive,   Solid State Drive …   Universal-Lexikon

  • Solid-State-Festplatte — Ein Solid State Drive (SSD, dt. Festkörperlaufwerk), auch Solid State Disk (dt. Festkörperplatte) genannt, ist ein Speichermedium, das wie eine herkömmliche Festplatte eingebaut und angesprochen werden kann, ohne eine rotierende Scheibe oder… …   Deutsch Wikipedia


Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.