Sie sind hier

Wann ist der Einsatz von SSDs nicht sinnvoll?

Bild des Benutzers manu
Gespeichert von manu am 6. August 2012 - 17:46

SSDs haben sich im Rechenzentrum etabliert. Fast alle größeren Hersteller spezifizieren heute in ihren Best-Practice-Architekturen eine Tier-0-Speicherebene. SSDs werden dabei in Servern eingesetzt, um deren Leistung zu verbessern und in Speichersystemen, um Boot-Storm-Engpässe zu vermeiden. Allerdings sollte man wissen, wann der Einsatz von SSDs sinnvoll ist und wann nicht.

Keine SSDs verwenden, wenn die Anwendungen nicht lese-intensiv sind: SSDs liefern hervorragende Lese-Zugriffszeiten und können herkömmliche Festplatten hier um das Zehnfache oder mehr übertreffen. Aber nichts ist umsonst, denn SSDs verlieren schnell ihre Vorteile, sobald es ums Schreiben geht: Schreibvorgänge laufen nicht nur relativ träge ab, sondern sie verschleißen auch die SSD-Speicherzellen. Die Speicherzellen haben, bezogen auf Schreibvorgänge, eine durchschnittliche Lebensdauer (nähere Angaben finden Sie in den technischen Unterlagen Ihres Herstellers). Ist diese überschritten, dann brennen die Zellen aus. Die Gesamtleistung der SSD verschlechtert sich, wenn im Laufe der Zeit immer mehr Zellen ausfallen.Letztlich muss die SSD ersetzt werden, um wieder die volle Leistung wiederherzustellen. Das ist – wie wir alle wissen – nicht sonderlich billig. Einige Hersteller bieten umfangreiche Garantien auf ihre Produkte.

Wie sieht nun ein ideales Lese-Schreib-Verhältnis aus? Da wird wohl nicht nur eines geben, aber es sollte idealerweise in einem Bereich von 90 zu 10 starten. Die Anforderungen von Applikationen können einen dazu zwingen, hier Kompromisse einzugehen. Aber Administratoren, die sich auskennen, können dann bewusste Entscheidungen treffen. Wenn das Verhältnis unterhalb von 50 zu 50 liegt, dann ist ganz offensichtlich eine herkömmliche Festplatte die bessere Wahl. Hier wird, aus Sicht der Anwendungs-Performance, die Leseleistung der SSD durch die geringere Schreibleistung aufgewogen.

Wenn SSDs schließlich wegen ihrer Lese-Performance gebraucht werden, die Schreibvorgänge hingegen ein Problem sind, sollte man diejenigen Hersteller in Betracht ziehen, die Wear-Leveling-Mechanismen verwenden und das Ausufern von Schreibvorgängen begrenzen, um die Auswirkungen zu minimieren. Auch die Größe der SSD ist ein Faktor. Wenn man auf kleine billige SSDs setzt, dann sind diese schneller überlastet, denn es gibt weniger Chancen auf rekursive Lesevorgänge.

 

Keine SSDs verwenden, wenn die Datenzugriffe in einem hohen Maße wahlfreier/direkter Natur sind: SSDs werden bisweilen auch „Cache-Tier“ genannt und das ist auch treffend. Grundsätzlich sind sie ein Cache, der die Notwendigkeit eliminiert, einen „Abruf“ auf der Festplatte auszuführen, sofern sich die angeforderten Daten im Cache befinden. Anwendungen mit sehr hohen Anforderungen an wahlfreien, direkten Zugriffen, werden schlicht keinen Nutzen aus SSDs ziehen können – denn den Lesevorgang wird der Array-Controller an die Festplatte leiten. Eine SSD ist in diesem Fall nur ein Aufwand, der sehr wenig Nutzen verspricht.

Keine Allzweck-SSDs in hoch virtualisierten Umgebungen einsetzen: Ja gut, dieser Punkt wird für Kontroversen sorgen, denn es gibt in der Tat einige gute Anwendungsszenarien für SSDs in Kombination mit virtuellen Maschinen, etwa im Zusammenhang mit Boot Storms. Wenn allerdings viele virtuelle Maschinen auf ein und dieselbe SSD zugreifen, dann wird das zu hochgradig zufälligen Datenmustern führen, zumindest aus der Speicherperspektive. Wenn Hunderte von VMs Daten auf den gleichen Speicher schreiben und diese von dort auslesen, dann wird ständig eine Maschine eine andere überschreiben. Allerdings gibt es spezielle SSD-Lösungen, die für virtuelle Umgebungen ausgelegt sind. Daher die Einschränkung „Allzweck-SSDs“.

Speicher-I/O-Engpässe nicht mit Server-SSDs lösen:Eine Server-basierende SSD ist ganz grundsätzlich ein Server-Cache, der ein Verarbeitungsproblem und sogar ein Bandbreitenproblem lösen kann. Wenn man SSDs auf viele Hundert physische Server verteilt und dabei jeden Server mit seiner eigenen SSD ausstattet, so kann das in der Tat I/O-Flaschenhälse beheben. Allerdings bei Weitem nicht so effektiv wie der Ansatz, die Gesamtkapazität in einer Speicherebene zusammenzufassen.

Tier 0 nicht zur Behebung von Engpässen im Netzwerk heranziehen: Wenn das Netzwerk die Datenauslieferung behindert, dann ist es offensichtlich, dass eine Optimierung des Speichersystems hinter dem Netzwerk nur wenig daran ändern wird. Server-SSDs können allerdings die Notwendigkeit reduzieren, auf das Speichersystem zugreifen zu müssen und folglich so die Netzwerkanforderungen reduzieren.

Keine für Endverbraucher konzipierten SSDs für Enterprise-Anwendungen verwenden: SSDs werden in drei unterschiedlichen Qualitäten hergestellt: Single-Level Cell (SLC), Multi-Level Cell (MLC) und Enterprise Multi-Level Cell (eMLC). MLC ist für Endverbraucher ausgelegt und zumeist in Regalware zu finden. MLC-SSDs weisen eine Lebenszeit von 3.000 bis zu 10.000 Schreibvorgängen pro Zelle auf. SLC – Enterprise-SSDs – verkraften hingegen bis zu 100.000 Schreibvorgänge pro Speicherzelle. eMLC versucht einen Spagat zwischen Preis und Leistung: Die Zellen halten bis zu 30.000 Schreibvorgänge aus und sind günstiger als SLC. Haftung ausgeschlossen! Man bekommt, wofür man bezahlt.

 

 

Quelle: it-business