Sie sind hier

Der Kampf um das Ende der Festplatte hat begonnen

Bild des Benutzers manu
Gespeichert von manu am 6. August 2012 - 17:58

Die Zeichen im Storage-Markt stehen auf Konfrontation. Und viele Anzeichen deuten darauf hin, dass der Markt schnellere Speichermedien als nur schnell drehende Festplatten braucht. Ist die Festplatte am Ende?

Die Thailand-Fluten haben HD-Komponenten-Lieferanten und Festplattenhersteller ins Rampenlicht gerückt. Von vielen befürchtete Lieferengpässe sind zwar in Deutschland nicht bemerkbar gewesen, die Auswirkungen sollen aber nach Analyse von Gartner noch bis ins Jahr 2013 spürbar sein. Auch IHS iSuppli Memory&Storage erwartet, dass die Markterholung nicht vor dem 3. Quartal beginnt.

Für Festplattenhersteller Seagate hatten die thailändischen Fluten sogar sehr angenehme Auswirkungen: Die Preise konnten durchschnittlich um mehr als zehn Prozent gesteigert werden, die Auslieferungen lagen mindestens zehn Prozent niedriger und der Umsatz erreichte trotzdem ein Rekordniveau. Infolge der Merger von Seagate mit Samsung und von Western Digital mit Hitachi befürchtet man bei IHS iSuppli, dass die Preise auf einem weiterhin hohen Niveau verweilen werden.

Intelligente Kapazitätserweiterung gesucht

Viele Kunden wurden durch die drastische Darstellung eines drohenden Lieferengpasses aufgeschreckt. Verstärkt wird derzeit nach Alternativen Ausschau gehalten. Dazu gehören zum Einen Speichersysteme mit Funktionen wie Thin Provisioning und Auto-Tiering, die eine höhere Speichereffizienz aufweisen, und zum Anderen der direkte Ersatz von Festplatten durch Solid State Disks (SSD), die wichtige Anwendungen beschleunigen helfen.

„Die Thailand-Flut war ein weiterer Triggerpunkt für IT-Leiter, die schon seit langem bemerken, dass das Datenwachstum nicht mit der einfachen Erweiterung von Speicherkapazität in den Griff zu bekommen sein wird“, deutet René Hübel, Leitender Produktmanager bei Fujtsu, den von ihm erkannten Bewusstseinswandel.

Mit Auto-Tiering die nächsten drei Jahre überbrücken

Ähnlich argumentiert auch Herbert Bild, Solutions Marketing Manager bei NetApp: „Die nahe Zukunft werden die Unternehmen mit Hybrid-Speichersystemen bestreiten, in denen Festplatten unterschiedlicher Leistungsklassen eventuell auch mit einer SSD-Erweiterung installiert sind.“ Zweifel bestehen darin, dass sich die Kosten der SSD bei reinen Arbeitslasten, wo sich alles um die Speicherung großer Datenmengen dreht, rentieren könnten. Die Ersparnisse bei Raumbedarf und Stromkosten sind derzeit einfach zu schwer zuzuordnen.

„Die Hersteller wissen um den strategischen Wandel“, ergänzt Jörg Karpinski, Geschäftsführer bei PSP, „an der SSD führt kein Weg vorbei.“ Ob deswegen auch gleich die drehende Festplatte aus den Systemen verschwinden wird, darüber waren sich die Teilnehmer des Storage Roundtables nicht einig. Einigkeit herrschte allerdings darüber, dass mit Auto-Tiering eine Architektur auf den Markt gekommen ist, die die Kosten für höhere Performance drückt und gleichzeitig die installierte Kapazität besser ausschöpft.

 

Triggerpunkt 1: Preisverfall

Und auch bei den Anschaffungskosten hat sich der Preisverfall im Laufe des letzten Jahres fortgesetzt. In der Mittelklasse gibt es inzwischen bezahlbare PCIe-Flash-Karten mit bis zu 20 TByte Kapazität. Im Highend-Bereich haben sich die Kosten pro Terabyte von 50.000 Euro auf inzwischen 25.000 Euro halbiert. Und im Einstiegsbereich sind nur noch 2.000 bis 3.000 Euro zu bezahlen. „Viele unternehmenskritische Applikationen sind mit Kapazitäten von sechs bis 20 Terabyte speichertechnisch vollständig abgedeckt, so dass sich die Notwendigkeit für einen Online-Speicher mit Festplatten gar nicht mehr ergibt“, berichtet Karpinski aus seinen Beratungserfahrungen mit Banken und Versicherungen.

Auch wenn gerne Early Adaptors aus der Finanzwelt zum Nachweis eines heißen Trends angeführt werden, die SSD in ihrer jetzigen Bauweise ist nicht der Weisheit letzter Schluss. 50 Prozent der Speicherkapazität müssen für sogenannte Wear-Levelling-Verfahren im Hintergrund bereitgehalten werden, damit die individuelle Lebensdauer einer Speicherzelle nicht zur Katastrophe gerät. In Enterprise-Systemen wird zudem sehr viel teurer Aufwand getrieben, um die Hochverfügbarkeit der Daten sicherzustellen. Und nicht zuletzt kann die gern beschworene I/O-Performance häufig gar nicht ohne Änderungen von den Anwendungen genutzt werden oder wird durch langsame Netzwerke begrenzt.

Triggerpunkt 2: neue SSD-Speicherzellen

Kurt Gerecke, Certified Senior Storage Consultant bei IBM, hatte beim Storage Roundtable einiges Neues aus IBMs Technologieschmiede Rüschlikon zu vermelden. Sein erstes Fazit: „Ohne SSD können wir gar keine Speichersubsysteme mehr betreiben, wenn eine ordentliche Performance verlangt ist.“

Zwar haben sich die Datentransfer- und I/O-Raten moderner Festplatten gegenüber zehn Jahre älteren Platten verdoppelt, aber die Kapazität hat sich im gleichen Zeitraum mindestens verzehnfacht. Festplatten sind deshalb schon heute schneckenlangsam und werden, sofern es den Entwicklungsabteilungen gelingen sollte das paramagnetische Limit zu überwinden, noch langsamer werden. Der Triggerpunkt heißt hier: Die Festplatte ist am Ende.

 

Triggerpunkt 3: mehr Kapazität durch MLC

Es kommt aber noch schlimmer für die Festplattenindustrie, wenn Gerecke mit seinen Prognosen für die nächsten drei bis fünf Jahre Recht behält:

  • Schon ab 2014 wird IBM die Phase Change Memory Chips (PCM) massiv in den Flash-Speichern verbauen. Auch diese Chips gibt es als Multi Level Chips, so dass eine preiswerte Produktion möglich ist.
  • Sobald PCM Chips auf den Markt kommen, können wir von Leistungssteigerungen von Faktor 10 ausgehen. Innerhalb von zwei bis drei Jahren wird die Performance durch technische Verfeinerungen auf Faktor 50 angehoben werden können.
  • Die Single Level Cell (SLC) kann ohne Einschränkungen durch Enterprise Multi Level Cell (eMLC) abgelöst werden. Die Verbesserungen bei den Oxid-Schichten ermöglichen einen gleichwertigen Einsatz.
  • 2015 werden 50 bis 70 Prozent aller mobilen Geräte mit SSDs ausgestattet sein. Spätestens 2017/2018 werden wir im Online-Bereich nur noch SSD einsetzen.
  • Ab 2016/2017 wird es keine Hybrid-Systeme mit Auto-Tier-Funktionen mehr geben, sondern nur noch reine SSD-Speichersysteme. Unabhängig von der dann verwendeten Flash-Speicherzelle.

Es steht also schlecht um die Festplatte. Vorerst auf der richtigen Seite liegt der Anwender, glaubt man den Experten des Roundtables, wenn dieser sich langsam vom Fibre Channel abwendet, auf die zweite SAS-Generation, SAS-600, setzt, 3,5-Zoll Festplatten in Zukunft meidet, und auch dem aktuellen Massenspeicher SATA-Festplatte nicht mehr länger die Stange hält.

Appliances werden eine wichtige Rolle spielen.

Wir brauchen mehr Geschwindigkeit, lautet das Credo von Gerecke, um Anwendungen, die unter der Flagge Big Data segeln, in einem vernünftigen Zeitrahmen abwickeln zu können. Echtzeitverarbeitung steht hoch im Kurs, auch wenn kaum einer weiß wie diese Unmenge an Daten, die da verarbeitet werden sollen, aus einer noch größeren Unmenge von Daten herausgefiltert werden sollen, um dann aussagekräftigen Informationen herauszufiltern.

Dass die gesamte Infrastruktur im Server und zum Speichersubsystem durch die neuen Halbleiterlaufwerke umgekrempelt wird, daran glaubt Bild von NetApp nicht. Es gilt auch weiterhin virtualisierte Gesamtlösungen umzusetzen. „Die physischen Ressourcen sind für uns nicht bedeutsam“, bestätigt Stefan von Dreusche, Director Central Europe bei Datacore. „Wir können jeden Cache bis hin zu langsamsten Festplatte in unseren Storage-Pool SANsymphony-V einbinden und mit Auto-Tier-Funktionen beschleunigen.“

Bei aller Begeisterung für moderne Speichertechnik, sahen viele Teilnehmer des Roundtables in Entwicklungen wie sie gerade bei In-Memory-Techniken vorexerziert werden, einen alten Trend wiederaufleben: Appliances. Zweckgebundene Systeme, die einer Anwendung neben einfacher Bedienung und Verwaltung bestmögliche Performance bieten. Ob so die allseits beklagte Fragmentierung des Speichermarktes aufzuhalten sein wird? Das nächste Storage-Roundtable wird hier sicherlich mehr Klarheit schaffen.

 

Quell: it-business