Storage

Consumer versus Enterprise SSDs

Storage Enterprise SSD Consumer SSD
© claudiodivizia -123rf

Die Verarbeitung und Analyse großer Datenmengen verlangt nach schneller und leistungsfähiger Hardware in allen Bereichen. Dem Speicher kommt dabei eine große Bedeutung zu. Hier sind SSDs der Enterprise-Klasse deutlich im Vorteil.

Die Digitalisierung verändert das Rechenzentrum: In immer mehr Bereichen der IT müssen größere Datenmengen in immer kürzerer Zeit bearbeitet werden. Ob BI-Anwendung, Edge-Computing, IoT (Internet of Things) oder Co-Locations – ohne verlässlich abrufbare Leistung lassen sich die gewünschten Ergebnisse nicht erzielen. Entsprechend stark gestiegen sind die Anforderungen an das Speichersystem. Klar ist dabei, dass klassische Hard Disk Drives (HDD) mit Blick auf hohen Datendurchsatz und niedriger Latenzzeit bei umfangreichen Transaktionen nicht immer den Anforderungen entsprechen und auch bei der Verfügbarkeit die oft geforderten 99,9999 Prozent nicht erfüllen können.

Die genannten Einschränkungen gelten insbesondere bei einer der Cloud-Schlüsseltechnologien, der Virtualisierung. Klassische Festplatten-Arrays gelangen bei einer hohen I/O (Input/Output)-Last, die typisch für solche Umgebungen sind, schnell an ihre Grenzen. Schließlich wurden HDDs ursprünglich nicht für zufällig, sondern sequenziell aufeinanderfolgende Datenströme konzipiert. Die entsprechenden Daten werden auf der gleichen Spur der Festplatte erwartet. Ohne häufige Defragmentierung erreichen HDDs damit kaum ihre Höchstgeschwindigkeit. Für die simultane Datenverarbeitung moderner Virtualisierungslösungen sind sie damit denkbar ungeeignet.

Aus den genannten Gründen nehmen Solid-State-Laufwerke (SSDs) mittlerweile eine immer bedeutendere Rolle im Datacenter ein. Moderne, auf den dortigen Einsatz optimierte SSDs ermöglichen es, Leistung, Effizienz und Zuverlässigkeit im Rechenzentrum zu steigern und gleichzeitig die Betriebskosten zu senken. Anders als bei den HDD-Pendants mit ihren beweglichen Teilen kennt der Controller einer SSD bereits die Adressen, an denen sich die Daten befinden. Gerade wenn es darum geht, Random-Daten zu lesen, spielt die SSD ihren Geschwindigkeitsvorteil aus und erreicht Output-Befehle pro Sekunde (IOPS) von 50.000 bis 100.000.

Profiqualität oder Standard?
Bei der Wahl der passenden SSD empfehlen sich für die meisten Datacenter-Betreiber Enterprise-Varianten. Diese unterscheiden sich in vielerlei Hinsicht von ihren Consumer-Pendants. So ist die Leistung dieser Komponenten auf den Einsatz einer Multi-Channel-Architektur und den Parallelzugriff vom SSD-Controller auf die NAND-Chips optimiert. Eine solche SSD kann dadurch sehr hohe Lese- und Schreibgeschwindigkeiten, sowohl sequenziell als auch bei den im professionellen Einsatz gefragten zufälligen Abfragen erreichen. Ein wichtiger Aspekt ist dabei auch die niedrige Latenz. Besonders in SSD-Speicher-Arrays, also beispielsweise Network Attached Storage (NAS), Direct Attached Storage (DAS) oder Storage Area Network (SAN) beeinflussen leistungsschwache SSDs die Gesamtlatenzzeit des Arrays, was relativ deutlich auch für die Anwender wahrnehmbar wird. SSDs der Enterprise-Klasse sind durch einen sogenannten überdimensionierten Bereich (OP) für niedrige Latenzzeiten nicht nur direkt nach dem Zugriff optimiert und können dadurch eine höhere, stabile Leistung über einen längeren Zeitraum liefern.

Ein weiterer wichtiger Aspekt ist die Zuverlässigkeit. NAND-Flashzellen verschleißen zwangsläufig durch einen wiederholten Schreibvorgang und produzieren dadurch Fehler. Diese Bitfehler können durch ausgefeilte Fehlerkorrekturen im Zaum gehalten werden. Die Frage ist jedoch, wie gut dies von SSD zu SSD gelingt. Maßeinheit ist dafür die „Uncorrectable Bit Error Ratio (UBER)“.

Laut Industry Standards Association Jedec sollen SSDs der Enterprise-Klasse nicht nur eine höhere Schreibauslastung erreichen und extremere Umgebungsbedingungen verkraften, sondern auch deutlich niedrigere UBER-Raten aufweisen. Zum Vergleich: Während bei Consumer-SSDs mit einem Bitfehler je einer Billiarde Bits (~0,11 Petabytes) gerechnet werden muss, ist es bei Enterprise-SSDs ein Bitfehler je zehn Billiarden Bits (~1,11 Petabytes).

Einige Hersteller arbeiten darüber hinaus mit zusätzlichen Technologien, mittels derer beschädigte Datenblöcke mit Paritätsdaten, die in anderen NAND-Bereichen gespeichert sind, wiederhergestellt werden können. Außerdem kommen Verfahren wie die periodische Checkpoint-Erstellung, ein Cyclic Redundancy Check (CRC) und die ECC-Fehlerkorrektur in einem End-to-End-internen Sicherungssystem zum Einsatz. Dadurch kann die Integrität der Daten vom Host über den Flash und zurück zum Host gewährleistet werden. End-to-End-Datenschutz bedeutet in diesem Fall, dass vom Host empfangene Daten während des Speichervorgangs im internen Cache, und wenn sie auf die NAND-Speicherbereiche geschrieben oder von ihnen gelesen werden, auf deren Integrität überprüft werden.

Darüber hinaus ist der Schutz vor plötzlichen Stromausfällen (Powerfails) von Bedeutung. Moderne Powerfail-Lösungen überwachen den eingehenden Strom und nutzen bei Stromverlust geladene Tantal-Kondensatoren, um interne oder externe, ausstehende Schreibvorgänge abzuschließen, bevor die SSD ausgeschaltet wird.

Ein solcher Schutz kann auch auf Firmware-Ebene dadurch erfolgen, dass häufiger Daten in den SSD-Controller-Cache-Bereich entleert werden. Das garantiert zwar nicht, dass während eines Stromausfalls keine Daten verlorengehen, ermöglicht aber die Minimierung der Auswirkungen von unsicheren Stromabschaltungen. Durch einen solchen Firmware-Powerfail-Schutz ist es außerdem weniger wahrscheinlich, dass die SSD nach einer unsicheren Abschaltung nicht mehr funktioniert.

Anbieterkompass Anbieter zum Thema

zum Anbieterkompass

  1. Consumer versus Enterprise SSDs
  2. SSDs auf dem Vormarsch

Das könnte Sie auch interessieren

Verwandte Artikel

Kingston Technology GmbH, Kingston Technology Europe Ltd

Professional Datacenter