EMC VNX5200 Testbericht
Der VNX5200-Speichercontroller von EMC ist der Einstiegspunkt für die VNX2-Angebote des Unternehmens und bietet Blockspeicher mit optionaler Datei- und Unified-Storage-Funktionalität. Der VNX5200 kann bis zu 125x 2,5-Zoll- oder 3,5-Zoll-SAS- und NL-SAS-Festplatten und SSDs verwalten und basiert auf der MCx-Multicore-Architektur von EMC. Kevin O'Brien, Leiter des StorageReview Enterprise Test Lab, reiste kürzlich zum Rechenzentrum von EMC in Hopkinton, MA, um den VNX5200 praktisch auszuprobieren und Benchmarks zu testen.
Der VNX5200-Speichercontroller von EMC ist der Einstiegspunkt für die VNX2-Angebote des Unternehmens und bietet Blockspeicher mit optionaler Datei- und Unified-Storage-Funktionalität. Der VNX5200 kann bis zu 125x 2,5-Zoll- oder 3,5-Zoll-SAS- und NL-SAS-Festplatten und SSDs verwalten und basiert auf der MCx-Multicore-Architektur von EMC. Kevin O'Brien, Leiter des StorageReview Enterprise Test Lab, reiste kürzlich zum Rechenzentrum von EMC in Hopkinton, MA, um den VNX5200 praktisch auszuprobieren und Benchmarks zu testen.
Im September letzten Jahres hat EMC seine beliebte VNX-Reihe von Unified-Storage-Arrays mit erheblichen Hardware-Verbesserungen aktualisiert. Das Ergebnis war die VNX2-Reihe mit Verbesserungen wie einem Wechsel von PCIe 2.0 zu PCIe 3.0 und der neuen MCx-Architektur (umfasst Multicore-RAID, Multicore-Cache und Multicore-FAST-Cache), um die Vorteile mehrerer CPU-Kerne in den Speicherprozessoren besser zu nutzen.
Viele dieser Verbesserungen konzentrieren sich darauf, der VNX-Plattform eine bessere Nutzung von Flash in einer Zeit zu ermöglichen, in der Speicheradministratoren weiterhin auf Hybrid-Array-Konfigurationen umsteigen. Laut EMC werden mittlerweile fast 70 % der VNX2-Systeme in Hybrid-Flash-Konfigurationen ausgeliefert, ein Wandel, der auch der Rolle der FAST-Suite von EMC für Caching und Tiering mehr Bedeutung beigemessen hat.
Während der kleinere VNXe3200, den wir zuvor getestet haben, ebenfalls mit VNX2-Technologien aktualisiert wurde, ist der VNX5200 für mittelständische Kunden konzipiert, die ein primäres Speichersystem in ihrer Zentrale und für Remote-/Zweigstellenanforderungen benötigen, die robuster sind als das, was der VNXe3200 bewältigen kann. Der VNX5200 kann für Block-, Datei- oder Unified-Storage konfiguriert werden und nutzt ein 3U, 25x 2,5-Zoll EMC Disk Processor Enclosure (DPE)-Gehäuse. Die Speicherprozessoreinheiten des VNX5200 umfassen einen 1,2-GHz-Vierkern-Xeon-E5-Prozessor mit 16 GB RAM und können maximal 125 Laufwerke mit FC-, iSCSI-, FCoE- und NAS-Konnektivität verwalten.
Die VNX2-Familie umfasst derzeit außerdem fünf Speichersysteme, die für größere Skalierungen als das VNXe3200 und das VNX5200 konzipiert sind.
Der VNX5200-Blockspeicher wird von zwei VNX-Speicherprozessoren mit einer 6-GB-SAS-Laufwerkstopologie betrieben. Eine VNX2-Bereitstellung kann einen oder mehrere Data Mover und eine Controller-Einheit verwenden, um NAS-Dienste anzubieten. Wie andere Mitglieder der VNX-Serie verwendet auch der VNX5200 UltraFlex-E/A-Module sowohl für seine Data Mover als auch für die Blockspeicherprozessoren. Der VNX5200 unterstützt bis zu drei Data Mover und maximal drei UltraFlex-Module pro Data Mover.
MCx Multi-Core-Funktionalität
VNX war älter als die weit verbreitete Multicore-Prozessortechnologie und frühere Generationen der Plattform basierten nicht auf einer Grundlage, die dynamische CPU-Skalierung nutzen konnte. FLARE, die Betriebsumgebung von VNX1 und CLARiiON CX, ermöglichte zwar die Ausführung von Diensten, einschließlich RAID, auf einem bestimmten CPU-Kern, aber das Single-Threaded-Paradigma von FLARE bedeutete, dass viele Kernfunktionen an den ersten CPU-Kern gebunden waren. Beispielsweise wurden alle eingehenden I/O-Prozesse von Core 0 verarbeitet, bevor sie an andere Cores delegiert wurden, was zu Engpassszenarien führte.
MCx implementiert das, was EMC als horizontale Multicore-Systemskalierung bezeichnet, wodurch alle Dienste auf alle Kerne verteilt werden können. Unter dieser neuen Architektur, die sowohl auf VNX2 als auch auf VNXe3200 verfügbar ist, ist die Wahrscheinlichkeit von Engpässen bei eingehenden E/A-Prozessen geringer, da beispielsweise Front-End-Fibre-Channel-Ports gleichmäßig auf mehrere Prozessorkerne verteilt werden können. MCx implementiert auch die I/O-Kernaffinität durch sein Konzept der bevorzugten Kerne. Jeder Port, Front-End und Back-End, verfügt sowohl über eine bevorzugte Kern- als auch eine alternative Kernzuweisung. Das System hostet Anfragen mit demselben Front-End-Kern, von dem die Anfragen stammen, um den Austausch von Cache und Kontext zwischen Kernen zu vermeiden.
Ein großer Vorteil der neuen MCx-Architektur ist die Unterstützung symmetrischer Aktiv/Aktiv-LUNs, die es Hosts ermöglicht, über beide Speicherprozessoren im Array gleichzeitig auf LUNs zuzugreifen. Anders als bei der asymmetrischen Implementierung von FLARE können beide SPs im symmetrischen Aktiv/Aktiv-Modus direkt auf die LUN schreiben, ohne dass Aktualisierungen an den primären Speicherprozessor gesendet werden müssen.
Derzeit unterstützen VNX2-Systeme symmetrischen Aktiv/Aktiv-Zugriff für klassische RAID-Gruppen-LUNs, unterstützen jedoch keinen Aktiv/Aktiv-Zugriff für private Pool-LUNs, die stattdessen den asymmetrischen Aktiv/Aktiv-Modus nutzen können. Private Pool-LUNs oder „klassische LUNs“ können derzeit nicht den symmetrischen Aktiv/Aktiv-Modus nutzen, wenn sie andere Datendienste als den VNX RecoverPoint-Splitter verwenden.
Eine der überzeugenden Synergien des VNX5200 zwischen der MCx-Architektur und dem Flash-Medienspeicher ist die Systemunterstützung für die EMC FAST Suite, die es Administratoren ermöglicht, die Vorteile von Flash-Speichermedien zu nutzen, um die Array-Leistung über heterogene Laufwerke hinweg zu steigern. Die FAST Suite vereint zwei Ansätze zur Nutzung von Flash zur Beschleunigung der Speicherleistung – Caching und Tiering – in einer integrierten Lösung. VNX2-Updates für die FAST Suite umfassen eine viermal bessere Tiering-Granularität und Unterstützung für neue eMLC-Flash-Laufwerke.
VNX FAST Cache ermöglicht die Nutzung von bis zu 4,2 TB SSD-Speicher, um hochaktive Daten bereitzustellen und sich dynamisch an Arbeitslastspitzen anzupassen, obwohl die obere Cache-Größenbeschränkung des VNX5200 bei 600 GB liegt. Wenn Daten altern und mit der Zeit weniger aktiv werden, ordnet FAST VP die Daten in 256-MB-Schritten von Hochleistungslaufwerken zu Laufwerken mit hoher Kapazität ein, basierend auf vom Administrator definierten Richtlinien.
EMC VNX5200-Spezifikationen
Designen und Bauen
In der VNX-Terminologie besteht eine Speicherbereitstellung aus mehreren integrierten Rack-Komponenten. Die Controller-Komponente ist entweder ein Speicherprozessorgehäuse (SPE), das keine Laufwerksschächte enthält, oder wie bei diesem VNX5200 ein Festplattenprozessorgehäuse (DPE), das internen Speicher bereitstellt. VNX Disk Array Enclosures (DAEs) können verwendet werden, um zusätzliche Speicherkapazität zu integrieren.
Ein SPE umfasst die VNX-Speicherprozessoren zusätzlich zu zwei SAS-Modulen, zwei Netzteilen und Lüfterpaketen. Disk-Processor Enclosures (DPEs) umfassen ein Gehäuse, Festplattenmodule, Speicherprozessoren, zwei Netzteile und vier Lüfterpakete. Das Hinzufügen von zusätzlichem Speicher durch den Einsatz von DAEs kann durch den Einsatz von entweder 15 x 3,5-Zoll-, 25 x 2,5-Zoll- oder 60 x 3,5-Zoll-Laufwerksschächten mit zwei SAS-Link-Steuerkarten und zwei Netzteilen erfolgen.
Unabhängig davon, ob sie Teil eines Speicherprozessorgehäuses oder eines Festplattenprozessorgehäuses sind, bieten VNX-Speicherprozessoren Datenzugriff auf externe Hosts und überbrücken den Blockspeicher des Arrays mit optionaler VNX2-Dateispeicherfunktionalität. Der VNX5200 kann eine Vielzahl von EMCs UltraFlex-IO-Modulen nutzen, um seine Konnektivität anzupassen.
Optionen für UltraFlex Block-IO-Module:
Um den VNX5200 für Dateispeicher oder Unified Storage zu konfigurieren, muss er zusammen mit einer oder mehreren Data Mover-Einheiten verwendet werden. Das VNX Data Mover Enclosure (DME) ist 2U groß und beherbergt die Data Mover. Data Mover verwenden 2,13 GHz Vierkern-Xeon 5600-Prozessoren mit 6 GB RAM pro Data Mover und können eine maximale Speicherkapazität von 256 TB pro Data Mover verwalten. Das Data Mover-Gehäuse kann mit einem, zwei oder drei Data Movern betrieben werden.
Kontrollstationen haben eine Größe von 1 HE und bieten Verwaltungsfunktionen für die Data Mover, einschließlich Kontrollen für Failover. Aus Redundanzgründen kann eine Kontrollstation mit einer sekundären Kontrollstation bereitgestellt werden. Zu den Optionen des UltraFlex File IO-Moduls gehören:
Management- und Datendienste
Die VNX-Familie nutzt die Verwaltungssoftware Unisphere von EMC. Unser Gesamteindruck von Unisphere ist, dass es eine saubere und gut organisierte Benutzeroberfläche bietet, die für IT-Generalisten zugänglich ist und gleichzeitig erfahrenen Speicheradministratoren den Zugriff auf die volle Funktionalität des Systems ermöglicht.
Unisphere verfügt über eine Snapshot-Funktionalität, die Konfigurationsoptionen für eine Richtlinie zum automatischen Löschen umfasst, die Snapshots entweder (1) nach einer bestimmten Zeitspanne oder (2) löscht, sobald der Snapshot-Speicherplatz einen bestimmten Prozentsatz der Speicherkapazität überschreitet. VNX-Snapshots können die Thin Provisioning- und Redirect-on-Write-Technologien von EMC nutzen, um die Geschwindigkeit zu verbessern und den Speicherbedarf für gespeicherte Snapshots zu reduzieren.
VNX verwendet Block- und Dateikomprimierungsalgorithmen, die für relativ inaktive LUNs und Dateien entwickelt wurden, sodass sowohl Komprimierungs- als auch Deduplizierungsvorgänge im Hintergrund mit reduziertem Leistungsaufwand ausgeführt werden können. Die Festblock-Deduplizierung von VNX ist mit einer Granularität von 8 KB für Szenarien wie virtuelle Maschinen, virtuelle Desktops und Test-/Entwicklungsumgebungen konzipiert, bei denen durch die Deduplizierung viel gewonnen werden kann. Die Deduplizierung kann auf Pool-LUN-Ebene eingestellt werden und Thin-, Thick- und deduplizierte LUNs können in einem einzigen Pool gespeichert werden.
Unisphere Central bietet eine zentralisierte Multi-Box-Überwachung für bis zu Tausende von VNX- und VNXe-Systemen, beispielsweise Systeme, die in Remote- und Zweigniederlassungen bereitgestellt werden. Die Unisphere-Suite umfasst außerdem VNX-Überwachungs- und Berichtssoftware für Speichernutzung und Arbeitslastmuster, um Problemdiagnose, Trendanalyse und Kapazitätsplanung zu erleichtern.
In virtualisierten Umgebungen kann der VNX5200 den Virtual Storage Integrator von EMC für VMware vSphere 5 zur Bereitstellung, Verwaltung, Klonung und Deduplizierung einsetzen. Für VMware bietet der VNX5200 API-Integrationen für VAAI und VASA und kann in Hyper-V-Umgebungen für Offloaded Data Transfer und Offload Copy for File konfiguriert werden. Der EMC Storage Integrator bietet Bereitstellungsfunktionen für Hyper-V und SharePoint. Die EMC Site Recovery Manager-Software kann Failover und Failback auch in Notfallwiederherstellungssituationen verwalten.
VNX2-Arrays vom VNX5200 bis zum VNX8000 bieten EMCs neue Controller-basierte Data-at-Rest-Verschlüsselung namens [email protected], die alle Benutzerdaten auf Laufwerksebene verschlüsselt. [email protected] verwendet AES 256-Verschlüsselung und wartet auf die Validierung der FIPS-140-2 Level 1-Konformität. Neue [email protected] VNX-Arrays werden mit der im Lieferumfang enthaltenen Verschlüsselungshardware ausgeliefert, und bestehende VNX2-Systeme können vor Ort aktualisiert werden, um [email protected] zu unterstützen und vorhandenen Speicher als Hintergrundaufgabe unterbrechungsfrei zu verschlüsseln.
[email protected] verschlüsselt alle auf das Array geschriebenen Daten mithilfe eines regulären Datenpfadprotokolls mit einem eindeutigen Schlüssel pro Festplatte. Wenn Laufwerke aus irgendeinem Grund aus dem Array entfernt werden, sind die Informationen auf dem Laufwerk unleserlich. [email protected] verfügt außerdem über eine Krypto-Löschfunktion, da seine Verschlüsselungsschlüssel gelöscht werden, wenn eine RAID-Gruppe oder ein Speicherpool gelöscht wird.
VNX2 bietet gespiegelte Schreibcache-Funktionalität, bei der jeder Speicherprozessor sowohl primäre zwischengespeicherte Daten für seine LUNs als auch eine sekundäre Kopie des Caches für den Peer-Speicherprozessor enthält. Die RAID-Level 0, 1, 1/0, 5 und 6 können im selben Array koexistieren und die proaktive Hot-Sparing-Funktion des Systems erhöht den Datenschutz zusätzlich. Das System nutzt integrierte Batterie-Backup-Einheiten, um Cache-De-Staging und andere Überlegungen für ein ordnungsgemäßes Herunterfahren bei Stromausfällen zu ermöglichen.
Lokaler Schutz ist über die Point-in-Time-Snapshot-Funktion von Unisphere verfügbar, und kontinuierlicher Datenschutz ist über die lokale RecoverPoint-Replikation verfügbar. VPLEX von EMC kann verwendet werden, um die kontinuierliche Verfügbarkeit innerhalb und zwischen Rechenzentren zu erweitern. Laut EMC nutzte das Unternehmen Fernseh-DVRs als Inspiration für seine RecoverPoint Continuous Remote Replication-Software.
Replication Manager und AppSync bieten anwendungskonsistenten Schutz mit EMC Backup- und Recovery-Lösungen, einschließlich Data Domain, Avamar und Networker, um die Backup-Fenster und Wiederherstellungszeiten zu verkürzen.
Testen von Hintergrund- und Speichermedien
Wir veröffentlichen eine Bestandsaufnahme unserer Laborumgebung, einen Überblick über die Netzwerkfähigkeiten des Labors und weitere Details zu unseren Testprotokollen, damit Administratoren und diejenigen, die für die Gerätebeschaffung verantwortlich sind, die Bedingungen, unter denen wir die veröffentlichten Ergebnisse erzielt haben, angemessen einschätzen können. Um unsere Unabhängigkeit zu wahren, werden keine unserer Bewertungen vom Hersteller der von uns getesteten Geräte bezahlt oder verwaltet.
Der EMC VNX5200-Test sticht im Vergleich zu der Art und Weise, wie wir normalerweise Geräte bewerten, als ein ziemlich einzigartiger Testansatz hervor. In unserem standardmäßigen Überprüfungsprozess liefert uns der Anbieter die Plattform, die wir dann für Leistungsbenchmarks mit unseren festen Testplattformen verbinden. Beim VNX5200 veranlassten uns die Größe und Komplexität sowie die anfängliche Einrichtung, diesen Ansatz zu ändern und unseren Prüfer und unsere Ausrüstung in das Labor von EMC zu fliegen. EMC hat einen VNX5200 mit der für iSCSI- und FC-Tests erforderlichen Ausrüstung und Optionen vorbereitet. EMC lieferte seinen eigenen dedizierten 8-Gbit-FC-Switch, während wir einen unserer Mellanox 10/40-Gbit-SX1024-Switches für Ethernet-Konnektivität mitbrachten. Um das System zu belasten, nutzten wir einen EchoStreams OSS1A-1U-Server, der die Hardwarespezifikationen dessen übertrifft, was wir in unserer traditionellen Laborumgebung verwenden.
EchoStreams OSS1A-1U Spezifikationen:
Unsere Bewertung des VNX5200 vergleicht seine Leistung in synthetischen Benchmarks über fünf Konfigurationen hinweg, die widerspiegeln, wie EMC-Kunden VNX2-Systeme in einer Produktionsumgebung einsetzen. Jede Konfiguration nutzte 8 LUNs mit einer Größe von 25 GB.
Jede Konfiguration umfasste 24 Laufwerke und verwendete RAID-Konfigurationen, die bei der Bereitstellung in einer Produktionsumgebung am häufigsten vorkommen.
Synthetische Workload-Analyse für Unternehmen
Bevor wir jeden der FIO-Synthetik-Benchmarks starten, bereitet unser Labor das Gerät auf einen stabilen Zustand unter einer hohen Last von 16 Threads mit einer ausstehenden Warteschlange von 16 pro Thread vor. Anschließend wird der Speicher in festgelegten Intervallen mit mehreren Thread-/Warteschlangentiefenprofilen getestet, um die Leistung bei leichter und starker Nutzung zu zeigen.
Vorkonditionierung und primäre stationäre Tests:
Diese synthetische Analyse umfasst vier Profile, die häufig in Herstellerspezifikationen und Benchmarks verwendet werden:
Nachdem wir den VNX5200 für 4K-Workloads vorbereitet hatten, unterzogen wir ihn unseren ersten Tests. Bei Konfiguration mit SSDs und Zugriff über Fibre Channel wurden somit 80.472 IOPS beim Lesen und 33.527 IOPS beim Schreiben gemeldet. Unter Verwendung der gleichen SSDs in RAID10 (diesmal allerdings mit unserem iSCSI-Block-Level-Test) erreichte die VNX5200 37.421 IOPS beim Lesen und 22.309 IOPS beim Schreiben. Der Wechsel zu 15K-Festplatten in RAID5 mit Fibre-Channel-Konnektivität ergab 12.054 IOPS beim Lesen und 3.148 IOPS beim Schreiben, während die 10K-Festplattenkonfiguration 7.688 IOPS beim Lesen und 2.835 IOPS beim Schreiben erreichte. Bei Verwendung von 7K-Festplatten in einer RAID6-Konfiguration desselben Konnektivitätstyps verzeichnete der VNX5200 4.390 IOPS beim Lesen und 1.068 IOPS beim Schreiben.
Die Ergebnisse waren bei der durchschnittlichen Latenz weitgehend gleich. Bei Konfiguration mit SSDs in RAID10 und Verwendung einer Fibre-Channel-Konnektivität wurden 3,18 ms Lese- und 7,63 ms Schreibzeit angezeigt. Bei Verwendung der gleichen SSDs in unserem iSCSI-Block-Level-Test erreichte die VNX5200 eine Lesegeschwindigkeit von 6,84 ms und eine Schreibgeschwindigkeit von 11,47 ms. Der Wechsel zu 15-KByte-Festplatten in RAID5 mit Fibre-Channel-Konnektivität ergab eine durchschnittliche Latenz von 21,23 ms beim Lesen und 81,31 ms beim Schreiben, während die 10-KByte-Festplattenkonfiguration 33,29 ms beim Lesen und 90,31 ms beim Schreiben verzeichnete. Beim Wechsel zu 7K-Festplatten in einer RAID6-Konfiguration desselben Konnektivitätstyps verzeichnete der VNX5200 58,29 ms Lese- und 239,64 ms Schreibzeit.
Als nächstes gehen wir zu unserem Benchmark für die maximale Latenz über. Bei der Konfiguration mit SSDs in RAID10 und unserem iSCSI-Block-Level-Test wurden 197 ms Lese- und 421,8 ms Schreibzeit angezeigt. Bei Verwendung der gleichen SSDs, dieses Mal jedoch mit Fibre-Channel-Konnektivität, erreichte die VNX5200 eine Lesegeschwindigkeit von 202,1 ms und eine Schreibzeit von 429,2 ms. Der Wechsel zu 15-KByte-Festplatten in RAID5 mit Fibre-Channel-Konnektivität verzeichnete 1.311,3 ms Lese- und 1.199,2 ms Schreibzeit für maximale Latenz, während die 10-KByte-Festplattenkonfiguration 2.687,8 ms Lese- und 2.228,1 ms Schreibzeit verzeichnete. Beim Wechsel zu 7K-Festplatten in einer RAID6-Konfiguration desselben Konnektivitätstyps verzeichnete der VNX5200 3.444,8 ms Lese- und 2.588,4 ms Schreibgeschwindigkeit.
Unser letzter 4K-Benchmark ist die Standardabweichung, die die Konstanz der Leistung des VNX5200 misst. Bei der Konfiguration mit SSDs in RAID10 mithilfe unseres iSCSI-Block-Level-Tests verzeichnete der VNX5200 3,30 ms Lese- und 12,06 ms Schreibgeschwindigkeit. Die Verwendung derselben SSDs mit Fibre-Channel-Konnektivität zeigt 9,20 ms Lese- und 14,32 ms Schreibzeit. Der Wechsel zu 15-KByte-Festplatten in RAID5 mit Fibre-Channel-Konnektivität verzeichnete 25,93 ms Lese- und 120,53 ms Schreibzeit, während die 10-KByte-Festplattenkonfiguration 35,37 ms Lese- und 175,66 ms Schreibzeit verzeichnete. Bei Verwendung einer 7K-Festplatten-RAID6-Konfiguration desselben Konnektivitätstyps verzeichnete der VNX5200 52,75 ms Lese- und 254,55 ms Schreibgeschwindigkeit.
Unser nächster Benchmark verwendet eine sequentielle Arbeitslast, die zu 100 % aus Lesevorgängen und dann zu 100 % aus Schreibvorgängen mit einer Übertragungsgröße von 8 KB besteht. Hier verzeichnete der VNX5200 178.959 IOPS beim Lesen und 76.022 IOPS beim Schreiben, wenn er mit 10.000 Festplatten in RAID5-Fibre-Channel-Konnektivität konfiguriert wurde. Die Verwendung von 15.000 Festplatten in RAID5 mit Fibre-Channel-Konnektivität zeigt 176.895 IOPS beim Lesen und 77.505 IOPS beim Schreiben. Beim Wechsel zu SSDs in RAID10 über eine Fibre-Channel-Konnektivität wurden 169.833 IOPS beim Lesen und 74.470 IOPS beim Schreiben verzeichnet, während der SSD-iSCSI-Block-Level-Test 69.303 IOPS beim Lesen und 40.379 IOPS beim Schreiben ergab. Bei Verwendung von 7K-Festplatten in einer RAID6-Konfiguration mit Fibre-Channel-Konnektivität verzeichnete der VNX5200 75.982 IOPS beim Lesen und 76.122 IOPS beim Schreiben.
Unsere nächste Reihe von Arbeitslasten besteht aus einer Mischung von 8.000 Lese- (70 %) und Schreibvorgängen (30 %) bis zu einer 16-Threads-16-Warteschlange, wobei unser erster der Durchsatz ist. Bei Konfiguration mit SSDs in RAID10 mit Fibre-Channel-Konnektivität verzeichnete der VNX5200 einen Bereich von 8.673 IOPS bis 41.866 IOPS im 16T/16Q. Die Verwendung derselben SSDs während unseres iSCSI-Tests auf Blockebene zeigt einen Bereich von 6.631 IOPS bis 28.193 IOPS. Beim Wechsel zu 15K-Festplatten in RAID5 mit Fibre-Channel-Konnektivität wurden bis 16T/16Q Werte zwischen 1.204 IOPS und 6.411 IOPS verzeichnet, während die 10K-Festplattenkonfiguration 826 IOPS und 5.113 IOPS meldete. Bei Verwendung einer 7K-Festplatten-RAID6-Konfiguration desselben Konnektivitätstyps erzielte der VNX5200 einen Bereich von 267 IOPS bis 2.467 IOPS.
Als nächstes haben wir uns die durchschnittliche Latenz angesehen. Bei Konfiguration mit SSDs in RAID10 mit Fibre-Channel-Konnektivität verzeichnete der VNX5200 einen Bereich von 0,45 ms bis 6,11 ms bei 16T/16Q. Die Verwendung derselben SSDs während unseres iSCSI-Tests auf Blockebene zeigt einen Bereich von 0,59 ms bis 9,07 ms. Beim Wechsel zu 15-KByte-Festplatten in RAID5 mit Fibre-Channel-Konnektivität wurden Werte zwischen 3,31 ms und 39,89 ms aufgezeichnet, während die 10-KByte-Festplattenkonfiguration anfänglich 4,83 ms und bei 16T/16Q 49,97 ms erreichte. Bei Verwendung einer 7K-Festplatten-RAID6-Konfiguration desselben Konnektivitätstyps meldete der VNX5200 einen Bereich von 14,93 ms bis 103,52 ms.
Betrachtet man die Ergebnisse der maximalen Latenz, so ergab sich für das VNX5200 bei Konfiguration mit SSDs in RAID10 und Fibre-Channel-Konnektivität ein Bereich von 27,85 ms bis 174,43 ms bei 16T/16Q. Die Verwendung derselben SSDs während unseres iSCSI-Tests auf Blockebene zeigt einen Bereich von 31,78 ms bis 134,48 ms bei der maximalen Latenz. Beim Wechsel zu 15-KByte-Festplatten in RAID5 mit Fibre-Channel-Konnektivität wurde ein Bereich von 108,48 ms und 2.303,72 ms aufgezeichnet, während die 10-KByte-Festplattenkonfiguration bei 16T/16Q 58,83 ms und 2.355,53 ms anzeigte. Bei Verwendung einer 7K-Festplatten-RAID6-Konfiguration desselben Konnektivitätstyps meldete der VNX5200 einen maximalen Latenzbereich von 82,74 ms bis 1.338,61 ms.
Unser nächster Workload analysiert die Standardabweichung für unsere 8K-Vorgänge mit 70 % Lese- und 30 % Schreibvorgängen. Bei Verwendung von SSDs in RAID10 mit Fibre-Channel-Konnektivität erzielte der VNX5200 einen Bereich von nur 0,18 ms bis 10,83 ms bei 16T/16Q. Die Verwendung derselben SSDs während unseres iSCSI-Tests auf Blockebene zeigt einen ähnlichen Bereich von 0,21 ms bis 11,54 ms bei der Latenzkonsistenz. Beim Wechsel zu 15-KByte-Festplatten in RAID5 mit Fibre-Channel-Konnektivität wurde ein Bereich von 3,48 ms bis 56,58 ms aufgezeichnet, während die 10-KByte-Festplattenkonfiguration anfänglich 2,5 ms und bei 16T/16Q 66,44 ms anzeigte. Bei Verwendung einer 7K-Festplatten-RAID6-Konfiguration desselben Konnektivitätstyps meldete der VNX5200 einen Standardabweichungsbereich von 7,98 ms bis 110,68 ms.
Unser abschließender synthetischer Benchmark nutzte sequentielle 128-KByte-Übertragungen und eine Arbeitslast von 100 % Lese- und 100 % Schreibvorgängen. In diesem Szenario erzielte der VNX5200 bei Konfiguration mit SSDs unter Verwendung unseres iSCSI-Block-Level-Tests 2,84 GB/s Lese- und 1,26 GB/s Schreibgeschwindigkeit. Bei Verwendung von 15-KByte-Festplatten in RAID5 mit Fibre-Channel-Konnektivität werden 2,48 GB/s beim Lesen und 2,33 GB/s beim Schreiben angezeigt. Beim Zurückwechseln zu SSDs in RAID10 (diesmal unter Verwendung einer Fibre-Channel-Konnektivität) wurden 2,48 GB/s beim Lesen und 3,06 GB/s beim Schreiben aufgezeichnet. Bei der Verwendung von 7K-Festplatten in einer RAID6-Konfiguration mit Fibre-Channel-Konnektivität erzielte der VNX5200 2,47 GB/s Lese- und 2,68 GB/s Schreibgeschwindigkeit, während die 10K-Festplattenkonfiguration 2,47 GB/s Lese- und 3,22 GB/s Schreibgeschwindigkeit erreichte.
Abschluss
Das VNX-Ökosystem von EMC ist auf dem Unternehmensspeichermarkt gut etabliert, aber VNX2 spiegelt die Bereitschaft des Unternehmens wider, die VNX-Architektur komplett zu überarbeiten, um die Fortschritte bei Prozessor-, Flash- und Netzwerktechnologien optimal zu nutzen. Ähnlich wie der VNXe3200, der auf kleinere Bereitstellungen ausgerichtet ist, zeigt auch der VNX5200, dass EMC auf mittelständische Unternehmen und Remote-/Zweigstellen achtet, die möglicherweise nicht in der Lage sind, die Kosten der größeren Systeme der VNX-Familie zu rechtfertigen, aber dennoch alle Systeme nutzen möchten der Unternehmensvorteile.
In Verbindung mit der FAST Suite ist der VNX5200 in der Lage, Flash-Caching und Tiering gleichzeitig anzubieten, eine Kombination, mit der die Konkurrenten von EMC nur schwer konkurrieren können. Bei unseren Tests haben wir die gängigen Speicherebenen und -konfigurationen aufgeschlüsselt, um mit einer begrenzten Testsuite zu veranschaulichen, was Benutzer vom 5200 erwarten können. Die Tests umfassten 7K-Festplatten bis hin zu SSDs und verdeutlichten die Flexibilität des Systems bei der Bereitstellung von Kapazität, Leistung, oder beides über eine Vielzahl von Schnittstellenoptionen.
Letztendlich kann die VNX2-Plattform mit fast allem umgehen, was ihr in den Weg kommt; Und es ist diese Flexibilität, die jeden Tag EMC-Abschlüsse einbringt. Aufgrund der Mischung aus Speicheroptionen, E/A-Modulen und NAS-Unterstützung sind die Systeme in der Lage, nahezu alles zu bewältigen, was ein Unternehmen benötigen könnte. Natürlich gibt es Anwendungsfälle, die über den hier getesteten 5200 hinausgehen. Die VNX-Familie lässt sich erheblich vergrößern (und mit dem VNXe3200 auch etwas verkleinern), um diesen Anforderungen gerecht zu werden, sei es mit mehr Rechenleistung, Flash-Zuteilung oder Festplatten-Shelfs.
Vorteile
Nachteile
Endeffekt
Das EMC VNX5200 ist ein wichtiger Einstieg in die neue Welle von Unified-Storage-Arrays, die so konzipiert sind, dass sie die Vorteile von Flash-Speicher, Multi-Core-CPUs und modernen Rechenzentrums-Netzwerkumgebungen nutzen. Seine Erschwinglichkeit, Flexibilität bei der Konfiguration und der Zugriff auf VNX2-Verwaltungssoftware und Integrationen von Drittanbietern sorgen für ein beeindruckendes Gesamtpaket für den Mittelstand.
EMC VNX5200-Produktseite
Besprechen Sie diese Rezension
MCx Multi-Core-FunktionalitätEMC VNX5200-SpezifikationenDesignen und BauenManagement- und DatendiensteTesten von Hintergrund- und SpeichermedienSynthetische Workload-Analyse für UnternehmenAbschlussVorteileNachteileEndeffekt