Endlich ist es soweit. Ich habe das erste NetAppHCI System zum Testen und Spielen bei mir stehen.
Das Wichtigste zuerst… JA das NetAppHCI Logo leuchtet, sobald ihr die Chassis mit Strom versorgt 😉
Für meine Testumgebung habe ich vier Small Compute Nodes und vier Small Storage Nodes. Dies bedeutet, dass die Storage Nodes mit 6x 480GB SSDs ausgestattet sind und die Compute Nodes mit 16 CPU Kernen und 384 GB RAM.
Dabei ist zu bemerken, dass selbst bei der „Small“ Variante des Compute Nodes sämtliche RAM-Steckplätze voll belegt sind.
Dadurch können sämtliche Speicher Kanäle voll ausgenutzt werden. Zudem denke ich, dass NetApp die 24x 16GB Riegel günstiger einkaufen kann als 12x 32GB Riegel. Wait what? 24x 16 GB Riegel in der Small Variante? Das sind ja 384 GB RAM, aber ich hatte doch damals in meiner ersten Vorstellung geschrieben, dass in der „Small“ Variante nur 256 GB drin sind! Tja da hat NetApp wohl noch eine Schüppe draufgelegt 😉
Daher hier nochmal die aktuelle Übersicht über die Ausstattung der Compute Nodes:
Ein Blick auf die Aufkleber lässt nun auch erahnen welcher Hardware Hersteller hinter den Server Komponenten steckt 😉
Zuerst habe ich mich mit einem Monitor und einer Tastatur an jeden Node angeschlossen und habe dort eine feste IP-Adresse für das On Board Management vergeben damit ich mich bequem per Browser auf jeden Node aufschalten kann.
Aus dem OnBoard Management oder auch IPMI genannt habe ich mir sämtliche MAC-Adressen der Adapter kopiert und habe mir in einem DHCP Server zwei Scopes angelegt. Einen für die 1GbE Adapter und einen für die 10 GbE Adapter. Mit den MAC-Adressen habe ich mir dann Reservierungen im jeweiligen DHCP Bereich erstellt.
Ihr seid nicht gezwungen Reservierungen in einem DHCP zu erstellen. Es erleichtert euch aber die Zuordnung der Adapter und der IP-Adressen ungemein. Außerdem könnt ihr so den 10 GbE Adaptern direkt die passende MTU Size von 9000 mitgeben. Dazu einfach in den DHCP Bereichs -Optionen (für die 10 GbE Adapter) die DHCP Option 26 auf 9000 stellen.
Nachdem dann alles verkabelt ist (Was bei mir so aussieht)…
…surft ihr einfach mit eurem Browser auf eine der IP Adressen, die ihr für die 1GbE Adapter vergeben habt und gelangt zum HCI Welcome Screen:
Wir klicken auf „Get Started“ und befinden uns schon in der NDE (NetApp Deployment Engine)
Hier bestätigen wir, dass wir alle Voraussetzungen erfüllt haben und klicken weiter. Dann bestätigen wir die EULA…
…und sagen in diesem Fall, dass wir ein neues vCenter deployen wollen. Das ganze über eine IP, weil ich keinen DNS Server in der Laborumgebung laufen habe.
Danach vergeben wir einen Benutzernamen und ein Kennwort für unser vCenter und für unseren Storage Cluster
Im nächsten Schritt seht ihr, welche Nodes die NetApp Deployment Engine schon gefunden hat. ACHTUNG hier tauchen nur die Nodes auf, welche in der gleichen bzw. erreichbaren IP Range liegen wie der Node von dem aus ihr die Deployment Engine gestartet habt. Es passiert hier keine Magie, die von Zauberhand einfach Nodes findet. Nun wählt ihr aus, welche Nodes ihr in eurer neuen Umgebung haben wollt. Solidfire typisch müsst ihr mindestens 4 STorage Nodes nutzen, bei den ESX Nodes könnt ihr mit mindestens zwei starten.
Dann vergebt ihr ein Rudel von IP – Adressen. In meinem Fall habe ich das im Advanced Mode gemacht, um mehr Kontrolle über die Vergabe zu haben. Im Basic Mode gebt ihr einfach eine Range an und die Deployment Engine vergibt die IPs automatisch an die Nodes.
Dann gibts noch ein Review….
…und dann wartet ihr einfach bis das Deployment durchgelaufen ist. In meinem FAll hat es knapp 30 Minuten gebraucht bis alles fertig war.
Erst jetzt wird von der Deployment Engine das ESX Betriebssystem auf den Compute Nodes ausgerollt. Dieses liegt auf internen SSDs, welche wie RAM Bauste auf das Board des Nodes gesteckt sind.
Nachdem die Deployment Engine 100% Erreicht hat, könnt ihr diese schließen und euch an eurem neuen vCenter anmelden. Die Deployment Engine hat für euch automatisch einen Cluster angelegt, die ESX Hosts dort rein gejoined, eine Mangement VM erstellt über die die vCEnter Plugins bereitgestellt werden…
…und es wurden automatisch Datastores angelegt und an alle eure ESX Nodes gemountet.
Das war die Installation 🙂
Stolpersteine:
- Achtet penibel darauf, dass die 10 GbE Adapter tatsächlich alle eine MTU von 9000 eingestellt haben. Vergesst nicht euren Switch auch auf MTU 9000 zu stellen. Ansonsten schlägt das Deployment fehl und ihr müsst die Storage Nodes auf Factory Einstellungen resetten und den ganzen Spaß von vorne machen.
- Vergesst nicht, dass die 1GbE Adapter auch die 10 GbE Adapter im selben Netzwerk sehen müssen, ansonsten schlägt die Deployment Engine beim Erstellen des vCenter Servers fehl und ihr müsst manuell eure Hosts in vCenter bringen und die Management VM deployen.
Wie geht es weiter?
Natürlich habe ich dann angefangen ein bisschen mit dem System zu spielen. Besonders hat mich das Thema vVols interessiert. Anders als bei Anderen vVol implementierungen, läuft der VASA Provider auf allen Storage Nodes. Ihr müsst daher keine Angst haben, dass wenn eure VASA VM weg ist ihr alle vVols verliert.
Das ist schon sehr smart gelöst von NetApp. Mit ein paar Klicks habe ich mir einen vVOL Container erstellt…
… und siehe da, für Jede VMDK Datei wird ein eigenes virtuelles Volume angelegt.
So das war meine erste NetAppHCI Installation. Es ist zwar selten in der IT Branche, aber hier hält die Technik, was das Marketing verspricht. Ich freue mich auf Feedback und eure Fragen. Ich werde noch weitere Tests durchführen und euch auf dem Laufenden halten.
DISCLAIMER: Dieser Beitrag stellt meine persönlichen Beobachtungen dar und ist nicht offiziell durch NetApp oder andere autorisiert. Fehlinterpretationen oder Missverständnisse vorbehalten.