NetWorker Update 7.2 -> 7.6, SRS -> DDS
Verfasst von Uwe W. Schäfer am 17. Februar 2011
Es gibt sie noch die "gute" alte NetWorker Version 7.2 wenn auch offiziel nicht mehr supported laufen einige NetWorker Server wohl immer noch mit dieser sehr stabilen Version, frei nach dem Motto "never change a running system". Aber irgendwann sind auch die Tage eines langlebigen Servers gezählt und man muss den Umstieg auf eine neue Version durchführen.
Der Kunde wollte natürlich nicht mit einer bereits wieder veralteten Version 7.5 anfangen und so wurde entsprechend gleich auf die aktuelle NetWorker Version 7.6 upgedated! Es wurde demzufolgen mein erster produktiver Update auf die NetWorker Version 7.6!
Für den Upate stand eine neue Solaris 10 Umgebung (der alte Server lief auf Solaris 8) für den NetWorker Server und seinen StorageNode zur Verfügung. In der alten Umgebung teilten sich Server, StorageNode und 4 NetApp-Filer 16 Laufwerke, mit Hilfe der SAN-Sharing Software (SRS) von FTS ehemals FSC. Da die NetWorker Version von FTS aber in absehbarer Zeit auslaufen wird und danach diese Sharing-Lösung nicht mehr unterstützt wird, wollte der Kunde an dieser Stelle gleich den Umstieg auf die Lösung von EMC umschwenken. Dies bedeutete eine Umstellung der Lizenzen und natürlich eine völlige Umkonfiguration der Laufwerke und Library-Konfiguration. Die Lizenzen erhielt der Kunde auf Grund seines Wartungsvertrags von FTS. Die beiden Solaris Maschinen bilden einen halb automatischen NetWorker Cluster. D.h. die Applikation wird zwar nicht automatisch bei einem Ausfall umgeschaltet, aber alle Vorkehrungen dafür sind getroffen. Voraussetzung hierfür sind:
- Die NetWorker Power Edition Lizenz
- eine virtuelle IP für den NetWorker Server
- eine Cluster Software
- die Ablage der NetWorker Datenbanken auf einem von beiden Maschinen zugreifbaren Laufwerk (in unserem Falle NFS)
- einige Konfigurationsdetails in der NetWorker Umgebung (hostids, NetWorkerCluster.srv)
Im Gegensatz zu SRS bei dem die physikalischen Laufwerke dynamisch einem virtuellen NetWorker Laufwerk zugewiesen werden, müssen bei der DDS Lösung alle Laufwerke mit ihren Betriebssystem-Knoten im NetWorker angelegt werden. Hier muss man aber Gott sei Dank nicht die vom OS als Default vorgegebenen Laufwerksknoten verwenden, sondern kann je nach Betriebsystem auch eigene symbolische Links bzw. Aliases für die Laufwerke konfigurieren. Denn die Verwendung des selben Namens auf allen Maschinen für ein physikalische Laufwerk erleichtert die Arbeit mit den Laufwerken ungemein! Hierbei muss bei der Konfiguration der NetWorker-Librarys allerdings auf das automatische Anlegen mittels NMC verzichtet werden. Die Ressource muss unter der Verwendung der Kommandos jbconfig mit einiger Sorgfalt und von Hand erfolgen. Das Ergebnis wird man aber bald zu schätzen wissen.
Natürlich mussten auch noch einige andere Anpassungen an bestehenden Skripten und Überwachungs-mechansimen durchgeführt werden. Seit der Version 7.2 hat sich am NetWorker doch einiges geändert. So wurde z.B. der Savegroup Completion Message Filter eingerichtet und konfiguriert.
Aufbau eines NetWorker Server Clusters
Verfasst von Uwe W. Schäfer am 2. Juli 2010
Diese Woche war schwitzen angesagt (nicht nur der Temperaturen wegen ;-)), sondern auch das Projekt hatte es mal wieder in sich.
Es sollte ein NetWorker Active-Active Cluster bestehend aus einer NetWorker Storage-Node und einem NetWorker Server aufgebaut werden. Die Basis bilden:
- zwei Solaris-10 Maschinen, auf denen ein Veritas-Cluster zum Einsatz kommt
- ein über NFS angebundener Storage auf einem NetApp Metro-Cluster
- die Networker Version 7.5 von Fujitsu
- SAN Laufwerke aus einem ACSLS Roboter
- die SAN Laufwerkssharing Lösung SRS zum Verwalten der Laufwerksvergabe
- eine VTL-700 für die Sicherung der langsamen und asynchronen Daten
Die Lösung erlaubt eine automatische (von der Cluster-Software überwachte) Übernahme der NetWorker-Server Funktionalität an den StorageNode mit Übernahme aller Laufwerke und umgekehrt. Dies bedingt natürlich gleiche Laufwerksbezeichnungen aller verwendeten Laufwerke auf den beiden Cluster-Maschinen und ein durchdachtes Design des Storage und der Laufwerksaufteilung.
Das Schwitzen hat sich aber gelohnt ;-) das Cluster ist fertig und alle Kundenanforderungen konnten erfüllt werden.