NetApp VTL Ablöse
Verfasst von Uwe W. Schäfer am 1. Februar 2012
Bei einem unserer Kunden war der Wartungsvertrag für die NetApp VTL abgelaufen. Eine Verlängerung wäre unverhältnismäßig teuer gewesen. Außerdem war die Kapazität des Systems auch schon an seine Grenzen gestoßen. Da der Großteil der Daten des Kunden auf NetApp Primary Systemen lag oder darauf umgezogen werden sollte, viel die Entscheidung für eine Ablösung auf eine Kombination von 2 NetApp Nearstore Systemen und Advanced File Devices mit einer Bandsicherung für Langzeitsicherungen.
Auf die beiden Nearstore Systeme, die sich an 2 unterschiedlichen Standorten befinden, werden die Sicherungen der Oracle und VMware ESX Backups, sowie die auf den NetApp befindlichen Nutzerdaten mittels des NetApp Produktes SnapVault auf die erste NetApp gesichert. Diese Backup Volumes werden zyklisch mit dem Produkt SnapMirror auf die 2'te Nearstore in einen entfernten Standort gespiegelt. Da der Kunde schon seit einiger Zeit unsere Backup-Lösungen SBint-O und SBint-VM einsetzt, konnte die Sicherung der Oracle Datenbanken und der VMware-ESX-Datastores weiterhin mit NetWorker gestartet und überwacht werden. Die anfallenden Oracle-Archivelog Dateien werden mit SBint-O vom Primary Storage auf die erste Nearstore verdrängt. Jetzt fehlte nur noch eine entsprechende Integration der auf NetApp gehosteten Benutzerdaten. Hierfür gab es jedoch auch bereits eine Lösung unserer SBint-Backup-Tools. Denn auch hierfür kann man mit Hilfe eines NetWorker-Clients und einer zugehörigen NetWorker-Gruppe die Sicherung eines NetApp Volumes von einem Storage-System zum zweiten starten und überwachen. Selbstverständlich werden auch diese Sicherungen in unserer SBint-WWW-Oberfläche visualisiert (siehe auch hier).
Was jetzt noch fehlte, waren eine integrierte Sicherungslösung ganzer virtueller Filer-Umgebungen, sowie eine einfache Möglichkeit die benötigten Volumes und SnapVault- bzw. SnapMirror-Beziehungen automatisiert anzulegen. Jeder virtuelle Filer besitzt mehrere NetApp-Volumes. Diese sollten auf den sekundären Systemen alle die gleiche Aufbewahrungsfristen erhalten. Hierfür wurde unsere SBint-Backup-Lösung kurzerhand um eine entsprechende Funktion erweitert. Ein neuer Parameter in der Konfigurationsdatei definiert welche primären NetApp-Volumes auf einem gemeinsamen sekundären Ziel-Volume gesichert werden sollen. Das Sicherungskommando startet entsprechend bei einer durch NetWorker getriggerten Sicherung den SnapVault-Abgleich aller definierten Volumes auf ein gemeinsames Ziel-Volume. Nach der erfolgreichen Übertragung aller Volumes wird auf dem Nearstore-Volume ein gemeinsamer Snapshot erzeugt, der von unserer Backup-Integration nach der definierten Retentionzeit auch wieder entfernt wird. Jetzt fehlte nur noch ein komfortables Tool, dass die auf den Nearstores benötigten Volumes automatisiert anlegt und die für die Sicherung benötigten Snapshot-Beziehungen konfiguriert. Entstanden ist ein kleines Programm, dass im nächsten Blog beschrieben wird.
Snapshot Backup Integration
Verfasst von Uwe W. Schäfer am 14. November 2011
Viel zu lange her, dass ich hier etwas veröffentlicht habe.
Das hat aber nichts damit zu tun, dass es nichts zu berichten gäbe, sondern dass es einfach zu viel zu tun gibt und ich daher keine Zeit gefunden habe, dies hier zu berichten. Nun sitze ich am Flughafen und warte auf den wegen Nebel verschobenen Flug zur NetApp Insight und habe endlich mal Zeit und Luft diese Zeilen zu schreiben ;-)
Wo fangen wir an?
Unser Snapshot-Backup Entwicklung für Oracle und VMware ist an vielen Ecken vorangetrieben worden.
Folgende Erweiterungen wurden für die Oracle-Sicherung auf NetApp implementiert und sind bereits beim Kunden im Einsatz:
- vollautomatische Recover Funktionalität
- Recover Until Time
- Vollständiges Recover (Crash Recover)
Durch diese Erweiterung können NSR-ORA-NDMP Kunden auf unser Produkt wechseln ohne Funktionalität zu verlieren. Im Gegenteil: Sie erhalten zusätzliche Funktionalität (SnapVault Support).
Folgende Erweiterungen wurden für die VMware-Sicherungen auf NetApp implemetiert:
- Parallelisierung einiger Funktionen: Dadurch wurde die Sicherungsdauer zum Teil auf ein Viertel der Zeit reduziert!
- Unterstützung von orignären NetApp Snapshots für das Recovery von Einzeldateien. Hierdurch können mehrere Sicherungsstände pro Tag durch den normale NetApp Snapshot Scheduler generiert werden. Diese Snapshot Sicherungen sind zwar nur Crash-Consistent, können aber für das Recovery einzelner Dateien verwendet werden.
Migrationsunterstützung :
Unterstützung von mehreren gleichzeitigen SnapVault Beziehungen.
Sowohl die Oracle- als auch die VMware- Lösung erkennen und "updaten" jetzt auch mehrere gleichzeitige SnapVault Beziehungen. Hierdurch kann z.B. der secondary Storage auf einem neuen System angelegt werden und sobald beide Nearstore Systeme den gleichen Snapshot-Stand haben (beide haben Snapshots über "n" Wochen), kann die "alte" Nearstore Verbindung aufgelöst werden.
Volume Backup:
Unterstützung von Volume Sicherungen über unsere Snapshot Integration.
Dieses Feature unsere Snapshot-Backup Integration ermöglicht z.B. die Sicherung eines Multistore-Filers (VFiler) auf eine gemeinsames Nearstore Volume zu sichern und dieses für Langzeitsicherungen anschließend auf Band-Medien zu sichern.
Erweiterung der NetApp Volume Sicherungskontrolle
Verfasst von Uwe W. Schäfer am 11. Mai 2011
Im letzten Herbst habe ich bereits eine Lösung für das Problem, "werden alle NetApp Volumes auch vom NetWorker gesichert" vorgestellt. Die Überwachung der gesicherten NetApp Volumes wurde anhand von einem Python Script mit unserer eignenen NetApp API durchgeführt und läuft seit dem sehr erfolgreich bei unseren Kunden. Jetzt kam eine neue Herausforderung hinzu!
Ein weiterer Kunde sichert die NetApp Volumes nicht als komplette Volumes, sondern unterteilt diese in mehrere Sicherungen, von NetApp-Qtrees bzw zum Teil auch in Sicherungen von Unterverzeichnissen mehrere Stufen unterhalb des Volume Namens. Natürlich sollte sicher gestellt sein, dass alle Unterverzeichnisse eines Volumes gesichert werden. Es kommt aber leider immer mal wieder vor, dass andere Abteilungen, neue parallele Verzeichnisse zu den bestehenden aufbauen ohne an die Datensicherung zu denken. Dies passiert zum einen, weil mehrere Abteilungen über verschieden Standorte verteilt an der Administration des Storage beteilgt sind. So kann zum Beispiel die Windows-Abteilung in Ihrem Volume selbstverständlich neue Freigaben generieren und hierfür auch neue Verzeichnisse anlegen.
Hier ein kleines Beispiel um das Thema etwas griffiger zu gestalten:
Das Volume /vol/sv_filer3_bauplaene enthält zurzeit 5 TB zu sichernde Daten. Diese Daten verteilen sich in folgende Verzeichisse:
/vol/sv_filer3_bauplaene/MUC
/vol/sv_filer3_bauplaene/FRA
/vol/sv_filer3_bauplaene/HAM
/vol/sv_filer3_bauplaene/KOB
/vol/sv_filer3_bauplaene/DUS
/vol/sv_filer3_bauplaene/KOL
/vol/sv_filer3_bauplaene/BRE
/vol/sv_filer3_bauplaene/PDB
/vol/sv_filer3_bauplaene/KA
Alle Verzeichnisse sind in 3 NetWorker Client Ressourcen eingetragen. Der Vorteil hierbei liegt auf der Hand: Die Vollsicherung des Volumes kann an 3 unterschiedlichen Tagen stattfinden und bei auftretenden Problemen kann gezielt ein SaveSet der Sicherung nachgefahren werden.
Die Windows Abteilung generiert das neue Verzeichis "/vol/sv_filer3_bauplaene/STG" vergisst aber leider dies den NetWorker Administratoren mitzuteilen. Nach "n" Wochen möchte ein Entwickler einen 3 Wochen alten Plan aus der Unterverzeichnis "STG" wiederhergestellt haben. Dumm gelaufen.
Um genau dieses Problem nicht entstehen zu lassen, haben wir unser kleines Überwachungstool so erweitert, dass jetzt auch beliebig tiefe Unterverzeichnisstrukturen analysiert werden. Im obigen Fall würde nach dem Generieren des Verzeichnisses am folgenden Morgen eine Mail an den Backup-Administrator gesendet, in der er mitgeteilt bekommt, dass das Verzeichnis "STG" nicht in der Sicherung enthalten ist.
Das Tool ermittelt zunächst für den angegebenen Filer alle im NetWorker enthaltenen SaveSets und generiert daraus eine Liste der Verzeichisse und Volumes, die untersucht werden müssen. Hierauf wird am Filer eine Auflistung der Verzeichnisse und Volumes angefordert. Die gesammelten Daten werden im Anschluß gegen die bereits bekannte "Whitelist" verglichen und alle nicht bekannten Volumes und "parallel Verzeichnisse" werden den NetWorker Administratoren gemailt.
Hier ein Beispiel für den Aufruf eines Überwachungslaufs:
================================================================================
not saved Volumes und Subdirectorys for NetApp Filer: nafiler3
check WIKI entry: http://ciwi/s_t_wiki/index.php5/Check_Volume_Backup
================================================================================
db_oaiacc
db_oaidev
/vol/sv_filer3_bauplaene/STG
Die beiden Volumes "db_oaiacc" und "db_oaidev" gehören in die WhiteListe der SaveSets. "/vol/sv_filer3_bauplaene/STG" sollte in die NetWorker Konfiguration aufgenommen werden.
NetWorker Update 7.2 -> 7.6, SRS -> DDS
Verfasst von Uwe W. Schäfer am 17. Februar 2011
Es gibt sie noch die "gute" alte NetWorker Version 7.2 wenn auch offiziel nicht mehr supported laufen einige NetWorker Server wohl immer noch mit dieser sehr stabilen Version, frei nach dem Motto "never change a running system". Aber irgendwann sind auch die Tage eines langlebigen Servers gezählt und man muss den Umstieg auf eine neue Version durchführen.
Der Kunde wollte natürlich nicht mit einer bereits wieder veralteten Version 7.5 anfangen und so wurde entsprechend gleich auf die aktuelle NetWorker Version 7.6 upgedated! Es wurde demzufolgen mein erster produktiver Update auf die NetWorker Version 7.6!
Für den Upate stand eine neue Solaris 10 Umgebung (der alte Server lief auf Solaris 8) für den NetWorker Server und seinen StorageNode zur Verfügung. In der alten Umgebung teilten sich Server, StorageNode und 4 NetApp-Filer 16 Laufwerke, mit Hilfe der SAN-Sharing Software (SRS) von FTS ehemals FSC. Da die NetWorker Version von FTS aber in absehbarer Zeit auslaufen wird und danach diese Sharing-Lösung nicht mehr unterstützt wird, wollte der Kunde an dieser Stelle gleich den Umstieg auf die Lösung von EMC umschwenken. Dies bedeutete eine Umstellung der Lizenzen und natürlich eine völlige Umkonfiguration der Laufwerke und Library-Konfiguration. Die Lizenzen erhielt der Kunde auf Grund seines Wartungsvertrags von FTS. Die beiden Solaris Maschinen bilden einen halb automatischen NetWorker Cluster. D.h. die Applikation wird zwar nicht automatisch bei einem Ausfall umgeschaltet, aber alle Vorkehrungen dafür sind getroffen. Voraussetzung hierfür sind:
- Die NetWorker Power Edition Lizenz
- eine virtuelle IP für den NetWorker Server
- eine Cluster Software
- die Ablage der NetWorker Datenbanken auf einem von beiden Maschinen zugreifbaren Laufwerk (in unserem Falle NFS)
- einige Konfigurationsdetails in der NetWorker Umgebung (hostids, NetWorkerCluster.srv)
Im Gegensatz zu SRS bei dem die physikalischen Laufwerke dynamisch einem virtuellen NetWorker Laufwerk zugewiesen werden, müssen bei der DDS Lösung alle Laufwerke mit ihren Betriebssystem-Knoten im NetWorker angelegt werden. Hier muss man aber Gott sei Dank nicht die vom OS als Default vorgegebenen Laufwerksknoten verwenden, sondern kann je nach Betriebsystem auch eigene symbolische Links bzw. Aliases für die Laufwerke konfigurieren. Denn die Verwendung des selben Namens auf allen Maschinen für ein physikalische Laufwerk erleichtert die Arbeit mit den Laufwerken ungemein! Hierbei muss bei der Konfiguration der NetWorker-Librarys allerdings auf das automatische Anlegen mittels NMC verzichtet werden. Die Ressource muss unter der Verwendung der Kommandos jbconfig mit einiger Sorgfalt und von Hand erfolgen. Das Ergebnis wird man aber bald zu schätzen wissen.
Natürlich mussten auch noch einige andere Anpassungen an bestehenden Skripten und Überwachungs-mechansimen durchgeführt werden. Seit der Version 7.2 hat sich am NetWorker doch einiges geändert. So wurde z.B. der Savegroup Completion Message Filter eingerichtet und konfiguriert.