Newsletter

WIR sind die Experten

Ihrer IT- Services

Newsletter März 2017

Hoch effiziente Datenanalyse für NetApp Storagesysteme

Abteilungen sammeln immer mehr Daten, der Storagebedarf steigt exponentiell.

Für die Storage Verantwortlichen in der IT stellen sich dabei viele Herausforderungen und Fragen: Wie wird sich der Speicherbedarf entwickeln? Wie kann man kostengünstig sicherstellen, dass der Speicherplatz ausreicht? Wie kann den Fachabteilungen ihr Storagebedarf transparent nachgewiesen und nach Verbrauch verrechnet werden? Wurden Daten durch Ransomware verschlüsselt? Welche Dateien werden wirklich gebraucht und welche sind ungenutzt?

Im Lauf der Jahre sammeln sich in jedem Storage viele Daten an, auf die seit Monaten oder sogar Jahren nicht mehr zugegriffen wurde. Messungen haben ergeben, dass dieser ungenutzte Anteil oft bis zu 80% des gesamten Storage ausmacht!

Die Lösung: Der DataAnalyzer bietet die Möglichkeit, detaillierten Einblick in den NetApp Storage zu bekommen und damit den Speicherplatz effizient zu managen.

Funktionsweise DataAnalyzer

Der DataAnalyzer löst das Problem der ungenützten Dateien an der Wurzel, indem er für die Bereinigung der Daten sorgt. Installiert auf einem eigenen Server, der sich mit dem NetApp Storage verbindet, analysiert der DataAnalyzer über eine definierte Schnittstelle alle Dateien nach Typ, Größe und Altersstruktur. Die Ergebnisse sind übersichtlich in Excel dargestellt und geben Ihnen neue Möglichkeiten, Ihren Storage effizient zu verwalten und zu kontrollieren: Löschen ungenutzter Daten, interne Verrechnung des tatsächlich konsumierten Storage an die Fachabteilungen, automatische Alarmfunktion bei infizierten Dateien, Trendanalysen für Bedarfsplanung, Suche von falsch abgelegten Dateien.

Transparentes File Tiering für NetApp Storage

In Zeiten von Big Data werden jeden Tag große Mengen an Daten gesammelt. Immer mehr Maschinendaten, Bilder und Videos in immer höhere Auflösung werden generiert, die besonders viel Speicherplatz beanspruchen. Ein Großteil der Daten aber altert vor sich hin, niemand greift mehr darauf zu. Und das kostet Geld. Denn die Daten liegen meist auf teurem Primärspeicher.

Aus Messungen mit dem DataAnalyzer ergeben sich folgende Altersverteilungen:

15% Hot Data aktiv abgefragt, circa 1 Monat alt
35% Warm Data seltener aktiv genutzt, 1 bis 6 Monate alt
50% Cold Data inaktiv, > 6 Monate alt, dabei beträgt der Anteil an unstrukturierten Daten wie Bilder oder Videos rund 75%

Mangels Werkzeugen wird zumeist Storage erweitert, statt optimiert

Geschwindigkeit und Hochverfügbarkeit des Storage sind gefordert und die IT ist bemüht, die
Anforderungen der Fachbereiche zu erfüllen. Der Kostendruck steigt und der IT ist bewusst, dass Storage erweitern auf Dauer keine Lösung ist. Denn das bedeutet Zukauf teurer Speicherkapazitäten, längere Backup Zeiten, mehr Energie- und Platzverbrauch und auch längere Zeiten für einen Restore im Fehlerfall.

Daraus ergibt sich ein Zwiespalt: die IT weiß, dass ein Großteil der Daten alt und kalt sind, allerdings fehlt es ihr an der passenden Software, regelmäßig den Storage zu bereinigen und Daten auf billigeren Speicher oder in die Cloud auszulagern. Außerdem möchten die Fachbereiche transparent über ihre gewohnten Applikationen auf ihre Daten zugreifen und nicht in gesonderten Archiven nach Altdaten suchen. Daher wird wieder kurzfristig Primärspeicher zugekauft, ein Teufelskreis.

Die Lösung: DataOptimizer nutzt File Tiering und damit kostengünstigen Speicherplatz für alte und kalte Daten.

Mit dem DataOptimizer bekommt die IT ein Werkzeug, das alle dargestellten Herausforderungen auf einmal löst: Der NetApp Storage wird regelmäßig durchsucht und wenig bis gar nicht benutzte Daten automatisch nach dem Prinzip des File Tiering auf billigeren Speicher ausgelagert. Für User und Applikationen bleibt der Zugriff auf ihre Dateien unverändert.

File Tiering beruht auf dem Prinzip, dass oft genutzte Daten auf einem schnellen Speicher wie SSDs vorgehalten werden. Selten genutzte Daten kommen auf einen weniger performanten und billigeren Speicher mit SATA Platten oder können in die Cloud ausgelagert werden. Mit dem bedarfsgerechten Einsatz abgestufter Speichertechnologien werden Kosten gespart und das Management des kritischen Primärstorage erleichtert, sowie Backup und Restore der wichtigen Daten beschleunigt.

User-Transparenz beim Tiering mit Stubbing: Beim Tiering können 3 unterschiedliche Methoden zum Einsatz kommen, die unterschiedliche Konsequenzen haben:

  1. Kopieren: Ein Duplikat der Datei wird auf dem billigeren Medium angelegt. Die Datei bleibt am Primärspeicher bestehen und eine zusätzliche Kopie wird am Sekundärspeicher angelegt.
  2. Verschieben: Die Datei wird auf den günstigeren Speicher verschoben und auf dem teuren Speicher gelöscht. Der teure Storage wird zwar reduziert, aber die Fachbereiche müssen über einen neuen Pfad auf die Dateien zugreifen.
  3. Stubbing/Verknüpfen: Die Datei wird auf den günstigeren Speicher verschoben und auf dem teuren Speicher wird ein Link (Stub-File) mit den Header-Informationen abgelegt. Vorteil: Der teure Storage wird reduziert und die Benutzer und Applikationen können wie bisher auf ihre Daten zugreifen. Denn der Datenzugriff wird im Hintergrund über das Stub-File an den günstigeren Speicher weitergeleitet und die gewünschte Datei von diesem Speicher direkt via „path-through“ an den Benutzer oder die Applikation zugestellt. Für den Anwender und die Applikation ist der Datenzugriff absolut transparent und eine Verzögerung praktisch nicht merkbar.

Vor dem Einsatz des DataOptimizer können mit dem DataAnalyzer die grundlegenden Parameter für die Optimierung der Speicherlandschaft ermittelt werden. Diese Software wurde ebenfalls von ProLion entwickelt und liefert im Detail alle relevanten Kennzahlen über die Datenstruktur im NetApp Storage, wie Altersstruktur, Dateitypen, ungenutzte LUNs, erkennen von Ransomware, Zuordnung der Daten zu User und Gruppen, Trendanalysen und vieles mehr.

Vorteile

  1. Teurer Storage wird regelmäßig bereinigt, das senkt die Storage Kosten erheblich
  2. Daten werden kosteneffizient verwaltet und der Speicher optimiert
  3. Policy-based File Tiering berücksichtigt unterschiedlichste Datei Attribute und erreicht damit eine optimale Auslagerung
  4. Ein automatischer regelbasierter Prozess entlastet das Storage Betriebsteam
  5. User und Applikationen können wie gewohnt auf die Daten zugreifen und ohne Betriebsunterbrechung weiterarbeiten