Virtualisierung, Cloud, Big Data, SSD

Storage-Trends - Speichertechnologien für 2012

10.02.2012
Von 
Christian Vilsbeck war viele Jahre lang als Senior Editor bei TecChannel tätig. Der Dipl.-Ing. (FH) der Elektrotechnik, Fachrichtung Mikroelektronik, blickt auf langjährige Erfahrungen im Umgang mit Mikroprozessoren zurück.

Datenmanagement und Big Data

Das Management der wachsenden unstrukturierten Daten - Stichwort Big Data - wird zunehmend schwieriger. Wie erleichtern Ihre Produkte für 2012 das Datenmanagement?

Hans Schramm - Dell: "Betrachtet man die Benutzeroberflächen eines Dell-EqualLogic-Systems oder auch eines Dell Compellent Storage Center SANs, wird deutlich, wohin der Weg in puncto möglichst einfacher Verwaltung führt. Ein EqualLogic-System ist in der Regel in weniger als einer Stunde installiert, konfiguriert und in Betrieb genommen. Leicht erfassbare Strukturen, klare Übersichten und ein integriertes verständliches Reporting sind weitere Beispiele für eine komfortable und kostensparende Administration im Alltag."

Daniel Pelke, CTO, EMC Deutschland: "Für EMC ist Big Data Analytics für Unternehmen eines der wichtigsten Themen in 2012."
Daniel Pelke, CTO, EMC Deutschland: "Für EMC ist Big Data Analytics für Unternehmen eines der wichtigsten Themen in 2012."
Foto: EMC

Daniel Pelke - EMC: "Für EMC ist Big Data Analytics für Unternehmen eines der wichtigsten Themen in 2012. Unsere Big Data Analytics Plattform ist eine der leistungsstärksten und effizientesten. Sie erlaubt Unternehmen einen Mehrwert aus den wachsenden Datenmengen zu gewinnen. Wir sind auch auf der Speicherseite sehr gut aufgestellt mit Storage-Lösungen für virtuelle Rechenzentren und Unified Storage, die ein Höchstmaß an Automatisierung, Performance, Skalierbarkeit, Verfügbarkeit und Sicherheit bieten. Und wir haben darüber hinaus mit ATMOS auch eine Lösung für weltweit verteilte Cloud-Storage für Big Data. Für große Datenmengen haben wir mit Isilon eine der weltweit schnellsten NAS Platform. Isilon ist sehr leistungsfähig bei dateibasierte Anwendungen und Workflows. Das geht bis hin zu Backup und Archivierung mit unseren Data Domain Deduplication Storage System zur Optimierung von Backup und Recovery."

Robert Guzek - Fujitsu Technology Solutions: "Auch hier gilt das Stichwort 'Data in Place'. Die Integration dieser Funktionalität ermöglicht die Entwicklung eines Entry-Systems hin zu einem Highend-System, ohne dass Daten zu migrieren sind. Ein Hochrüsten des Systems erfolgt über den simplen Austausch des Controllers. Die auf den Disks ablegten Daten müssen hierfür nicht migriert werden. Dank dieser Funktionalität muss nicht mehr mit dem Erreichen des Endausbaus ein bestehendes Entry-System durch ein weiteres Entry-System ergänzt werden. Die herkömmliche Verwaltung vieler Systeme wird damit obsolet, wodurch sich wiederum das Management vereinfacht. 'Data in Place' ermöglicht die Skalierung in Performance und Kapazität."

Guido Klenner - Hewlett Packard: " Speicher ist immer noch billig: Was zunächst wie ein Vorteil für Unternehmen klingt, stellt diese tatsächlich vor ein großes Problem. Denn heute heben Unternehmen viele Daten auf, die nicht mehr gebraucht werden. Das führt auch dazu, dass Anwender ihre Informationen nicht wiederfinden oder die Suche sehr lange dauert. Mit den Lösungen von HP Autonomy bieten wir unseren Kunden nun die Möglichkeit, unstrukturierte, halb-strukturierte und strukturierte Daten in einer Verarbeitungsschicht vollständig zu analysieren. Dafür haben wir eine neue Plattform mit dem Namen IDOL 10 angekündigt. IDOL 10 verknüpft Autonomys Software für die automatische Verarbeitung und Analyse von unstrukturierten Daten mit der Echtzeit-Analyse-Technologie für strukturierte Daten von Vertica. So können Anwender beispielsweise auch den Inhalt aus Social Media, Videos und Tonspuren analysieren und Entscheidungen schneller treffen."

Dr. Georgios Rimikis - Hitachi Data Systems: "Der Speicherbereich wird massiv von dem Phänomen 'Big Data' beeinflusst. Die Erfassung, Speicherung, Suche und Analyse ihrer Daten ist eine große Herausforderung für Unternehmen. Sie sollten auf offene, skalierbare, flexible und zukunftsorientierte Speicherlösungen setzen. Hitachi Data Systems verfolgt die Strategie, traditionelle Rechenzentren in Information Center umzuwandeln, in denen Unternehmen alle Daten, Inhalte und Informationen unterbrechungsfrei sichern und abrufen können. Die drei Bestandteile dieser Strategie sind: Infrastructure Cloud, Content Cloud und Information Cloud. Sie basieren auf unserer Virtualisierungstechnologie, mit der Unternehmen die Effizienz ihrer IT-Umgebung steigern und gleichzeitig Kosten reduzieren können."

"Infrastructure Cloud beruht auf der Verbindung von Storage-, Software-, Compute- und Converged-Data-Center-Lösungen von Hitachi Data Systems. Ziel ist es, eine dynamische Infrastruktur und eine einzige Plattform für alle Daten zu schaffen. Diese kann dann auch als Grundlage für unterschiedliche Cloud-Angebote wie Storage, Infrastruktur oder Software as a Service genutzt werden. Die Content Cloud nutzt Data-Intelligence-Anwendungen, um das Indizieren, Suchen und Finden von Daten über verschiedene Plattformen hinweg zu ermöglichen. Durch die Eingliederung von BlueArc konnten wir unsere Expertise in den Bereichen File-basierte Virtualisierung, integriertes intelligentes Tiering und automatisierte Datenverwaltung weiter vertiefen und ein entscheidendes Bindeglied zwischen Infrastructure Cloud und Content Coud schaffen."

"Die Information Cloud nutzt Information Analytics, um die komplette Unabhängigkeit von Daten und Anwendungen zu gewährleisten und neue Möglichkeiten der Datenwiederverwendung zu schaffen. Teil des Information-Cloud-Angebotes ist die Hitachi Data Discovery Suite (HDDS). Sie bietet ausgereiften Suchfunktionalitäten für sehr große file- und inhaltsbasierten Datenmengen. Seit der Übernahme von ParaScale im August 2010 arbeiten wir zudem verstärkt an der Entwicklung einer neuen Technologie, über die Information-Analytics-Anwendungen und Prozesse mit der zugrundeliegenden Infrastruktur integriert werden können."

Ralf Colbus - IBM: "IBM hat, wie kein anderer Hersteller, Information Lifecycle Management, Virtualisierung und einheitliche Administrationsoberflächen für alle IBM Speichersysteme eingeführt. Ein Administrator kann ein Midrange System genauso verwalten wie ein Highend Disksystem. Dabei spielt es keine Rolle, ob er Blockspeicher, Network Attached Storage (NAS) oder virtualisierte Produkte einsetzt."

"Aber wie löst ein NAS-Administrator das Problem, dass ppt- oder xls-Dateien von 1987 noch immer auf dem Speichersystem liegen, obwohl diese nicht mehr benötigt werden? Wie kann das Backup oder die Wiederherstellung von Milliarden von Dateien bewerkstelligt werden? Die Systeme der IBM-Familie haben Information Lifecycle Management und Hierarchical Storage Management Funktionen eingebaut, die die Daten gemäß ihrer Wertigkeit verlagern. Die Wertigkeit kann vom Administrator definiert werden, es sollte aber generell in den Unternehmen für 2012 über eine definierte 'Deletion Policy' nachgedacht werden."

Thomas Kao - Infortrend: "Wir setzen bei unseren Speicher-Arrays auf automatisiertes Storage Tiering. In unsere Midrange-Speicherlösung ESVA können Anwender zudem SSDs effizient in das automatisierte Storage-Tiering integrieren. So kann die Speicher-Performance ohne zusätzliche Kosten um bis zu 150 Prozent gesteigert werden - im Vergleich zu einer Konfiguration ohne Storage-Tiering."

Herbert Bild - NetApp: "Objektorientierte Datenablage zur Archivierung riesiger Datenmengen aus den unterschiedlichsten Anwendungsgebieten, die zunehmende Zahl von Video-Inhalten oder wachsende High Performance-Entwicklungsumgebungen stellen IT-Infrastrukturen vor neue Herausforderungen. Zu den notwendigen Eigenschaften gehören ein kompakter, abgestimmter Stack aus Bandbreite, Rechenleistung und Speicherkapazität, Offenheit gegenüber Filesystemen, Grid-Architekturen und Software-Anwendungen sowie Cloud-Fähigkeit. NetApp geht diesen Weg mit der E-Series, deren drei Modelle für Big Data-Anforderungen wie Echtzeitanalysen, extrem schnellen Datenzugriff und sichere Skalierbarkeit optimiert sind. Zusätzlich können Storage-Effizienz-Technologien wie Deduplizierung, Komprimierung und Thin Provisioning helfen, das Datenwachstum einzudämmen."