Desktop-Virtualisierung

Acht Tipps für virtuelle Clients

26.01.2012 von Andreas Kohne
Wer bei der Desktop-Virtualisierung nur an Windows-PCs denkt, hat verloren. Für erfolgreiche Projekte sind acht Herausforderungen zu meistern.
Virtualisierung bedarf Präzision.
Foto: pixeltrap - Fotolia.com

Wer in seiner Organisation die Desktop-Virtualisierung einführen möchte, steht vor weitreichenden technischen und organisatorischen Neuerungen. Die Praxis zeigt, dass ein solches Virtualisierungsprojekt nur bei einer guten Vorbereitung und einer präzisen Planung die erhofften Vorteile bringt. Der folgende Beitrag beschreibt die acht größten Herausforderungen.

Standard-Muss für Technik und Prozesse

Nicht immer ist für die Verantwortlichen ersichtlich, warum ein Virtualisierungsprojekt so viele Eingriffe in die bestehende IT-Infrastruktur und in die IT-Prozesse erfordert. Der Grund hierfür ist schnell ausgemacht: Es ist die für die Desktop-Virtualisierung notwendige Standardisierung von Technologien und Prozessen. Je nach Ist-Zustand der bestehenden Infrastruktur sowie der Prozesse fällt der Gesamtaufwand des Projekts aus.

Acht Tipps für virtuelle Clients
CIO der Dekade
Die begehrten Pokale gab es für insgesamt sechs Preisträger.
CIO der Dekade
Klaus Straub, CIO der Audi AG, ist CIO der Dekade. Neben dem Pokal nahm er von Moderatorin Katrin Müller-Hohenstein eine Flasche Rotwein aus dem Jahr 2001 entgegen.
CIO der Dekade
Und noch ein Preis für Klaus Straub: Die Gewinner der Kategorie "Wertbeitrag der IT" sind Audi-CIO Klaus Straub (links) und - nicht im Bild - Michael Gorriz, CIO der Daimler AG. Frank Riemensperger, Vorsitzender der Geschäftsleitung von Accenture, hielt die Laudatio für beide Preisträger in dieser Kategorie.
CIO der Dekade
Gewinner der Kategorie "Überzeugungsstärke im Unternehmen": Rainer Janßen, CIO der Munich Re zusammen mit Moderatorin Katrin Müller-Hohenstein auf der Bühne.
CIO der Dekade
Gewinner der Kategorie "Internationale Ausrichtung": Guus Dekkers (links), CIO bei EADS und Patrick Naef, CIO von Emirates.
CIO der Dekade
Gewinner in der Kategorie "Strahlkraft in die Gesellschaft": Lufthansa-CIO Thomas Endres (links) neben Johannes Pruchnow, Managing Director Business bei Telefónica.
CIO der Dekade
Alle anwesenden Preisträger.

Virtualisierung von Windows-PCs wirkt keine Wunder

Der häufigste Irrglaube besteht darin, dass durch die einfache Virtualisierung von bestehenden Windows-PCs bereits ein deutlicher Mehrwert erzielt wird. Zu unterschiedlich sind die Anforderungen an den einzelnen Arbeitsplätzen, als dass sich hier mit einer universellen Virtualisierungsebene Einspareffekte erzielen ließen.

IT-Nutzungsverhalten im Vorfeld analysieren

Foto: Materna GmbH

Zu Beginn steht daher die umfassende Analyse, wie die eigene IT-Landschaft genutzt wird. Zu untersuchen sind beispielsweise Anwendergruppen und ihre Anforderungen, die zu virtualisierenden Applikationen, die bestehenden Betriebssysteme und Endgeräte sowie die benötigten Bandbreiten, Netz- und Speicherkapazitäten. Daraus abgeleitet ergeben sich die Sicherheitsanforderungen, die benötigten Übertragungsprotokolle und Zugriffsmöglichkeiten sowie die Auswahl der einzusetzenden Techniken und Produkte wie Hypervisor. So ausgerüstet lassen sich Abläufe, Prozesse und Geräte sinnvoll standardisieren, virtualisieren und automatisieren.

Auch das organisatorische Umfeld ist zu betrachten, da gerade in großen Unternehmen verschiedene Ansprechpartner für unterschiedliche Komponenten verantwortlich sind. Für die Desktop-Virtualisierung sind Prozesse jedoch abteilungsübergreifend zu harmonisieren.

Herausforderung 1: Sanfte Migration oder harter Wechsel?

Die Gründe zur Virtualisierung von Desktops sind vielfältig. Häufig ist gleichzeitig die Migration auf ein neues Betriebssystem geplant oder es sollen veraltete Hardwarekomponenten ausgetauscht werden. Ein weiterer Treiber ist der Wunsch nach einer Harmonisierung der Applikationslandschaft, beispielsweise um Lizenzkosten zu sparen.

Erfahrungen im Parallelbetrieb sammeln

Eine geplante Windows-7-Migration kann die Virtualisierung beschleunigen. Hier hat sich ein Parallelbetrieb bewährt: der neue virtuelle Desktop mit Windows 7 steht schon bereit, dennoch kann der Anwender in einer Übergangsphase noch auf den alten PC mit bisherigem Betriebssystem zurückgreifen. Applikationen sind in diesem Szenario lokal oder teilweise auf einem Terminal-Server gehostet verfügbar. Zusätzlich erhalten die Anwender einen virtuellen Desktop, den sie auf ihrem vorhandenen PCs einsetzen können. Mit einem solchen Parallelbetrieb kann ein Benutzerkreis bereits Erfahrungen sammeln und testen, ob die bestehenden Anwendungen mit den gewählten Konfigurationen wie gewünscht in der virtualisierten Umgebung arbeiten.

Virtuellen Desktop genau spezifizieren

Aufwendiger wird der komplette Umstieg auf virtuelle Desktops. Hier sollte der Status der gesamten Infrastruktur bereits sehr detailliert bekannt sein, wie zum Beispiel die benutzten Anwendungen und in welchen Versionen und Abteilungen diese im Einsatz sind.

Bei Projektstart wird der virtuelle Desktop genau spezifiziert: von der Betriebssystem-Konfiguration über Einstellungen und Benutzerdaten bis zu den eingesetzten Softwareapplikationen sowie dem Benutzerstamm. Die Techniken zur Bereitstellung können je nach Anforderung kombiniert werden und umfassen die lokale Installation auf dem PC, die Applikationsbereitstellung über Terminal-Server, Terminal-gehostete Applikationen und virtuelle Desktops. Entscheidend für den Erfolg ist es, die gesamte Client-Infrastruktur zu standardisieren und ein Konzept zu finden, das die verschiedenen Bereitstellungsformen integriert. Letztlich bezeichnet die Desktop-Virtualisierung nur eine weitere Möglichkeit, dem Anwender eine Arbeitsplatzumgebung bereitzustellen. Die gewohnten Herausforderungen in der Client-Administration bleiben erhalten.

Herausforderung 2: Client-Verwaltung nicht direkt übertragen

Die Client-Verwaltung umfasst auch weiterhin Aufgaben wie beispielsweise Benutzer- und Rechteverwaltung, Softwareverteilung, Patch-Management und Client-Security, wird jedoch um eine zusätzliche Administrationsschicht erweitert. Um daher tatsächlich einen Mehrwert zu erzielen, ist das Grundkonzept der IT-Bereitstellung zu ändern: eine direkte Nachbildung der Client-Infrastruktur ist nicht zielführend.

Self-Service-Portal für Softwarekomponenten

Betreibt ein Unternehmen beispielsweise verschiedene IT-Abteilungen mit jeweils individuellen Verzeichnisdiensten und E-Mail-Servern, sind zunächst die Infrastrukturdienste zu zentralisieren. Durch eine Analyse wird anschließend festgestellt, welche Applikationen in welchen Fachabteilungen tatsächlich im Einsatz sind, um so einen Standard für die Bereitstellung von Software abzuleiten. In einer späteren Phase lassen sich die Softwarekomponenten effizient über ein Self-Service-Portal bereitstellen. Hier können sich Anwender zusätzlich zu den Standardanwendungen weitere Werkzeuge herunterladen, deren Konfigurationen die IT überwacht. All diese Überlegungen werden weit vor der Entscheidung für eine Virtualisierungstechnik getroffen.

Client-Tools zur Systemüberwachung
Daphne: Die Freeware zeigt aktive Prozesse in einer Liste an.
GWHI 16 DeviceManager Pro: Das Tool liest Systeminformationen aus und kann sie in einer Excel-Datei speichern.
Fresh Diagnose: Ermittelt, welche Hard- und Software im Rechner arbeitet.
JDiskReport: Liefert die Größe aller auf einem Laufwerk gespeicherten Dateien.
Windows System Control Center: Die Admin-Suite.
Advances Task Manager: Verbesserter Task- und Process-Viewer.
Anvir Task Manager Free: Das Gratis-Tool informiert über verschiedene Systemzustände.
Atto Disk Benchmark: Testet Festplatten oder ausgewählte Partitionen auf Schnelligkeit und Fehler.
Core Temp: Ermittelt die Temperatur von AMD- oder Intel-CPUs.
CPU-Z: Das Prüfprogramm liefert detaillierte Infos über die Hardware-Komponenten im Rechner.
System Explorer: Task-Manager-Ersatz für versierte Nutzer.
VM Map: untersuchen Sie den physikalischen und virtuellen Speicherbedarf.
Windows System Control Center: Die Admin-Suite.
HD Tune: Ermittelt Transferrate und Zugriffszeit von Festplatten.
Moo0 Systemmonitor: Zeigt die Auslastung von Systemressourcen an.
Process Explorer: Zeigt sämtliche Tasks in einer anschaulichen Baumstruktur an.
Procx: Ein Viewer für Programme und Dienste.
Re-Sysinfo: Kompakter Hard- und Software-Lister.
Sandra Lite: Die Test-Suite zeigt detaillierte Hardware-Informationen und überprüft den Computer oder einzelne Komponenten auf ihre Leistungsfähigkeit.
SIW: System Information for Windows.
Superbarmonitor Pack: Zeigt die wichtigsten Komponenten-Infos zum PC in der Taskleiste an.
Sysmetrix: Zeigt CPU-Auslastung, Festplattenbelegung und Netzwerkdurchsatz auf einer Infoleiste an.
Windows System Control Center: Die Admin-Suite.

Herausforderung 3: Benutzergruppen und Anwendungen festlegen

Einer der wesentlichen Unterschiede zwischen der Desktop- und der Server-Virtualisierung liegt in der Betrachtung von Benutzergruppen. Während sich der Ressourcenverbrauch von Servern durch Monitoring-Werkzeuge gut einschätzen lässt, ist dies beim Endanwender deutlich komplexer zu messen. Es ist jedoch möglich, Benutzer mit vergleichbarem Verhalten zu identifizieren. Diese erhalten dann die für sie jeweils passenden standardisierten Arbeitsumgebungen.

Kompatibilität von Softwareanwendungen prüfen

Im nächsten Schritt werden die Anwendungen definiert und in standardisierten Versionen bereitgestellt. Hier ergeben sich eine Reihe von weiteren Detailfragen: Sollen Applikationen wie bisher nutzbar sein oder ist der Zugriff beispielsweise über einen Termin-Server möglich? Lassen sich durch einen Concurrent-User-Zugriff die Lizenzkosten senken? Im klassischen Fall werden Anwendungen in Softwarepaketen auf die virtuellen Maschinen oder auf die Benutzer-PCs verteilt. Eventuell müssen auch selbst programmierte Applikationen paketiert und in die virtuelle Welt übertragen werden. In jedem Fall ist bei der Desktop-Virtualisierung die Kompatibilität von Softwareanwendungen vorher gründlich zu prüfen.

Lösungswege im Vorfeld austesten

Welche Lösungswege geeignet und in der eigenen Infrastruktur funktionsfähig sind, zeigen nur umfangreiche Tests der verschiedenen Varianten. Die Virtualisierung bietet verschiedenste Umsetzungsmöglichkeiten: rein virtuelle Maschinen, Terminal-Server, Terminal-Desktops, physikalische Maschinen mit entsprechendem Zugriffs-Client und Basis-Images für die gleichzeitige Bereitstellung an mehrere Benutzer. Unternehmen müssen anhand der bereits genannten Voraussetzungen und Anforderungen individuell analysieren, welche Lösung für welche Bereiche geeignet ist.

Herausforderung 4: Mit welchen Endgeräten arbeiten die Anwender?

Kaum ein Unternehmen wird im Rahmen eines Virtualisierungsprojekts sämtliche vorhandenen Arbeitsplatz-PCs durch einheitliche Thin Clients ersetzen wollen. Wirtschaftlicher ist ein Migrationspfad, bei dem neue Thin Clients die alte Hardware ablösen. Alternativ können virtuelle Desktops parallel zum vorhandenen Rechner zum Einsatz kommen oder es wird ein vorhandener PC als Thin-Client-Ersatz genutzt.

Standardisierte Hardware erleichtert Administration

Ohne Hardware-Standardisierung führt die Integration verschiedener Endgeräte zu einem erhöhten Administrationsaufwand.
Foto: Materna

Sollen sich die Anwender auch von unterwegs mit dem Notebook, Smartphone oder Tablet-PC einwählen können, kommen weitere Anforderungen an die Sicherheit, die Infrastruktur sowie das Management der mobilen Geräte hinzu. Je mehr iPhones, iPads, Notebooks, etc. in die Infrastruktur einzubinden sind, desto aufwendiger wird die Administration der Gesamtlandschaft. Daher führt auch bei den Hardwarekomponenten kein Weg an einer Standardisierung von Geräten, Konfigurationen, Zugriffsmöglichkeiten, Authentifizierung und Verschlüsselung vorbei.

Millionen neue Geräte drängen in den Markt
Millionen neue Geräte drängen in den Markt.
Experten gehen davon aus, dass die Flut neuer Devices, die in den kommenden Jahren auf die Unternehmen zurollt, noch deutlich anschwellen wird.
Trend 1:
Die Marktforscher von Gartner prognostizieren, dass 2011 weltweit knapp 468 Millionen Smartphones verkauft werden, fast 58 Prozent mehr als im vorangegangenen Jahr. Bis 2015 soll der globale Absatz von Smartphones auf über 1,1 Milliarden Geräte anwachsen.
Trend 2:
Mehr als die Hälfte aller in diesem Jahr weltweit verkauften Computing-Devices werden keine PCs oder Notebooks sein, sondern Smartphones, Tablets und Netbooks, prognostiziert Deloitte. Rund ein Viertel aller Tablet-Verkäufe gehe auf das Konto von Unternehmen.
Trend 3:
Gartner zufolge werden 2011 weltweit rund 69 Millionen Tablets verkauft. Die Anwender werden dafür rund 30 Milliarden Dollar investieren. Die Prognosen anderer Marktforscher gehen noch weiter. Manche rechnen mit einem Tablet-Absatz von weit über 80 Millionen Stück.
Trend 4:
In Deutschland sollen IDC zufolge im laufenden Jahr 2,9 Millionen Tablets verkauft werden (Vorjahr: 790.000). Rund 30.000 Tablet-PCs seien Ende 2010 im Firmeneinsatz gewesen.
Trend 5:
Forrester Research taxiert den weltweiten Umsatz mit Apps für Smartphones und Tablets aus dem vergangenen Jahr auf 1,7 Milliarden Dollar. Bis 2015 soll dieser Markt um 82 Prozent jährlich zulegen.

Herausforderung 5: Je mehr Sicherheit desto komplexer

Erfolgt der Zugriff auf die virtuellen Desktops nur über das LAN, greifen die gängigen Sicherheitsmechanismen wie Firewall und Content-Filter. Sobald die Infrastruktur nach außen sichtbar wird, benötigt die IT weitere Sicherheitsstufen, wie beispielsweise Token, Fingerabdruck-Scanner und Smartcard zur Identifizierung. Wichtig ist zu klären, ob auch die Endgeräte diese Verfahren unterstützen und sich diese Mechanismen in die Infrastruktur integrieren lassen. Auch hier gilt: Je mehr Sicherheit geschaltet wird, desto komplexer wird das Management der Infrastruktur.

Problemfall Virenscanner

Virenscanner sind in virtuellen Infrastrukturen ein heikles Thema. Sie produzieren eine hohe zusätzliche Last und können damit die Performance negativ beeinflussen. Werden die virtuellen Clients in einem gesicherten Rechenzentrum betrieben, kann unter Umständen auf einen Virenscanner verzichtet werden. In diesem Fall muss jedoch das Rechenzentrum entsprechend gesichert sein, so dass im Ernstfall die virtuellen Maschinen über ein sauberes Basis-Image neu aufgesetzt werden können.

10 Tipps für Ihre Sicherheit
10 Tipps für Ihre Sicherheit
Das Thema Sicherheit wird in Firmen oft noch bagatellisiert. Lesen Sie hier, wie Sie das Risiko einfach senken können.
Tipp 1: Führen Sie eine Risikoanalyse durch
Es gibt zwar keine absolute Sicherheit, aber Planung ersetzt den Zufall und den Unfall durch Irrtum. Durch eine Risikoanalyse erlangen Sie selbst zumindest etwas Klarheit über mögliche Gefahren, und gehen nicht blind und ungeschützt Risiken ein. Wertvolle Hinweise auf was Sie dabei achten müssen, erhalten Sie zum Beispiel über http://www.nifis.de (NIFIS-Siegel) oder über das Bundesamt für Informationssicherheit (BSI). Auch ein Blick in das Bundesdatenschutzgesetz (BDSG), speziell §9 und dessen Anlage helfen weiter.
Tipp 2: Informationssicherheit beginnt von oben
Vorgesetzte müssen in punkto Informationssicherheit voranschreiten und eine Vorbildfunktion erfüllen. Allerdings dürfen die Mitarbeiter nicht überrannt und mit Vorschriften "drangsaliert" werden. Vielmehr müssen ihnen Sicherheitsgefahren und -probleme immer wieder angemessen bewusst gemacht werden. Die Maßnahmen sollten dabei benutzerfreundlich und fehlertolerant sein. Mitarbeiter dürfen dies nicht als bloße Schikane empfinden.
Tipp 3: Passwörter und Benutzernamen einrichten
Diese Forderung nach dem Einrichten von Passwörtern und Benutzernamen für den Rechnerzugang ergibt sich schon alleine aus dem Bundesdatenschutzgesetz (Nummer 5 der Anlage zum §9 BDSG) und den Regeln der ordnungsgemäßen Buchführung. Je größer die Mindestlänge ist, desto sicherer ist das Passwort. Beachten Sie aber, dass zu viele Stellen oder die Forderung nach sehr kryptischen Passwörtern eher kontraproduktiv ist, wenn aus technischer Sicht auch wünschenswert.
Tipp 4: Virenscanner und Firewall sind ein Muss
Ohne Virenscanner und mindestens eine Firewall zwischen Internet und Intranet darf heute kein IT-System mehr betrieben werden. Denken Sie auch daran, dass diese Systeme auf jedem Rechner aktuell vorgehalten werden und regelmäßig kontrolliert werden müssen. Darüber hinaus sollten Unternehmen nicht von der irrigen Annahme ausgehen, dass der alleinige Einsatz dieser Systeme ihre Datenverarbeitung und geschäftskritischen Anwendungen sicher macht. Diese Maßnahmen heben die Angriffshürde zwar an, verhindern aber eben nicht alle Arten von Attacken.
Tipp 5: Daten regelmäßig sichern
Informationssicherheit ist nicht nur der Schutz vor Angriffen, sondern auch das Sicherstellen der Betriebsfähigkeit des Unternehmens. Datenverluste können zum Beispiel auch durch Hardwareschäden auftreten oder durch Unachtsamkeit. Sorgen Sie daher für kontinuierliche Datensicherungen, deren Funktionsfähigkeit ebenso regelmäßig überprüft werden muss, zum Beispiel durch Restore-Versuche. Firmen sollten ferner der Versuchung widerstehen, die Datensicherungen im Serverraum zu lagern.
Tipp 6: Erstellen Sie einen Notfallplan
In einem Notfallplan sollten Firmen klar regeln, welche Maßnahmen in welchem Schadens-, Fehler- oder Angriffsfall von wem unternommen werden. In diesem Notfallplan sollten ferner alle wichtigen Telefonnummern stehen, zum Beispiel die des IT-Dienstleisters oder Hardwarelieferanten. Nur wenn vorher definiert ist, wer was wann macht und machen darf, ist eine schnelle und verlustarme Reaktion auf Vorfälle möglich.
Tipp 7: Private E-Mail- und Web-Nutzung regeln
Unternehmen sollten für die private E-Mail- und Web-Nutzung ihrer Mitarbeiter auf Basis der Firmeninfrastruktur gemeinsam mit dem Betriebsrat eine entsprechende Betriebsvereinbarung erstellen. Der Ausschluss der privaten Nutzung ermöglicht weitgehende Filtermöglichkeiten, um Angriffswege über E-Mail oder infizierte Web-Seiten zu verhindern.
Tipp 8: Mobile Datenträger absichern
Mobile Datenträger wie Laptops, USB-Sticks oder auch Smartphones sind notwendige Arbeitswerkzeuge, die in der IT-Security-Strategie des Unternehmens unbedingt Berücksichtigung finden müssen. Ein Verbot wäre wenig sinnvoll. Unternehmen sollten diese Geräte aber vor Verlust unter dem Aspekt der mobile Security sichern. Dies geschieht am einfachsten durch Verschlüsselung der Datenspeicher, soweit möglich.
Tipp 9: Server und Netzwerk schützen
Die physikalische Infrastruktur ihres Unternehmens, das heißt, Server, Netzwerk, etc., sollte der Wichtigkeit entsprechend gesichert sein. Ein Server in der Besenkammer lädt zum Missbrauch ein. Auch ist eine sichere Betriebsumgebung schon alleine aus technischen Gründen notwendig. Firmen sollten auch überdenken, welche Personenkreise Zugang zu diesen Räumen haben sollen. Der "normale" Mitarbeiter benötigt keinen physikalischen Zugriff auf die Server, externe Wartungstechniker sollten überwacht werden.
Tipp 10: Zugriffsregel erleichtern Adminstration
Das Erstellen von Zugriffsregeln für Firmendaten auf den Servern fordert schon Punkt 3 der Anlage zum § 9 BDSG. Es ist aber auch nicht einzusehen, wieso jeder Mitarbeiter Zugriff auf alle Daten haben soll. Unternehmen sollten deshalb klare Sicherheitskonzepte mit Gruppenregeln definieren, welche die Administration vereinfachen.

Herausforderung 6: Speicherplatz bemessen

In den Anfängen der Desktop-Virtualisierung wurden Eins-zu-eins-Kopien der physischen Maschinen als virtuelle Abbilder im Plattenspeicher vorgehalten. Das verbrauchte zu viele Ressourcen und war damit zu teuer. Das Kapazitätsproblem hat sich mittlerweile entschärft. Die Hersteller haben ihre Produkte um Technologien ergänzt, die es ermöglichen, von einem Basis-Image mehrere virtuelle Desktops zur Verfügung zu stellen.

So reicht es beispielsweise aus, für jede Benutzergruppe nur noch ein Basis-Image zu erstellen und zu pflegen. Von diesem Image werden im laufenden Betrieb individuelle Instanzen für die jeweiligen Benutzer erstellt und nur noch die Deltas zum Basis-Image gespeichert.

Hier ist genau zu analysieren, welche Benutzer mit welchen Applikationen und auf welchem Betriebssystem arbeiten und welche Auswirkungen dies auf die Plattenkapazität hat, um den Speicher entsprechend zu bemessen.

Herausforderung 7: Bandbreite für schnelle Übertragungsprotokolle

Bei der Bereitstellung virtueller Windows-PCs sind Citrix mit dem ICA-Protokoll und HDX sowie VMware mit RDP beziehungsweise dem PC-over-IP-Protokoll weit verbreitet. Inzwischen unterstützen diese Protokolle auch datendurchsatzstarke Anwendungen für Multimedia-, 3D- und CAD-Anwendungen. Auch das Drucken wurde optimiert.

Bandbreite vom Rechenzentrum zur virtuellen Maschine

Die Protokollauswahl richtet sich nach den Anforderungen der Benutzergruppen und den bereitzustellenden Anwendungen. Die Abschätzung der Bandbreiten orientiert sich vor allem an den Benutzergruppen. Die Übertragungskapazität wird durchgängig bis ins Rechenzentrum auf die virtuelle Maschine benötigt. Was im LAN meist kein Problem darstellt, kann bei der Bereitstellung über das WAN bedeuten, dass eine leistungsfähigere Internet-Anbindung vorhanden sein muss. Es kommt auch hier auf die Standardisierung der Benutzergruppen an, um die benötigte Bandbreite in Abhängigkeit vom Benutzerverhalten abzuschätzen.

Herausforderung 8: Strukturen und Prozesse automatisieren

Die Desktop-Virtualisierung erfordert die schrittweise Integration der Prozesse aller Fachabteilungen.
Foto: Materna

Ob Storage, Server, Netz, Applikationen, Systeme oder Support, die Desktop-Virtualisierung betrifft alle Bereiche der IT. Prozesse aus unterschiedlichen Abteilungen sind zu integrieren und Anforderungen von Mitarbeitern aus verschiedenen Fachabteilungen wollen berücksichtigt werden. Jedoch sollte ein solches Projekt nicht in einem Wunschkonzert der Anwender enden.

Es ist ein erprobter Lösungsweg, zunächst nur zentrale Komponenten zu standardisieren und anschließend die entworfenen Prozesse zu automatisieren. Aus den definierten Standards entstehen schließlich IT-Dienste, die über einen Servicekatalog im Intranet-Portal angeboten werden. Diese Leistungen können Kunden oder Mitarbeiter direkt aktivieren und erhalten so neue IT-Ressourcen auf Mausklick. (pg)

Virtualisierung schützt vor Angriff nicht
Hier ist große Aufmerksamkeit vom Anwender gefordert
Durch die nahtlose Integration der Anwendungen, die im sogenannten XP-Modus laufen, wird er nun mit den Warnmeldungen von zwei Betriebssystemen konfrontiert.
Aber das ist doch eigentlich Windows 7?
Ist sich der Nutzer nicht bewusst, dass ein zweites Betriebssystem (in diesem Fall Windows XP) ebenfalls auf seinem physikalischen Rechner aktiv ist, so wird er auch die Warnung des „alten“ Sicherheitscenters ignorieren.
Die Integrationsfeatures
Sie werden von fast allen Virtualisierungslösungen auf dem Desktop angeboten und können Programmen in der VM plötzlich den Zugriff auf Verzeichnisse des Hostsystems gewähren.
Sehr enge Integration
In der virtuellen Maschine installierte Anwendungen erscheinen im normalen Startmenü. Doch was geschieht mit den Daten, die mit diesen Programmen bearbeitet werden? Wenn sie in den VMs abgespeichert werden, entziehen sie sich der Kontrolle.
Die richtig großen Virtualisierungslösungen, wie die hier gezeigte ESX-Installation, sind nicht für den Einsatz auf dem Desktop bestimmt
Aber virtuelle Maschinen werden immer häufiger nicht nur in solchen großen Installationen, sondern auch auf „normalen PCs“ betrieben.
Ganz wichtig für Administratoren, aber auch für Anwender, die Virtualisierung einsetzen
Alle virtuellen Betriebssysteme sollten stets auf dem neuesten Stand sein.
Leider eine Tatsache
IT-Profis können nicht davon ausgehen, dass sie über alle Betriebssystem-Installationen in ihrem Netzwerk informiert sind. Wie in diesem Fall, kann Windows XP selbst auf einem alten G3-Macintosh-System als virtuelle Maschine betrieben werden.
„Shared Folders“ in VMware Workstation
Sie erlauben den Zugriff auf die Festplatten des Hostsystems durch die VM. Das könnte ein Sicherheitsrisiko darstellen, weshalb die hier gewählte Einstellung besser ist.
Erhöhte „Gast Isolation“ (hier auf der VMware Workstation)
Sie sorgt dafür, dass Anwender weder versehentlich noch absichtlich über „Copy & Paste“ unerwünscht Daten zwischen den Systemen austauschen können.
Wichtiger Grundsatz
Virtuelle Maschinen sollten ebenfalls mit einem Virenschutz ausgestattet sein. Im besten Fall ist dieser in die AV-Lösung des Unternehmens integriert. Zumindest sollten VMs aber durch eine freie Sicherheitssoftware geschützt sein.
Wer auf Sicherheit achtet, schaut hier genau hin
Das stellt beispielsweise sicher, dass keine Laufwerke in eine Terminal-Sitzung auf einen virtuellen Server gemappt werden.
Kann zur Schwachstelle werden
Snapshots sind praktisch – aber ohne passende Namen oder Notizen wird niemand feststellen können, ob diese „Zwischenkopie der VM“ problemlos im Netzwerk gestartet werden darf.
Die Virtualisierungslösung Parallels
Sie erlaubt es, auf Apple-OS-X-Systemen die Integration der virtuellen Maschine gezielt zu unterbinden.
Wichtiger Sicherheitstipp bei der Virtualisierung auf dem Apple-System
Im Zweifelsfall sollten die Laufwerke des Macs nicht der VM zugeordnet werden.

Teaserbild: P. Hermans, Fotolia.de