Stadt in den Wolken

Edinburgh wandelt sich zur Smart City

22.06.2011 von Anne Klein
Für die Stadtverwaltung von Edinburgh ist Cloud Computing kein Fremdwort mehr. Sie setzt auf ein Virtual Data Center (VDC), um ihre Services zu flexibilisieren und die Kosten zu senken.
Foto: Jakub Jirsak, Fotolia.de

Einen besseren Service für die Bürger schaffen, die Effizienz im Back Office steigern und gleichzeitig die Kosten senken - was nach der Quadratur des Kreises klingt, waren die Anforderungen, die die Stadt Edinburgh mit dem Projekt "Smart City" erfüllen wollte.

Historisch bedingt waren die IT-Systeme in Edinburgh auf verschiedene Verwaltungsbereiche verteilt, was zu Inkonsistenzen beim System-Management in Bezug auf unterschiedliche Netztechniken und dezentrale Handhabung von Fehlerbehebung, Virenschutz, Datensicherung oder Authentifizierung führte.

Ferner monierten die Anwender eine geringe Benutzerfreundlichkeit, und es gab Probleme bei der Zugriffskontrolle. Erschwerend kam hinzu, wie Donald Crombie, Information Security-Manager für den Stadtrat von Edinburgh, erklärt: "Eine intelligente Stadt sollte eine nachhaltige Stadt sein. Unsere Server waren nicht nur schwer zu administrieren, auch die durch sie verursachte CO2-Belastung lag über den Best-Practice-Werten in der Industrie."

Skalierbare IT-Architektur

Gemeinsam mit BT, das Unternehmen ist seit 2001 als Netz- und IT-Dienstleister für die Stadt tätig, wurde eine nachhaltige und skalierbare IT-Architektur entworfen: In einer ersten Projektphase sollte für die gesamte Stadtverwaltung eine durchgängige Infrastruktur aufgebaut werden. In einer zweiten, dreijährigen Projektphase folgte das eigentliche Kernprojekt. Hier stand die Rationalisierung und Virtualisierung der Server mit einer Verlagerung der gesamten Systeme in die Cloud auf dem Programm.

Hierzu wurde ein "Virtual Data Center" (VDC) gebildet, das in der Private Cloud auf zwei BT-Rechenzentren verteilt ist. Auf dieseWeise stellte der Carrier der Stadt Edinburgh eine sichere Umgebung sowohl für ihre internen Server als auch für die öffentlich zugänglichen Server (im "DMZ"-Bereich) für mehrere Benutzergruppen bereit. Die ServerVerlagerung basiert auf der Virtualisierungssoftware VMware vSphere, Hewlett-Packard-Servern, Speichersystemen von Netapp und Netzequipment von Cisco. Ferner erfolgt eine separate Datensicherung auf Plattenspeichern.

Um den Projekterfolg zu kontrollieren, werden alle Rationalisierungs- und Virtualisierungsmaßnahmen des VDC-Projekts anhand einer von BT entwickelten Referenzsystem-Architektur gemessen. Hierbei werden die Applikationen in drei Kategorien aufgeteilt (Microsoft- und andere Standardsoftware-Services; spezielle branchenspezifische Applikationen; Server-bezogene Aktivitäten wie Web- und Filesharing). Zudem wird jede Änderung vor der Umsetzung einer Peer-Prüfung durch Systemarchitekten unterzogen. "Dieses Verfahren sorgt dafür, dass die Applikationen zur Governance-Strategie passen und die Leistungsvereinbarungen, also die SLAs, erfüllen", erläutert Crombie.

Reduzierung der Server

Insgesamt wurden 600 physische Server auf 160 virtuelle und 130 physische Server reduziert. Durch die Virtualisierung weiterer 170 Desktops können auch Mitarbeiter anderer Dienststellen sicher auf die Systeme der Stadt zugreifen, da vertrauliche Daten der Stadtverwaltung in den Rechenzentren bleiben. Die Systemsicherheit wird durch das zentrale Management etwa von Zugangsrechten und Firewalls laut IT-Manager Crombie verbessert. (hi)

7 Ratschläge für die IT der Zukunft
7 Ratschläge für die IT der Zukunft
Unternehmen müssen über die Zukunft der IT-Plattform nachdenken. Die Frage ist, ob die bestehenden Architekturen für das künftige Geschäft ausreichen.
1. Flexibiltät ist der Schlüssel
Die altbewährten Fünf-Jahres-Pläne für die IT sind schon lange nicht mehr sinnvoll. Die Notwendigkeit Plattformen regelmäßig zu verändern, wirkt sich unter anderem auf die Energieverteilung und die Kühlung von Rechenzentren aus. Der Wechsel von einer Plattform zur anderen hat direkte Auswirkungen auf das Geschäft.
2. Cloud Computing ist keine Mode-Erscheinung
Der Hype um Cloud Computing war etwas übertrieben. Dennoch darf nicht ignoriert werden, dass die Implementierung die Unternehmen in den kommenden Jahren stressen wird. Sie müssen bestimmen, wo Workloads am besten verwaltet werden und wie sie von vorhandenen Architekturen in private, öffentliche und Hybrid-Cloud-Umgebungen umziehen.
4. Die existierende Plattform verbessern
Wenige Unternehmen sind vollkommen unbelastet. Die IT und die dazugehörige Ausstattung bestehen bereits und es muss in ihre Optimierung investiert werden. Wichtig ist der Aufbau eines nicht-invasiven Modells auf etwas, was schon besteht.
5. Modellierung ermöglicht ein besseres Verständnis über PUE und CRC
Die Entscheidung der britischen Regierung für ein CRC-Gesetz (Carbon Reduction Commitment) hat dazu geführt, dass der Kohlenstoffausstoß kontrolliert werden muss. Unternehmen sollten sicherstellen, dass sie genau wissen, wie sich der Kohlenstoffausstoß bei jeglichen Veränderungen verhält.
6. Die passende IT für das Geschäftsrisikoprofil
Wichtig ist, dass Unternehmen sich ein vollständiges Bild über die IT zusammen mit den Abhängigkeiten zwischen IT und Rechenzentrums-Anlagen machen. Ist das gelungen, kann das Geschäft besser unterstützt werden.
7. Mit Kostenmodellen fundierte Entscheidungen treffen
Die Budgets stehen nicht nur bei der IT, sondern in allen Geschäftsbereichen unter starkem Druck. Aus diesem Grund müssen Unternehmen in der Lage sein, ihre Entscheidungen über eine Reihe von Variablen treffen zu können.