Capex versus Opex

Cloud Computing - was wirklich zählt

19.07.2012 von Joachim Hackmann
Die Migration von IT in die Cloud ersetzt Kapitalkosten (Capex) durch Betriebskosten (Opex). Aber macht das den IT-Betrieb günstiger?
Foto: Fotolia, Gina Sanders

Die Debatte um die wirtschaftlichen Vorteile des Cloud Computings wird intensiv geführt und spitzt sich häufig auf den Capex-Opex-Vergleich zu. Doch dieser Konflikt ist lediglich ein Vorwand dafür, den eigentlichen Widerspruch in der Unternehmens-IT zu verdecken, kritisiert IT-Berater Bernard Golden, CEO der auf Virtualisierungslösungen spezialisierten Consulting-Firma HyperStratus, in der US-amerikanischen CW-Schwesterpublikation "cio.com". Seinen Beitrag zum Thema haben wir hier für Sie dokumentiert:

"Hinter dem Capex- und Opex-Vergleich steht die strategische und nur schwer zu beantwortende Frage nach der Zukunft der IT: Wollen Unternehmen Betreiber und Eigentümer einer IT samt der dafür erforderlichen Anlagen und Installationen sein? Oder wollen Sie IT auf Anlagen und Installationen betreiben, die externen Providern gehören?

Immer noch versprechen Anlagen im Wert von mehreren hundert Millionen Dollar und viele für den Betrieb und die Weiterentwicklung erforderliche Mitarbeiter dem IT-Verantwortlichen Prestige. Sie verleihen ihm jedenfalls mehr Bedeutung, als die Betreuung eines externen Providers, der mit einer mächtigen Installation samt Expertenmannschaft die IT für das Unternehmen betreibt. In einer ernsthaft betriebenen Cloud-Umgebung wäre es sogar konsequent, wenn man die Infrastruktur- und Betriebs-Teams komplett auflösen und die Steuerung sowie Kontrolle des externen IT-Lieferanten der Anwendungsbetreuung übergeben würde. Die IT-Betriebsmannschaft bliebe mit einem sich nach und nach reduzierenden Verantwortungsbereich und einer schwindenden Installationsbasis auf der Strecke.

Kennzahlen
7 Fehler im Kennzahlen-Management
Kennzahlensysteme sind ein probates Mittel zur Kosten-Nutzen-Analyse in der IT. Leider machen Unternehmen bei der Anwendung gravierende Fehler.
1. Out of the Box ist trügerisch
Kennzahlen "Out of the Box" sind zweifellos verlockend, und sie kommen überraschend häufig vor. Das starre Korsett mit standardisierten Messpunkten kann jedoch zu einer unreflektierten Sichtweise und Einschätzung führen. Kosten und Leistungen müssen auf Grundlage der bestehenden Struktur gemessen werden.
2. Irreführende Schätzungen
Der Top-down-Ansatz wird scheitern, wenn das Unternehmen die hierfür vorgesehenen Kennzahlen nicht vernünftig bilden kann. Sind die Basisdaten in der geforderten Form nicht vorhanden, müssen sie entweder geschätzt oder über eine mühsame Implementierung beschafft werden. Das Ergebnis ist entweder ungenau oder aufwendig zu bilden, so dass der Nutzen auf der Strecke bleibt.
3. Unscharfe Kennzahlen
Häufig kalkulieren Unternehmen mit fragwürdigen Werten, weil sie die benötigten Werte nicht messen können. So lässt sich die Zahl der Hardwaretypen im Windows-Umfeld nur schwer bestimmen, wenn die Geräte in unterschiedlichen Abteilungen eingesetzt werden und kein umfassendes Asset-Management existiert. Der Einfachheit halber wird dann die Kennzahl der unterschiedlichen Windows-Versionen herangezogen, weil diese durch die Softwarelizenzierung bekannt ist. Jedoch ist diese Zahl ein schwächerer Komplexitätstreiber als die Hardwaretypen, weshalb das Abbild der Organisation unscharf wird.
4. Top-Level-Informationen ohne Basis
Wenn das Projekt vom Vorstand angestoßen wurde, müssen die angeforderten Zahlen geliefert werden. Durch die Verwendung grober Schätzwerte sind Drilldowns zu den tatsächlichen operativen Kennzahlen kaum möglich: Die Ursache-Wirkungs-Kette ist nicht belastbar. Schaltet eine Top-Level-Kennzahl auf Rot, erwartet das Management, dass der Grund hierfür bekannt ist oder zumindest schnell gefunden wird. Deshalb sind die richtigen Basisinformationen viel wichtiger für die Steuerung der Organisation als die Top-Level-Informationen. Ohne die passende Grundlage hängen die Top-Level-Kennzahlen in der Luft.
5. Verwirrende Komplexität
Kennzahlen berechnen sich nicht automatisch aus komplizierten Formeln. So ist beispielsweise die Zahl der Windows-Server eine reguläre Leistungskennzahl, die zudem für das Asset-Management benötigt wird. Auch bei umfassenden Kennzahlensystemen ist Komplexität kein Grundpfeiler des Erfolgs. Unternehmen müssen die richtige Balance finden zwischen einer realistisch machbaren Vorgehensweise und dem, was einen Leistungs-, Kosten-, Komplexitäts- oder Risikotreiber genau repräsentiert.
6. Fehlerhafte Umsetzung
Vor der Entwicklung eines Kennzahlensystems steht die Definition, welche Aspekte der IT konkret gesteuert werden sollen. Jeder IT-Verantwortliche hat seine eigene Philosophie und setzt andere Prioritäten: Einer bevorzugt Prozesse und ITIL, ein anderer plädiert für Services und Servicekataloge, der Dritte schließlich bleibt bei klassischen Funktionen wie der Anwendungsentwicklung und der Infrastruktur. Entsprechend müssen die Kennzahlen angeordnet werden.
7. Falsche Schlüsse
"Normale" Kennzahlen haben einen kleinen Haken: Sie zeigen zumeist nur an, ob die Arbeit richtig gemacht wird - und nicht, ob die richtige Arbeit gemacht wird. So weist etwa Organisation A ein sehr gutes Kostenniveau bei ihren Unix-Servern auf, während Organisation B nur eine unterdurchschnittliche Performance bei ihren Mainframes zeigt. Vergleicht man hingegen die Kosten für den einzelnen Bausparvertrag oder für das einzelne Depot bei beiden Organisationen, kann das Preis-Leistungs-Verhältnis schon ganz anders aussehen. Aus der Perspektive des Topmanagements stellt sich vielleicht die Leistung des relativ schlechten Mainframe-Bereichs besser dar als die Leistung der relativ guten Unix-Abteilung. An den geschäftlichen Stückkosten zeigt sich der Unterschied von Effektivität und Effizienz.

So sähe eine konsequente Umsetzung aus. Dass es dazu selten kommt, nährt den Verdacht, dass die Debatte rund um die Kosten eigentlich von emotionalen Motiven ablenken möchte, der Capex-Opex-Vergleich wird als Kriegsschauplatz vorgeschoben. Wie auch immer, ein Großteil der Diskussion scheitert daran, die Implikationen der zwei grundverschiedenen Modelle zu ergründen, und die Debatten sparen auch aus, wie die Zukunft von IT-Applikationen in den zwei unterschiedlichen Betriebsmodelle aussieht.

Nur die Applikationen zählen

Die alles entscheidende Aufgabe lautet: Wie findet man die richtige Methode, die gewährleistet, dass den Fachabteilungen die bestmöglichen Applikationen zur Verfügung stehen? Letzten Endes zählen nur die Anwendungen, nur mit ihnen kann IT wirklich Mehrwerte für das Unternehmen schaffen.

Doch die Capex-Opex-Debatte konzentriert sich derzeit auf die Wirtschaftlichkeit der beiden Modelle, daher zunächst einige Gedanken dazu:

Ein Vorteil des Opex-Modell ist der Verzicht auf langfristige Bindung. Beendet ein Nutzer die Arbeit mit den Cloud-Ressourcen, stehen sie dem Provider wieder zur erneuten Vermietung bereit. Es liegt in der Verantwortung des externen Betreibers, für eine wirtschaftliche Auslastung der Anlagen zu sorgen.

Die fehlende Verpflichtung hat den finanziellen Vorteil, dass sie die Anwenderunternehmen von erheblichen, langfristigen Investitionen entbindet. Richtig ist aber auch, dass die Nutzer für eine genutzte Ressource bezogen auf eine Maßeinheit (etwa je Gigabyte Speicher oder je CPU-Minute) in dem Mietmodell mehr zahlen, als im Eigenbetrieb. Ein Blick auf andere Branchen zeigt, dass das ein übliches Vorgehen ist. Besonders anschaulich ist das Beispiel einer Autovermietung: Der Mieter geht nur eine zeitweilige Geschäftsverbindung mit dem Vermieter ein. Während dieser Zeit übersteigt der Stunden- oder Tagespreis den entsprechenden Vergleichswert eines Autobesitzers. Solange der Automieter das Fahrzeug nur kurzzeitig benötigt, fährt er günstiger, weil er sich den teuren Kauf und Unterhalt spart.

Handlungsbedarf 2012
Zehn IT-Bereiche mit Handlungsbedarf
Client-Strategie, Virtualisierung, Cloud oder Business Intelligence - viele IT-Leiter sind in diesen Bereichen nicht auf der Höhe der Zeit. Experton-Analyst Luis Praxmarer hat 10 Technologiebereiche identifiziert, für die im Jahr 2012 unbedingt Handlungsbedarf besteht.
1. Traditionelle Clients
Für WINTEL Client-Installationen steht im Jahr 2012 eigentlich die Migration nach Windows 7 an. Für ein Hinausschieben und Verzögern dieser Migration spricht nicht viel. Die Auswahl der richtigen Lizenzierungs- und Wartungsstrategie ist sehr wichtig. Dieser Bereich ist zwar nicht von strategischer Bedeutung, hat aber starke Auswirkungen auf die Client- und Supportkosten. Windows 8 kommt in Einzelfällen bereits zum Einsatz; eine Bereinigung der Betriebssystemlandschaft ist sehr zu empfehlen.
2. Neue Client-Strategie
Parallel zur Migration und Bereinigung der Windows-Umgebung verzeichnen Smartphones und Tablets einen stark steigenden Nutzungsgrad. Deshalb stehen eine Evaluierung einer BYOD- (Bring Your Own Device) Strategie und Tests für eine ausgewählte Gruppe an. Wegen der schnellen Veränderungen im Markt, der vielen Betriebssysteme und der hohen Komplexität sollten nicht gar zu viele gerätespezifische Apps entwickelt werden.
3. Virtualisierung
Nachdem die meisten Unternehmen die Servervirtualisierung in Angriff genommen haben - auch wenn die Durchdringungsrate in vielen Fällen bei nicht einmal 30 Prozent liegt - stehen nun Client- und Storage-Virtualisierung an. Die Client-Virtualisierung soll die Kontrolle über und das Management von BYOD-Umgebungen ermöglichen und gleichzeitig auch in Zukunft die Sicherheit der Unternehmens-Apps gewährleisten. Mit der Applikationsvirtualisierung wurde bislang nur in wenigen Unternehmen begonnen.
4. Cloud Computing
Cloud Computing wird in allen IT-Bereichen vorangetrieben, von IaaS oder Storage as a Service im Unternehmensumfeld bis hin zu eher privaten Nutzungsszenarien und SaaS-Applikationen. Die IT-Abteilung muss Technologien für den gesamten Stack einer Untersuchung unterziehen, die bestehende Architektur sowie die Unternehmensanforderungen auf den Prüfstand stellen und eine entsprechend angepasste Strategie entwickeln. Anhand von Pilotprojekten können erste Erfahrungen gewonnen werden.
5. Enterprise 2.0
Web 2.0 hält in den Unternehmen Einzug und wird bereits von einigen genutzt; viele sind damit aber eher überfordert. Anstatt auf statischen Webseiten eine Fülle an Informationen anzubieten, hat sich das Spiel jetzt drastisch verändert. Die meisten Unternehmen haben Schwierigkeiten damit, die damit verbundenen Möglichkeiten zu verstehen und sie in ihre IT-Systeme mit einzubeziehen oder gar eine Integration ins Auge zu fassen.
6. BI/EPM/BPM, Big Data
Dieses Thema spielt aus einer anderen Perspektive auch bei den CIO-Prioritäten eine Rolle, muss aber auch aus technologischer Sicht analysiert werden. In den meisten Unternehmen finden sich isolierte BI-Lösungen, hinter denen keine klare Stammdatendefinition steht; damit ist es schwierig, den nächsten Schritt zu tun und diese Insellösungen in eine unternehmensweite Enterprise Performance Lösung zu integrieren. Im Bereich Big Data bzw. große Datenvolumen müssen eine ganze Reihe von technologischen Herausforderungen untersucht werden.
7. Identitätsmanagement
Das Thema Identitätsmanagement steht schon seit einer ganzen Weile auf den Prioritätenlisten ganz weit oben; jetzt gewinnt es auch im Zuge der Cloud-Implementierung eine fundamentale Bedeutung. Hier muss ein Framework entwickelt werden, um unter anderem Themen wie Single Sign-On, Provisioning, Rückverrechnung und Sicherheit zu adressieren. Identitätsmanagement ist ein Schwerpunktthema für das Computing der Zukunft, denn der Zugriff erfolgt von überall aus und über alle Arten von Endgeräten.
8. ERP, CRM, SCM Future
In den meisten IT-Organisationen existiert mittlerweile eine solide und stabile ERP-Umgebung. Sie funktioniert, aber agil ist sie nicht, und was noch schlimmer ist, sie kostet ein Vermögen. In manchen Unternehmen wird bis zu ein Prozent des Gesamtumsatzes in den ERP-Betrieb gesteckt. Das ist in Zukunft nicht mehr akzeptabel und muss im Laufe der nächsten Jahre signifikant verbessert werden. Die vorhandenen ERP-Lösungen sind zudem veraltet und müssen nach und nach modernisiert werden.
9. Software as a Service
Software as a Service ist Bestandteil des Cloud Computings, muss aber auch aus einer anderen Perspektive angegangen werden. Viele IT-Organisationen haben mit IaaS (Infrastructure as a Service) so ihr Probleme, doch die Nutzer profitieren von SaaS. Viele Lösungen, die oft nur für eine kleine Gruppe von Anwendern benötigt werden, können jetzt sehr schnell und kostengünstig genutzt werden und sorgen so für einen unmittelbaren Mehrwert und Nutzeneffekt. Hinzu kommt, dass die Generation der "Digital Natives" mit dieser Art des Computings voll und ganz vertraut ist.
10. Konsumerisierung
Mit der Einführung des iPods hat Apple das traditionelle Computer-Geschäft verlassen. Durch den Fokus auf die Verbraucher wurde Apple zur Computerfirma mit dem höchsten Unternehmenswert und hat mit dem iPhone und dem iPad den Weg zurück ins Unternehmen geschafft. ARM Chips, wie sie in Smartphones zum Einsatz kommen, verfügen über ein besseres Preis-Leistungs-Verhältnis im Serverumfeld und bieten Intel als Konkurrenz die Stirn. Google und Amazon sind weitere Beispiele für den zunehmenden Konsumerisierungstrend, der von der IT berücksichtigt werden muss.

Die wichtigste Erkenntnis lautet demnach: Nicht die Kosten je Maßeinheit entscheiden darüber, welches Modell günstiger ist, sondern die finanziellen Belastungen über die gesamte und tatsächliche Nutzungsdauer hinweg. In der IT sind demnach nur die Kosten relevant, die für die Beanspruchung aller erforderlichen Ressource anfallen, solange die Anwender auf Applikationen zugreifen. Eine solche Erhebung ist allerdings deutlich komplizierter und aufwändiger als ein einfacher Vergleich je Maßeinheit.

Für eine umfassenden Betrachtung bedarf es zunächst einmal einer tragfähiger Einschätzung darüber, wie intensiv Anwendungen über einen definierten Zeitraum - typischerweise je Monat - zur Verfügung stehen müssen: In anderen Worten: wie viele Stunden pro Monat wird die Applikation tatsächlich genutzt? Wie viel Speicherplatz wird benötigt? Wie viel Datentransfer verursacht die Anwendung?

Zum zweiten müssen die Preiseinheiten relativ berechnet werden. In einer Umgebung, die zehn Gigabyte Speicher bereitstellt, ist ein Gigabyte Storage teurer als in einer Installation mit zehn Terabyte.

Zum dritten sind die unterschiedlichen Verbrauchsmuster entscheidend, denn in ruhigen Phasen ist der Bedarf gering, im Saisongeschäft dagegen sehr groß. Typischerweise werden Finanzapplikation zum Monatsende sowie jeweils vor Quartals- und Jahresabschlüssen intensiv genutzt und müsse verlässlich zur Verfügung stehen. Hinzu kommen unerwartete, nicht-zyklische Spitzenauslastungen, wenn etwa eine veränderte Gesetzeslage Nacharbeiten erfordert.

Extrakosten für die Cloud verwässern die Analyse

Hinter der gesamten Erhebung steht ein kniffeliger Vergleich der TCO - wobei die Abkürzung in diesem Fall nicht "Total Cost of Ownership" (Gesamtkosten für den Besitz) sondern " Total Cost Operation" (Gesamtkosten für den Betrieb) meint.

Für viele Verbrauchsprofile ist das Mietmodell in der Betrachtung der aggregierten Nutzung attraktiver, selbst wenn einzelne Verbrauchseinheiten vergleichsweise teurer sind. Bezogen auf das Beispiel Autovermietung: Selbst wenn die Tageskosten eines Mietautos die des gekauften Fahrzeugs übersteigen, spart der Mieter unterm Strich Geld, wenn das Auto an nur fünf Tagen die Woche gefahren wird.

Doch die Einsparung hat ihren Preis, denn die wirtschaftliche Bewertung einer zeitweiligen Nutzung ist deutlich komplizierter, weil die variablen Kosten schwerer zu prognostizieren und zu berechnen sind. Naturgemäß kostet der der Besitz von IT-Ressourcen unabhängig vom Nutzungsprofil immer das Gleiche, egal, ob die Anlagen tägliche mehrere Stunden oder nur einmalig wenige Minute je Monat genutzt werden.

Zudem fallen weitere indirekte Kosten an, die die Kalkulation beeinflussen und verwässern: Das Mietauto muss erst gefunden, Papiere unterschrieben, das Auto abgeholt und zurückgebracht werden. Der Mieter muss sich entscheiden, welche Optionen er nutzt, etwa was zusätzliche Versicherungen betrifft. Mögliche Aufwendungen lassen sich steuerlich absetzen, auch das muss erledigt werden. Wirtschaftswissenschaftler Ronald Coase prägte für diesen Aufwand den Begriff "Transaktionskosten". Er bekam für die Entdeckung und Erklärung dieser indirekten Aufwendungen den Nobelpreis der Wirtschaftswissenschaften. Beispiele sind Anbahnungs-, Vereinbarungs- und Anpassungskosten.

Doch auch der Eigenbetrieb ist nicht frei von Zusatzaufwand. Die Unternehmen haben in den vergangenen Jahrzehnten enorm viel Geld investiert, um Applikationen einzuführen, anzupassen, zu konsolidieren und zu harmonisieren und sie wieder abzulösen. Vielerorts wurde den Anwendern der Aufwand zu groß, sie haben die Installationen einmalig installiert und möglichst unverändert weiter genutzt. Für Provider von Mietsoftware bietet dieser "set-and-forget"-Ansatz kein tragfähiges Geschäftsmodell.

Cloud-Management-Tools
Acht Tools zur Cloud-Verwaltung
Auf den folgenden Seiten finden Sie einen kurzen Überblick über acht Tools, die das Verwalten, Einrichten, Monitoren und Automatisieren von Cloud-Installationen unterstützen.
PlanningIT
"PlanningIT" von Alfabet ist eine Software, die IT-Planungs- und -Management-Funktionen integriert. <br/><br/> Die Suite umfasst mehrere Komponente, die sich mit spezifischen Aspekten einer strategischen IT-Planung befassen.
WebExcellence
WebExcellence von Apica ist ein Load-Testing- und Performance-Monitoring-Tool für Cloud-Anwendungen. <br/><br/> Für das Load-Testing simuliert die Firma Lastprofile, die die echten Anforderungen abbilden. Für Testverfahren werden Scripts verwendet, die Kundenszenarien nachstellen und Leistungs- sowie Geschäftsziele berücksichtigen.
V-Command
V-Commander von Embotics für das Private-Cloud-Management. <br/><br/> In weniger als einer Stunde soll sich die Software installieren lassen. Sie sei dann für das Self-Service-Provisioning und für das Anforderungs-Management bereit, betont der Hersteller. Zudem bietet sie Funktionen, um Servicekataloge zu erstellen.
Jamcracker
Jamcracker ist für das Delivery- und Life-Cycle-Management von Cloud-Diensten entworfen worden. <br/><br/> Die Plattform erlaubt es Firmen, das Nutzer-Provisioning und Single-Sign-On für private und öffentliche Cloud-Dienste zu implementieren. Zudem können die IT-Abteilungen mit Jamcracker ihren Nutzern einen Servicekatalog zur Verfügung stellen und diesen zentral verwalten.
Jitterbit
Jitterbit 4.0, eine Suite für die Datenintegration. <br/><br/> Die Engine namens "Jitterbit Integration Server" koordiniert Integrations-Prozesse und validiert, bereinigt und transformiert Daten. "Jitterbit Application" erlaubt es Anwendern, Integrationsprojekte zu konfigurieren, zu testen, zu verwalten und zu betreiben.
Netuitive
Netuitive ist ein Produkt für die vorausschauende Analyse (Predictive Analytics) in physikalischen und virtualisierten Installationen. <br/><br/> Eine selbstlernende Engine analysiert, korreliert und normiert ständig einlaufende Leistungsdaten von mehreren Subsystemen. Zudem erstellt sie Verhaltensprofile von Datenströmen, die für das jeweilige Unternehmen relevant sind.
New Relic
New Relic bietet Performance-Management für SaaS-Anwendungen aus Nutzersicht (Real User Monitoring = RUM) an. <br/><br/> Agenten auf Produktions-Servern senden Daten über die Applikations-Aktivitäten in das Rechenzentrum von New Relic. Dort werden sie ausgewertet und aufbereitet.
Opscode
Opscode bietet ein System-Integration-Framework in verschiedenen Ausführungen. <br/><br/> Ein Ruby-on-Rails-basierendes Provisioning-Tool hilft, wieder verwertbare Rezepte und Kochbücher zu gestalten, die Infrastruktur-Komponenten hinter der Firewall beschreiben und integrieren. Das soll die Bereitstellung und Konfiguration einer Umgebung beschleunigen

Cloud-Interessenten suchen bei der wirtschaftlichen Berechnung oft die Schwelle zur minimalen Nutzungsdauer. James Staten, Cloud-Analyst bei Forrester bezeichnet diesen Ansatz als "down and off": Wer für den laufenden Betrieb zahlt, neigt häufig automatisch dazu, die IT-Ressourcen nur so weit in Anspruch zu nehmen, dass die funktionalen und performanten Anforderungen noch erfüllt werden. Gibt es keinen Bedarf, die Ressource zu nutzen, wird sie herunter gefahren. Sobald sie wieder benötigt wird, fährt man sie wieder hoch.

Der organisatorische Aufwand für ein solches Ressource-Management ist in der Regel viel zu hoch. Der Einfachheit halber legen IT-Organisationen meistens beim Opex-Capex-Vergleich daher einen Vollzeitbetrieb zugrunde, der sich wiederum an der Maximalausstattung in Spitzenzeiten orientiert. Das ist sinnvoll und nachvollziehbar weil der Verwaltungsaufwand und die Berechnung einer ständigen zu- und abgeschalteten Anwendung jedes Betriebsmodell ad absurdum führen würde.

Die Zukunft der Capex-Opex-Analyse

Doch das ist der Status Quo, der auf Dauer nicht haltbar ist. In vernünftig aufgesetzten Cloud-Umgebung stehen Werkzeuge bereit, die die Ressourcen automatisch bereit- und abstellen, der Vorgang lässt sich dabei sogar von der jeweiligen Applikation selbsttätig ohne manuellen Eingriff auslösen. In einer solchen Umgebung schwinden die Transaktionskosten erheblich, so dass "down and off" praktikabel wird.

Mit einem solchen Ansatz verändert sich aber auch das Berechnungsmodell grundlegend, weil sich der Ressourcenverbrauch bei der Nutzung von Applikationen deutlich zugunsten der Cloud-Variante verschiebt. Es ist absehbar, dass Entwickler ihre Applikationen künftig so gestalten, dass sie einige grundlegende IT-Ressourcen dauerhaft beanspruchen und auf andere Ressourcen nur bedarfsweise je nach Nutzungsaufkommen zugreifen.

Unterm Strich verliert mit einem solchen dynamischen Zugriff auf benötigte IT-Ressource eine heute gängige Annahme an Gewicht: Sie besagt, dass die einzig zulässige Herangehensweise die ist, für eine finanzielle Analyse die Vollauslastung in Spitzenzeiten zu betrachten. Damit wäre auch die Annahme obsolet, die den Eigenbetrieb standardmäßig als bessere Lösung erachtet."