Wie wird IT morgen betrieben: Zentral, Dezentral – oder egal?

Wie wird IT morgen betrieben: Zentral, Dezentral – oder egal?

Digitalisierung 6 min. Lesezeit
Stefan Fritz Experte für faire digitale Plattformen

Wie sollten Unternehmen  – gleich ob Corporate IT der großen Konzerne, Technologie- affine Startups oder “einfache IT- Anwender-Unternehmen”-  in Zukunft ihre IT organisieren? Werden sich die Mega- Rechenzentren der großen externen Anbieter durchsetzen, oder doch eher die Inhouse- Serverräume in den Unternehmen?

Auch wenn sich viele Unternehmen bzw. ihre IT- Verantwortlichen genau diese Frage für die eigene Zukunft stellen, ist es doch der falsche Ansatz. Denn in Zukunft geht es vor allem um diese beiden Aspekte:

  • Mit welchem Algorithmus kann man IT- Systeme robust verteilt aufbauen? und
  • wie lässt sich die benötigte Software in einem weltweiten Netzwerk betreiben?

Ein Blick in die Geschichte der IT verdeutlicht uns die Entwicklung: Am Anfang war der Großrechner. In den 1970er- Jahren mussten nicht nur die Benutzer sondern auch die Daten erst mühsam zum Rechner gebracht werden, denn damals konnten Daten noch nicht durch Leitungen über den Globus fließen. Mit den Personal Computern kam der Rechner zum Menschen auf den Schreibtisch. Der PC wurde der persönliche Effizienz- Beschleuniger für eine Reihe von Dienstleistern wie Ingenieuren oder Kreativen. Doch von Vernetzung konnte in den 1980er- Jahren höchstens ansatzweise die Rede sein. In den 1990ern fand das LAN seinen Weg in die Breite und sorgte für die Vernetzung innerhalb von Gebäuden. An den Universitäten gab es auch schon das Internet. – Dessen Siegeszug auch für Nicht- Akademiker begann aber erst Ende der 1990er- Jahre.

Nachdem sich die IT zunächst ihren Weg durch Büros und Netzwerke innerhalb eines Unternehmens gebahnt und schließlich auch Anschluss an die Außenwelt gefunden hatte, hat sie sich in den letzten zehn Jahren dann wieder großflächig in die Rechenzentren bewegt. Auslöser waren die massiven technologischen Entwicklungen im Netzwerkbereich, die einher gingen mit einem drastischen Preisverfall für Bandbreite. Anders ausgedrückt: das Mooresche Gesetz hat mit seiner exponentiellen Wachstumshypothese erst die PCs ermöglicht und immer leistungsfähiger gemacht, und dann im zweiten Schritt die Vernetzungstechnologie (die Glasfaserverbindungen für Weitverkehrsnetze und das gesamte Kupfer-Equipment von LAN bis WAN (DSL)).

Dabei entscheiden diese Faktoren darüber, ob sich die zentrale Verarbeitung von Daten lohnt:

  • die Netzwerkbandbreite und
  • die Latenz, also die Verzögerungszeit bei der Datenübertragung.

Der Skaleneffekt in einem zentralen Rechenzentrum zzgl. der Transportkosten über eine Weitverkehrsstrecke (Corporate Network oder Internet) muss in Summe günstiger sein als der dezentrale Betrieb auf einzelnen Rechnern.

Aber so einfach ist es dann doch nicht mit der Betrachtungsweise, denn diese direkten Effekte erster Ordnung werden noch ergänzt durch weitere Ersparnisse bei der Zentralisierung: Wenn es gelingt, die zentral betriebenen Applikationen zu standardisieren und für eine große Menge an Usern in gleicher Form bereitzustellen, dann lassen sich massive weitere ökonomische Skaleneffekte (Economies of Scale) heben. Aber eben nur, wenn diese Standardisierung gelingt.

Damit sind wir von der technologischen Ebene, die den Lösungsraum aufspannt, plötzlich im bekannten kapitalistischen Optimierungsmodell: Wer skaliert und an einem Ort erfolgreich immer weiter bündelt, der kann viel Geld verdienen, wenn er nur groß genug ist und ausreichende Skaleneffekte aggregiert.

Doch bei genauerer Betrachtung verschiebt sich nun etwas auf der Risiko- Ebene: es entsteht ein massives Klumpenrisiko wie in den Finanzkrisen! Also fangen die Techniker an, sich gegen immer mehr dieser gleichgelagerten Risiken abzusichern, indem sie viele Festplatten, redundante Maschinen, redundante Netzwerke usw. einsetzen. Das wiederum führt zu immer höherer Komplexität. Das Ergebnis: Die Kosten für die Redundanz fressen die Vorteile der Zentralisierung auf und das Risikoprofil hat sich durch die Zentralisierung erheblich verschlechtert.

Ungefähr an dieser Stelle der IT- Geschichte befinden wir uns im Jahre 2014!

Die Frage für die Zukunft lautet daher: kann man ein IT- System robuster aufbauen, also mit Resilienz gegen die Risiken der Zentralisierung immunisieren?

Ja, das kann man, lautet die erfreuliche Antwort – leider gefolgt von einem großen ABER: Denn 40 Jahre lang haben die meisten Informatiker Code produziert, der für ScaleUp, also die oben beschriebenen zentralen Optimierungsformen konzipiert ist. Für eine neue resiliente IT- Welt kann davon jedoch so gut wie nichts weiterverwendet werden.

Softwareentwickler und Administratoren müssen völlig neue Ansätze lernen, um mit anderen Algorithmen neue Lösungswege für die gleichen Aufgaben zu entwickeln. Sie müssen einen neuen Grundstein legen, damit die Programme verteilt über mehrere Rechenzentren in einer erheblich robusteren Form laufen können als dies heute möglich ist.

Vor allem für die alteingesessenen Softwareanbieter ist es enorm schwierig, ihre Software in die neuen Modelle zu portieren. Die Entwicklung der ScaleOut- fähigen Software geht dabei mit völlig neuen Betriebskonzepten einher. Modewörter wie DevOps beschwören den Paradigmenwechsel: Software soll nicht mehr losgelöst von einer Betriebsumgebung hergestellt werden wie früher, sondern am besten in integrierten “as a Service” Modellen. Dieser Ansatz stellt Architekten, Softwareentwickler und Administratoren ebenso vor neue Herausforderungen wie Vertriebler und nicht zuletzt die Kunden, die sich auf neue Heilsversprechen einlassen sollen.

Übrigens: In der IT- Welt haben diese Gedanken immerhin schon vor ein paar Jahren Einzug gefunden und konnte sich daher auch schon verbreiten. In anderen Branchen, wie dem Maschinen- und Anlagenbau, aber auch bei hochsensitiven Anlagen wie Atomkraftwerken, gehen die Verantwortlichen noch den klassischen Weg und begegnen einem Risiko mit der typischen Ingenieur-Antwort, der Redundanz. In diesen Bereichen gibt es erst in wenigen zarten Pflänzchen das Bemühen, für die Zukunft robustere Systeme mit anderen, an die Natur angelehnten, Verfahren aufzubauen.

Zu groß ist die Versuchung, alles durch die Brille der Optimierung zu betrachten; denn diese belohnt auf den ersten kurzfristigen Blick die zentralisierten Systeme mit einer geringen Resilienz. Erst über einen längeren Betrachtungszeitraum werden die höheren Kosten sichtbar, aber die lassen sich ja meist noch(!) der Gesellschaft in Form von Umweltkosten aufbürden.

Doch zurück zu unserer IT- Betrachtung: Auch solche über mehrere Standorte hinweg mit hoher Resilienz aufgebauten Systeme benötigen ein Management, wenn das Pendel aufgrund der verschiedenen Entwicklungen bei Vernetzungskosten, Latenzen, Bandbreiten, Rechenpower, Energiekosten und auch Energieverfügbarkeit hin und her schlagen wird. Es muss eine Instanz geben, die IT in Zukunft operationalisiert, also für den Geschäftsmodellbetreiber oder auch den Anwender nutzbar macht. Die IT erhält damit in Zukunft die Rolle eines Sourcing Managers und Dirigenten für die  Schnittstellen zwischen den Geschäftsprozessen und den zum jeweiligen Zeitpunkt optimalen Betriebspunkten von IT- Systemen. Das Managen des IT- Betriebes in dieser komplexen Welt wird damit wohl zur Aufgabe spezialisierter Unternehmen, die über das notwendige Know-how für die Optimierung von Kosten und Resilienz der Systeme verfügen.

"Wie wird IT morgen betrieben: Zentral, Dezentral – oder egal?"