Modernisierung des Rechenzentrums: Analytics und Automatisierung verbessern den Datacenter-Betrieb

Mehr als die Hälfte der deutschen Unternehmen modernisiert derzeit ihre IT-Infrastrukturen. Die Ziele: eine höhere Produktivität, niedrigere Kosten und eine Verbesserung von Geschäftsprozessen. Wichtige Treiber dabei sind Analytics und Automatisierung, die vor allem im Zusammenspiel enormes Potenzial bieten.

Software übernimmt das Steuer

Durch die Modernisierungsbemühungen verändern sich die Rechenzentren jedoch spürbar: hin zu voll virtualisierten Umgebungen, in denen Compute-, Storage- und Netzwerk-Ressourcen von Software verwaltet werden und in denen Automatisierung eine immer bedeutendere Rolle spielt. Allerdings müsse man aufpassen, dass man mit neuen Technologien nicht einfach nur moderne Silos baue, mahnt Matthias Zacher, Senior Consulting Manager bei IDC, und hebt die Bedeutung eines Orchestrierungslayers hervor, der die Verwaltung der Systeme und Applikationen übernimmt.

Noch ist ein solches softwaredefiniertes Rechenzentrum aber ohnehin erst bei 27 Prozent der Unternehmen Realität, weitere 34 Prozent befinden sich immerhin schon in der Evaluierungsphase. Sie erhoffen sich eine Vereinfachung des IT-Betriebs (28 Prozent), einen geringeren Personalaufwand (27 Prozent) und eine höhere Sicherheit durch Automatisierung (26 Prozent), zum Beispiel des Patch-Managements.

Doch Automatisierung sorgt nicht nur für Sicherheit, sondern auch für Verfügbarkeit. »Eine Applikation kann es heute durchaus verkraften, wenn ein Stück Hardware ausfällt«, erklärt Eckermann von Suse. Die Workloads werden in einem solchen Fall automatisch auf andere Knoten verteilt. Doch das Potenzial ist weit größer. Dank Analytics und auf KI basierenden Verfahren kann das Verhalten von Infrastruktur und Applikationen immer besser vorhergesagt werden, um etwa schon vor dem Ausfall einzelner Komponenten zu warnen oder zusätzliche Ressourcen für Workloads bereitzustellen, bevor Leistungsengpässe auftreten.

Die Hardware-Hersteller haben hier in den letzten Jahren enorme Fortschritte im Bereich Predictive Maintenance gemacht, aber auch die Unternehmen selbst haben bereits Analytics-Lösungen im Einsatz (51 Prozent) oder optimieren den Datacenter-Betrieb durch unterschiedliche Automatisierungsmechanismen (41 Prozent). »Die meisten Unternehmen haben die Zeichen der Zeit erkannt«, konstatiert IDCs Zacher, sieht aber auch »noch Luft nach oben«. Vor allem im Zusammenspiel werden Analytics, KI-Mechanismen und Automatisierung künftig ihre Stärken voll ausspielen und Administratoren zahlreiche Arbeiten abnehmen können.

Redundanz für den Ernstfall

Für höchste Verfügbarkeit ist aber nach wie vor Redundanz notwendig, weil etwa Naturkatastrophen auch ein komplettes Datacenter lahmlegen können. »Ein Unternehmen, das von seiner IT abhängt, ist gut beraten, ein zweites Rechenzentrum zu haben«, sagt auch Eckermann. Es muss ja nicht einen Abstand von mindestens 200 Kilometern haben, wie ihn das BSI seit vergangenem Dezember empfiehlt. Experten wie Badoux von Equinix halten auch geringere Entfernungen für ausreichend – zumal man auf diese Weise auch Problemen mit der Latenz aus dem Weg gehen könne.

Übersicht