Im Angesicht von Millionen Config-Optionen Echtzeitanalyse und -optimierung von App-Ressourcen

Ein Gastbeitrag von Florian Maus und Arne Melcher* 6 min Lesedauer

Anbieter zum Thema

In unserem Alltags- und Geschäftsleben dreht sich heutzutage alles um Programme, Anwendungen oder – neudeutsch – Apps. Aber die brauchen Ressourcen – und nicht zu knapp.

Durch einen sinnvollen Tool-Einsatz zur Bekämpfung von Überprovisionierung im eigenen Datacenter und in der (Multi)cloud lässt sich nachgewisesener Maßen nach drei Jahren ein ROI von 471 Prozent erzielen.
Durch einen sinnvollen Tool-Einsatz zur Bekämpfung von Überprovisionierung im eigenen Datacenter und in der (Multi)cloud lässt sich nachgewisesener Maßen nach drei Jahren ein ROI von 471 Prozent erzielen.
(Bild: frei lizenziert: Gerd Altmann / Pixabay)

Unser Leben und unsere Wirtschaft sind durchdigitalisiert. Morgens weckt uns unser Handy – über eine App. Beim Frühstück lesen wir dann unseren Newsfeed – in einer App. Danach checken wir erste Büro-Mails – auch in einer App. Und im Büro arbeiten wir in vielen Jobs den ganzen Tag über – der eine oder die andere wird es bereits ahnen – mit Apps.

Apps bestimmen unser Leben und unsere Wirtschaft auch an kritischen Stellen, zum Beispiel als Kommunikations-, Warenwirtschafts- oder Produktionssystem. Da sollte man meinen, das spiegelt sich auch in der Sorgfalt und Detailtiefe wider, mit der diese Apps und die für ihren sicheren Betrieb wichtigen Ressourcen von Unternehmen generell verwaltet und am Laufen gehalten werden. Doch das ist nicht der Fall.

Es gibt auch kaum entsprechende Projektausschreibungen. Ist man sich mal nicht ganz sicher, ob die IT-Ressourcen für eine wichtige Anwendung reichen, werden einfach auf Verdacht mehr bereitgestellt. Der Cloud sei Dank geht das einfacher als je zuvor: Einfach im Management-Portal des Cloud-Anbieters ein paar Server und mehr Speicherplatz dazu gebucht, und die Sache ist geritzt.

Mehr Ressourcen, mehr Geld

Das Problem wird (scheinbar) gelöst, indem man mehr Geld für mehr Ressourcen ausgibt. Aufgrund der Komplexität der Aufgabe und der vielen Abhängigkeiten von Ressourcen und Infrastruktur untereinander blieb Unternehmen bisher selten eine andere Wahl – eine manuelle Optimierung wäre schlicht zu aufwändig gewesen.

Doch wenn die Sache so einfach ist, warum fallen wichtige Anwendungen dann immer wieder aus, auch wenn eigentlich genügend teuer eingekaufte Ressourcen wie CPU, Storage und Netzwerk bereitstehen? Es kommt eben nicht nur auf die Menge der Ressourcen an. Die richtigen Ressourcen müssen auch zum richtigen Zeitpunkt bereitstehen, um eine bestimmte Anwendung am Laufen zu halten.

Und in komplexer werdenden IT-Umgebungen wächst die Menge der notwendigen Eingriffe, um die Ressourcen bedarfsgerecht und manuell zuzuweisen. Dies gilt insbesondere für heterogene Umgebungen, bei denen der Ressourcenbedarf schwankt.

Es braucht einen Ressourcen-Manager

Genau hier kommt professionelles Application Resource Management ins Spiel. Es beendet die Raterei, was man wann braucht, um die Anwendungslandschaft optimal mit Leistung zu versorgen. Und es löst das sehr teure Problem, unnötige Ressourcen auf Vorrat einzukaufen, um Engpässen mit einer Masse an Ressourcen vorzubeugen.

Die Ressourcen einer IT-Landschaft werden natürlich auch bisher schon überwacht. Sie werden aus verschiedenen Blickwinkeln analysiert, und in großen IT-Landschaften gibt es eigene Teams für Bereiche wie Storage, Infrastruktur, Cloud und Apps. Jedes Team setzt jedoch oft eigene Tools für genau seinen Bereich ein – das klassische IT-Silo lässt grüßen, eine einheitliche Ressourcenanalyse fehlt vielmals.

Diese Tools arbeiten dann zudem meist auf Schwellenwertbasis: Werden vordefinierte Schwellwerte überschritten, wird ein Alarm ausgelöst, und das Team kann reagieren. Das Problem dabei ist, dass man sich erst dann um die Anwendungsperformance kümmert, wenn diese eh schon schlecht ist. Und dann beginnen die User meist auch schon, unruhig zu werden und sich über die schlechte Anwendungsperformance zu beschweren.

Die Folge: Der Puls beim zuständigen IT-Team steigt, die Laune der Anwender sinkt.

Hinzu kommt, dass in den wenigsten Fällen auch Schwellwerte nach unten existieren, die auf Überprovisionierungen hinweisen würden. Diese werden dann weder entdeckt, noch werden die zu üppig vorhandenen IT-Ressourcen reduziert.

Im Kampf gegen Überprovisionierung

Genau hier greifen Tools für das Application Performance Management, zum Beispiel „IBM Turbonomic“. Das Werkzeug liest über Schnittstellen und ohne den Einsatz von Agenten alle notwendigen Daten aus vorhandenen Systemen im eigenen Rechenzentrum oder der Public Cloud.

Die Software führt zudem die Informationen wie Memory, CPU und Storage zusammen. Dabei wertet sie kontinuierlich aus, wie jedes Element, zum Beispiel eine virtuelle Maschine oder ein Container, mit jeder anderen zusammenarbeitet und sich auf sie auswirkt. Die Informationsgrenzen der einzelnen Ressourcensilos werden so plattformübergreifend überwunden.

Das IT-Team erhält so in weniger als einer Stunde eine einheitliche Sicht auf die tatsächliche Infrastruktur. Alle Informationen sind dann mit einem Klick verfügbar: Auf welche IT-Ressourcen eine Applikation zugreift, wo die Engpässe sind oder Überprovisionierungen vorliegen und was dagegen getan werden muss.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Millionen Konfigurationsoptionen

Aufgrund dieser vereinheitlichten Informationsbasis kann IBM Turbonomic eventuelle Risiken oder Verschwendungen aufzeigen. Allein in der AWS-Cloud gibt es grob geschätzt rund 1,7 Millionen Konfigurationsoptionen. Diese händisch durchzugehen, zu optimieren und rund um die Uhr im optimalen Zustand zu halten, ist ein Ding der Unmöglichkeit.

Und in Multi-Cloud-Umgebungen vervielfacht sich diese Herausforderungen. Bei einem deutschen Kunden mit etwa 3.000 virtuellen Maschinen hat IBM Turbonomic in wenigen Tagen mehr als 6.000 Änderungsvorschläge gemacht. Das Risiko, dass übersehene Engpässe im IT-Dickicht irgendwo eine App in Mitleidenschaft ziehen, ist also groß.

IBM Turbonomic kann diese Schwachstellen rechtzeitig erkennen und so Downtime verhindern. Um Ausfällen kritischer Anwendungen vorzubeugen, stellen IT-Teams, wie oben beschrieben, oft mehr Ressourcen als eigentlich nötig bereit – sie überprovisionieren, um auf der sicheren Seite zu sein.

Falsches Sicherheitsgefühl

So sicher ist diese Seite jedoch nicht, denn selbst in diesen mehr als großzügig ausgelegten Umgebungen findet IBM Turbonomic immer noch Risiken, die zu Ausfällen führen können. Anhand der kontinuierlichen Analysen in der IT-Landschaft schlägt Turbonomic Maßnahmen vor, die ein Absinken der Anwendungs-Performance verhindern. Das IT-Team kann dann rechtzeitig eingreifen und die Maßnahmen (in IBM Turbonomic „Aktionen“ genannt), manuell ausführen oder sukzessive sämtliche Aktionstypen vollständig automatisieren. Die IT-Infrastruktur kann dann dynamisch zugeteilt werden – immer mit dem Ziel, Applikationsperformance zu den geringstmöglichen Kosten sicherzustellen.

Auch das finanzielle Problem der Überprovisionierung von Ressourcen löst das IBM-Tool. Die Analysen zeigen in Echtzeit auf, wo ausreichend Ressourcen zur Verfügung stehen und wo gegebenenfalls Ausbaubedarf besteht. Bereiche, die überversorgt sind, können so identifiziert und dann auf das notwendige Maß zurückgestutzt werden.

Das eröffnet ungeahnte Einsparpotenziale, die sich schnell rechnen. Im Schnitt ermöglicht der Einsatz von IBM Turbonomic eine Kostenreduktion der Cloud-Infrastruktur von 33 Prozent – einfach, indem die Lösung unnötige Ressourcen erkennt und so ihre Abschaltung oder Abbestellung ermöglicht. Insbesondere in der Public Cloud können so die Vorteile der Elastizität genutzt werden, die oft der Grund für den Schritt in die Cloud waren.

RoI von 471 Prozent

Und bei der regelmäßig notwendigen Erneuerung von IT-Infrastrukturen erzielt IBM Turbonomic eine Kostenersparnis von bis zu 75 Prozent, die sich insbesondere in der höheren Dichte durch die Dynamisierung begründet. Forrester kam in seiner Studie „Total Economic Impact“ zum Schluss, dass sich IBM Turbonomic nach weniger als sechs Monaten amortisiert und nach drei Jahren ein ROI von 471 Prozent erzielt werden kann.

Wenn weniger Ressourcen bereitgestellt werden, macht sich das aber nicht nur in den Kosten bemerkbar: Auch CO2-Emissionen werden erheblich reduziert. Denn weniger IT-Ressourcen bedeuten weniger Energieverbrauch und damit einen geringeren ökologischen Fußabdruck. Diese gezielte Reduktion ist aber nur problemlos möglich, wenn die Applikationsperformance als zentrale Maßgabe immer im Mittelpunkt steht.

Application Ressource Management musste bisher aufgrund des hohen manuellen Aufwandes oft nachrangig behandelt werden. Angesichts des Potenzials, das automatische Lösungen wie IBM Turbonomic bieten, sollten Unternehmen das schnellstmöglich ändern. Denn eine IT-Lösung die IT-Teams, Anwender, Finanzabteilungen und Umweltbeauftragte gleichermaßen überzeugt, sollte schnellstens aus dem Schatten ins Rampenlicht geholt werden.

*Die Autoren
Florian Maus (links) ist IBM Specialist for Instana & Turbonomic.
Arne Melcher ist Principal Automation Technical Manager bei IBM.

Bildquelle: IBM

(ID:49437920)