Nima Samsami, CGI

Nima Samsami

Executive Consultant​

IT-Monitoring ist seit jeher wichtig, um Qualität und Leistung sicherzustellen. Artificial Intelligence (AI) hat das IT-Monitoring bereits auf ein neues Level gehoben und wird es in Zukunft massiv weiter verändern. Es sind nicht länger nur technische Aspekte, sondern auch Businessprozesse und -services, die überprüft und verbessert werden. Hier erfahren Sie, welche Möglichkeiten die vierte Generation des Monitoring bieten wird – und wie sie sich erreichen lässt. Ziel ist eine vollständige Observability, die sämtliche Unternehmensdaten umfasst. Doch lassen Sie uns zunächst einen kurzen Blick in die Vergangenheit werfen.

Eine kleine Geschichte des IT-Monitoring

Die Entwicklung des Monitoring lässt sich in drei Generationen einteilen:

  • Die erste Generation, Asset Monitoring, konzentriert sich auf die Überwachung von physischen und virtuellen Ressourcen wie Server und Datenbanken, um Hardware-Ausfälle und Kapazitätsprobleme zu erkennen.
  • Die zweite Generation, Application Monitoring, überwacht Anwendungen und Dienste, um deren Funktionalität und Performance zu messen und Fehler oder Abweichungen zu beheben.
  • Die dritte Generation, AI-Driven Monitoring oder AIOps, verwendet künstliche Intelligenz und maschinelles Lernen zur Analyse von Daten aus den vorherigen Generationen. Auf dieser Basis kann sie Probleme identifizieren und priorisieren sowie automatisierte Lösungs- oder Präventionsmaßnahmen auslösen.

Wir befinden uns aktuell in der dritten Generation, die durch den Einsatz von Artificial Intelligence (AI) gekennzeichnet ist. AI hilft dabei, riesige Mengen an Daten aus verschiedenen Quellen zu korrelieren und somit die Ursachen von Problemen zu identifizieren und zu beheben. Außerdem ermöglicht sie das Monitoring von komplexen und dynamischen Umgebungen wie Containern und Multi-Cloud.

Das Zeitalter der Observability

Die vierte Generation des Monitoring wird jedoch noch einen Schritt weitergehen und die Daten regelrecht entfesseln. Hierfür hat sich in den vergangenen Jahren der Begriff Observability durchgesetzt. Diese umfasst drei Komponenten: Logs, Metriken (wie die CPU-Auslastung) und Traces, also das Verfolgen von Transaktionen über mehrere Komponenten. Bei Observability geht es darum, die verschiedensten Daten gemeinsam zu analysieren. Sie werden unter Berücksichtigung des Kontexts miteinander korreliert, um ein umfassendes Verständnis der Anwendung und ihrer Umgebung zu erlangen. Dabei werden nicht nur technische Daten berücksichtigt, sondern auch fachliche und externe Daten, wie das Wetter oder Änderungen der Benutzeroberfläche – denn sie können einen Einfluss auf das Nutzungsverhalten und sogar den Geschäftserfolg haben. Um sie zu verarbeiten, werden neue Datenstrukturen verwendet, wie zum Beispiel Graphen. Diese können die Beziehungen zwischen den Daten abbilden und ermöglichen somit eine präzisere Ursachenanalyse.

Die vierte Generation wird die Geschäftsbedürfnisse stärker in den Fokus rücken. Künftig werden also nicht nur technische Aspekte überwacht werden, sondern auch fachliche Aspekte wie die Kundenzufriedenheit oder der Umsatz. Die AI wird dabei sowohl fachliche als auch technische Verbesserungsvorschläge machen.

Während die AI in der dritten Generation eher eine operative Rolle spielt (AIOps), wird sie in der vierten Generation auch eine transformative und strategische Rolle spielen. Sie wird dabei helfen, die Anwendung kontinuierlich anzupassen und zu optimieren.

Warum sich die Organisation verändern muss

Die vierte Generation des Monitoring wird eine Veränderung in der Organisation erfordern. Heute wird das Monitoring meist vom Betriebsteam, DevOps- oder SRE-Teams (SRE = Software Reliability Engineer) umgesetzt und betreut. In Zukunft werden sich jedoch eigenständige Monitoring-Dev-Teams bilden, die sich bereichsübergreifend aus technischen Teams und Fachbereichen zusammensetzen. Um ein Monitoring-Projekt zu beginnen, muss sich ein diverses Team aus Entwicklung, Betrieb, Software-Architekten und Fachbereichen zusammensetzen. Erfolgsentscheidend ist, dass eine auf Monitoring spezialisierte Person oder ein Dienstleister wie wir mit an Bord ist. Schließlich gibt es viele Wege, ein Monitoring-System aufzustellen. Diese sind aber nicht immer zukunftsträchtig oder beschränken sich auf ältere Monitoring-Generationen. Gefragt ist eine neue Rolle: die des Monitoring Architect. Diese Person kennt sich mit den modernen Methoden des Monitoring aus und bringt alle zu überwachenden Systeme und Anforderungen des gesamten Unternehmens zusammen. Nachdem ein Konsens über den Scope erreicht wurde, müssen die zu sammelnden Parameter und Artefakte ermittelt werden. Parallel gilt es, die Datenstrukturen und die Architektur des Monitoring-Systems zu bestimmen. OpenTelemetry ist ein gängiger Standard, der herangezogen werden kann. Dabei kann es sinnvoll sein, mehrere Systeme für unterschiedliche Use Cases aufzustellen.

Fazit

Um Monitoring der vierten Generation zu erzielen, müssen wir die Daten entfesseln, die Geschäftsbedürfnisse verstehen und die Organisation anpassen. In den vergangenen Jahren sind viele neue Anbieter und Lösungen hinzugekommen. Darunter sind auch einige Open-Source-Lösungen, die sich allerdings noch eher in der zweiten Generation bewegen. Fortgeschrittene Generationen lassen sich aktuell nur mit einem hohen Aufwand für eigene Entwicklungen erreichen – oder in einem Innovationsprojekt, wie wir es zurzeit durchführen. Dort hat das Zeitalter der Observability bereits begonnen.

Über diesen Autor

Nima Samsami, CGI

Nima Samsami

Executive Consultant​

Nima Samsami ist ein Experte in den Bereichen Sprachanalyse (NLP) und Generative KI (GenAI). Aufgrund seiner langjährigen Tätigkeit in Sprachanalyse (NLP) und KI verfügt er über weitreichende, praktische Erfahrungen in der Analyse von komplexen Prozessen sowie in der Strategiefindung und Umsetzung von passenden IT-Technologien und ...