KI-Observability, Data Observability und OpenPipeline Dynatrace-Plattform erhält neue Funktionen mit dem Fokus auf KI

Von Bernhard Lück 3 min Lesedauer

Anbieter zum Thema

Dynatrace erweitert seine Analyse- und Automatisierungsplattform um Observability-Funktionen für große Sprachmodelle, generative KI und Daten. Zudem stehe dank einer neuen Kerntechnologie nun eine einzelne Pipeline für die Verwaltung von Daten im Petabyte-Bereich zur Verfügung.

Dynatrace erweitert seine Plattform um KI-Observability, Data Observability und die Technologie OpenPipeline.
Dynatrace erweitert seine Plattform um KI-Observability, Data Observability und die Technologie OpenPipeline.
(Bild: Dynatrace)

Auf seinem Branchenevent Perform präsentierte Dynatrace Produktneuheiten mit dem Schwerpunkt KI. So soll etwa die dort angekündigte KI-Observability für Large Language Models (LLMs) und generative KI Unternehmen bei der Gewährleistung der Observability und Sicherheit von KI-gestützten Anwendungen unterstützen. Die ebenfalls auf der Perform präsentierten Data-Observability-Funktionen sollen auf Basis der OneAgent-Technologie die Qualität von Daten sichern, die über verschiedene Wege gesammelt wurden, einschließlich OpenTelemetry, Logs und APIs. Die dritte Neuerung, OpenPipeline, könne für vollständige Transparenz und Kontrolle bei der Data Ingestion sorgen, die Sicherheit erhöhen und die Datenverwaltung vereinfachen.

KI-Observability für LLMs und generative KI

Die KI-Observability-Lösung deckt Dynatrace zufolge den gesamten KI-Stack ab, einschließlich Infrastruktur wie Nvidia-GPUs, grundlegende Modelle wie GPT-4, semantische Caches und Vektordatenbanken wie Weaviate sowie Orchestrierungs-Frameworks wie LangChain. Zusätzlich würden die wichtigsten Plattformen für die Erstellung, das Training und die Bereitstellung von KI-Modellen unterstützt, einschließlich Microsoft Azure OpenAI Service, Amazon SageMaker und Google AI Platform.

Mithilfe der Davis-KI-Engine und anderer Kerntechnologien der Plattform sei es nun möglich, einen präzisen und umfassenden Überblick über KI-gesteuerte Anwendungen zu liefern. So könnten Unternehmen das Nutzererlebnis verbessern und gleichzeitig automatisch Leistungsengpässe und deren Ursachen identifizieren. Da die Herkunft der von den Anwendungen erzeugten Daten genauestens nachverfolgt werde, sei es nun auch einfacher, Datenschutz- und Sicherheitsrichtlinien sowie Governance-Standards einzuhalten, so Dynatrace.

KI-gestützte Data Observability

Mit der neuen Data Observability können sich Teams auf alle Observability-, Sicherheits- und Geschäftsereignisdaten verlassen, die die Davis-KI-Engine der Plattform speisen, so das Dynatrace-Versprechen. Dies trage dazu bei, False Positives zu eliminieren und vertrauenswürdige Geschäftsanalysen und zuverlässige Automatisierungen zu liefern.

Data Observability ergänze die bestehenden Datenbereinigungs- und Anreicherungsfunktionen der Plattform, die von Dynatrace OneAgent zur Verfügung gestellt werden, damit eine hohe Qualität der Daten gewährleistet werden könne, die über andere externe Quellen gesammelt werden, einschließlich Open-Source-Standards wie OpenTelemetry und benutzerdefinierten Instrumenten wie Logs und Dynatrace APIs. Teams könnten somit Aktualität, Volumen, Verteilung, Schema, Herkunft und Verfügbarkeit der extern bezogenen Daten verfolgen und dadurch den Bedarf an zusätzlichen Datenbereinigungstools reduzieren oder eliminieren.

OpenPipeline für Transparenz und Kontrolle bei der Data Ingestion

OpenPipeline sei entwickelt worden, damit Unternehmen der enorm wachsenden Menge und Vielfalt an Daten, die von modernen Clouds erzeugt werden, Herr werden können. Dynatrace zufolge wünschen sich Stakeholder in Unternehmen mehr datengestützte Erkenntnisse und Automatisierung, um bessere Entscheidungen zu treffen, die Produktivität zu steigern und Kosten zu senken. Die Schaffung einer einheitlichen und benutzerfreundlichen Umgebung für Datenanalysen und -automatisierung sei jedoch aufgrund der Komplexität und Vielfalt moderner Cloud-Architekturen und der Vielzahl an Überwachungs- und Analysetools in Unternehmen schwierig. Darüber hinaus müssten Unternehmen sicherstellen, dass ihre Datenpipelines, Analysen und Automatisierungen mit Sicherheits- und Datenschutzstandards wie der DSGVO übereinstimmen. Daher benötigten Unternehmen Transparenz und Kontrolle über ihre Datenpipelines, während sie gleichzeitig die Kosten kontrollieren und den Wert ihrer bestehenden Datenanalyse- und Automatisierungslösungen maximieren müssen.

Dynatrace OpenPipeline könne Geschäfts-, Entwicklungs-, Security- und Betriebsteams vollständige Transparenz und Kontrolle über ihre Data Ingestion bieten, wobei der Kontext der Daten und der Cloud-Umgebungen, aus denen sie stammen, erhalten bleibe. Die Lösung ermögliche diesen Teams das Sammeln, Konvergieren, Weiterleiten, Anreichern, Deduplizieren, Filtern, Maskieren und Transformieren von Observability-, Sicherheits- und Geschäftsereignisdaten aus beliebigen Quellen – einschließlich Dynatrace OneAgent, Dynatrace APIs und OpenTelemetry – mit anpassbaren Aufbewahrungszeiten für einzelne Anwendungsfälle.

Die Zusammenarbeit von OpenPipeline mit anderen Kerntechnologien der Dynatrace-Plattform zusammen, darunter das Grail Data Lakehouse, die Smartscape-Topologie und die hypermodale KI von Davis, ermögliche eine Datenanalyse im Petabyte-Maßstab, eine einheitliche Datenerfassung, die Echtzeitdatenanalyse bei der Erfassung sowie ein kosteneffizientes Datenmanagement. Weitere Vorteile seien ein vollständiger Datenkontext sowie vollständig anpassbare Sicherheits- und Datenschutzkontrollen.

(ID:49950447)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung