Definition „Data Stream“ Wie wird ein Datenstrom verarbeitet?

Von chrissikraus 3 min Lesedauer

Anbieter zum Thema

Ein Datenstrom ist ein Konzept für Datenübertragung, bei der Daten als kontinuierlicher Fluss gesendet und empfangen werden. Oft geht damit eine Echtzeit-Verarbeitung einher.

Mit der Entwicklung neuer Technologien auf Echtzeitbasis werden Datenströme weiter an Bedeutung gewinnen.
Mit der Entwicklung neuer Technologien auf Echtzeitbasis werden Datenströme weiter an Bedeutung gewinnen.

Datenströme sind eine Form von Daten, die nicht vorab gespeichert und erst dann verarbeitet werden, sondern als kontinuierlich fließender Strom. Ende und Gesamtgröße der Daten ist unklar. Im Gegensatz dazu stehen statische oder nicht strömende Daten. Das sind Daten mit fester Begrenzung, z. B. in einer Datenbank gespeicherte Daten. Datenströme sind ein fester Bestandteil moderner Anwendungen und können aus den unterschiedlichsten Quellen stammen.

Wie ist ein Datenstrom aufgebaut?

In der Regel handelt es sich um eine kontinuierliche Folge sequenzieller Daten. Diese werden vor dem Versenden aus den zu versendenden Daten so strukturiert, dass sie der jeweiligen Übertragungstechnik entsprechend aufbereitet sind. Der genaue Aufbau hängt von der Technologie ab, auf der der jeweilige Datenstrom basiert. Die einzelnen Datenelemente in einer Videoübertragung könnten z. B. einzelne Frames des Videos und der Audiospur sein. Auch die Größe der Datenelemente hängt von der Anwendung ab. Textbasierte Informationen sind typischerweise kleiner als Multimediainhalte.

Wie werden Datenströme verarbeitet?

Die Verarbeitung von Datenströmen muss möglichst zügig ablaufen und beinhaltet die Analyse der eintreffenden Informationen. Filtern, Strukturieren oder Transformieren von Daten gehören zu den typischen Aufgaben. In der Regel sind Datenströme für spezifische Anwendungen formatiert und können entsprechend nur durch die passende Software verarbeitet werden. Ob die Informationen dann sofort weiterverarbeitet, temporär zwischengespeichert oder für eine spätere Verwendung in ihrer aufbereiteten Form an einem festen Speicherort hinterlegt werden, hängt dabei allein vom Anwendungsfall ab.

Wenn große, potenziell unbegrenzte Datenmengen verarbeitet werden müssen, kommen häufig Streaming-Algorithmen zum Einsatz. Diese sind darauf optimiert, die eintreffenden Daten möglichst effizient und teils unter bestimmten Einschränkungen (z. B. begrenzte Bearbeitungszeit, begrenzter Speicherplatz) in möglichst wenigen Durchgängen zu verarbeiten.

Welche Anwendungsgebiete haben Datenströme?

Datenströme finden sich in vielen unterschiedlichen Einsatzgebieten, in denen Daten zwischen einem Sender und einem Empfänger übertragen werden müssen. Sie werden zur Kommunikation zwischen verschiedenen Prozessen innerhalb eines Systems oder zur Übertragung von Daten zwischen verschiedenen Teilnehmern innerhalb eines Netzwerks verwendet. Die Übermittlung von Nachrichten oder Videostreams gehört genauso dazu wie das Versenden von Messdaten zwischen IoT-Geeräten oder Zahlungsinformationen.

Welche Herausforderungen gibt es bei der Verarbeitung von Datenströmen?

Die Verarbeitung von Datenströmen stellt verschiedene Herausforderungen an Entwickler. Ein typisches Problem ist die richtige Balance aus Übertragungs- und Verarbeitungsgeschwindigkeit zu treffen. Wenn große Datenmengen übertragen werden, müssen diese zeitig verarbeitet werden können. Zwischenspeicherung von Daten ist möglich, aber wirtschaftlich oder technisch nicht immer in der erforderlichen Speichermenge realisierbar.

Genauso entsteht ein Problem, wenn die Übertragungsgeschwindigkeit zu langsam ist. Ein Video- oder Audiostream, der zu langsam überträgt, führt zu einer stockenden Wiedergabe. Bei der Echtzeitverarbeitung, z. B. von Sensordaten in einem autonomen Fahrzeug ist nicht nur die schnellstmögliche Auswertung der Daten entscheidend. Das verarbeitende System muss auch in der Lage sein, die empfangenen Daten in der Reihenfolge ihres Eintreffens schnell und zuverlässig zu verarbeiten.

Eine weitere Problematik im Zusammenhang mit Datenströmen ist das Potenzial auf unvollständige Informationen, z. B. durch Paketverluste auf dem Übertragungsweg. Am Beispiel eines Streamingdienstes für Filme könnte das z. B. zu fehlenden Bild- oder Audioinformationen führen. Das kann unter anderem dann passieren, wenn das Netzwerk überlastet ist. Ein Lösungsansatz hierfür ist adaptives Streaming. Dabei wird die Videoqualität bei schlechter Netzwerkverbindung automatisch verringert, um die Übertragungsgröße zu mindern und somit die Chancen zu verbessern, dass die Informationen vollständig beim Empfänger ankommen.

Fazit

Der Datenstrom ist eine Form von Datenübertragung, welche die schnelle und fortlaufende Kommunikation zwischen verschiedenen Programmteilen oder unterschiedlichen Systemen ermöglicht. Informationen werden aufbereitet, meist als Sequenz von Datenelementen versendet und beim Empfänger analysiert und neu strukturiert. Anwendungen wie vernetzte Systeme oder moderne Webseiten wären ohne Datenströme stark eingeschränkt und könnten nicht in Echtzeit arbeiten. Mit der Entwicklung neuer Technologien auf Echtzeitbasis werden Datenströme weiter an Bedeutung gewinnen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Softwareentwicklung und DevOps

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:49956921)