Zum Hauptinhalt springen
Startseite

Suche

 
 
 
Header (Main)
Industrie
Mobilität Mobilität
Automobilindustrie
Die Zukunft von SDV gestalten

Die Zukunft von SDV gestalten

Erkunden Sie
Luft- und Raumfahrttechnik
KI-gestützte Flugzeugzustandsüberwachung für vorausschauende Wartung

KI-gestützte Flugzeugzustandsüberwachung für vorausschauende Wartung

Erkunden Sie
Schienenverkehr
Entwicklung der Schienenmobilität der nächsten Generation

Entwicklung der Schienenmobilität der nächsten Generation

Erkunden Sie
Kommerzielle Fahrzeuge und Wohnmobile
Die Neuerfindung des Freizeitfahrzeugs

Die Neuerfindung des Freizeitfahrzeugs

Erkunden Sie
Off-Highway-Fahrzeuge
Geländefahrzeuge und -maschinen

Geländefahrzeuge und -maschinen

Erkunden Sie
Künstliche Intelligenz in der Mobilität

Künstliche Intelligenz in der Mobilität

Erkunden Sie
Nachhaltigkeit Nachhaltigkeit
Diskrete Fertigung und Industrieprodukte
Gebäudetechnik und intelligente Infrastruktur
Elektrische Leistung und Steuerungen
Industrielle Maschinen
LTTSGridEye™

LTTSGridEye™

Erkunden Sie
Prozessfertigung
Öl und Gas
Chemikalien
FMCG
Marktführer im Bereich ISG Provider Lens™: Öl- und Gasindustrie – KI und Cloud – Nordamerika

Marktführer im Bereich ISG Provider Lens™: Öl- und Gasindustrie – KI und Cloud – Nordamerika

Erkunden Sie
LTTS, Siemens-Partner für KI-gestützte Transformation in der Prozessentwicklung und intelligenten Fertigung

LTTS, Siemens-Partner für KI-gestützte Transformation in der Prozessentwicklung und intelligenten Fertigung

Erkunden Sie
Tech Tech
HiTech
Unterhaltungselektronik
Medien und Unterhaltung
NexGen Comms
Halbleiter
Automatisierte Anzeigenintegration und Auslieferungsvalidierung

Automatisierte Anzeigenintegration und Auslieferungsvalidierung

Erkunden Sie
MedTech
LTTS Transforms Respiratory Diagnostics with NVIDIA AI-Powered Digital Twin Technology

LTTS Transforms Respiratory Diagnostics with NVIDIA AI-Powered Digital Twin Technology

Erkunden Sie
Öffentliche Infrastruktur & Smart Cities
Projekt für integrierte intelligente Überwachung

Projekt für integrierte intelligente Überwachung

Erkunden Sie
Software und Plattformen
PLxAI freischalten mit Alind Saxena

PLxAI freischalten mit Alind Saxena

Erkunden Sie
Entdecken Sie unsere Lösungen Entdecken Sie unsere Lösungen
Dienstleistungen
Digitale Technik & Beratung Digitale Technik & Beratung
Künstliche Intelligenz
Cybersecure
Überwachung der Sicherheit
Sicherheitsdienste
Sicherheitslösungen
Immersive Erlebnisse
Industrie 4.0
Produktberatung
Nachhaltigkeitstechnik
Nachhaltige intelligente Welt
5G
Führend im Bereich digitaler Engineering-Dienstleistungen 2025–2026 RadarView™

Führend im Bereich digitaler Engineering-Dienstleistungen 2025–2026 RadarView™

Erkunden Sie
Produktentwicklung Produktentwicklung
Software-Entwicklung
Cloud-Technik
DevOps
Technische Analytik
Immersive Erlebnisse
Unterhalt & Wartung
Benutzererfahrung
Sprachliche Innovationen
Eingebettete Technik
Eingebettete Systeme
Lebensunterhalt
VLSI
Wearables Technik
Mechanische Konstruktion
CAE UND CFD
CAx-Automatisierung
Prüfung und Validierung
Integrierter Entwurf, Validierung und Prüfung
Labor als Dienstleistung
Prüfung
Ermöglichung eines Paradigmenwechsels beim Testen Eine LTTS-KI-Perspektive

Ermöglichung eines Paradigmenwechsels beim Testen Eine LTTS-KI-Perspektive

Erkunden Sie
Fertigungstechnik Fertigungstechnik
Intelligente Fertigung
Anlagenplanung & Engineering
Beschleunigte Operationen
Digitale Fabrik & Simulationen
Technik der Versorgungskette
Beschaffung und Einkauf
Herstellung und Planung
Beschleunigte Operationen
Digitale Fabrik & Simulationen
Leitungserweiterung & Übertragung
Automatisierung der Fertigung
Entwicklung neuer Produkte
Anlagenplanung & Engineering
PLM in der Cloud
Ausführung der Produktion
Agile Lieferkette
Inhaltliche Gestaltung
Material- und Teilemanagement
Beschaffung und Einkauf
LTTS revolutioniert die Atemwegsdiagnostik mit der KI-gestützten digitalen Zwillingstechnologie von NVIDIA.

LTTS revolutioniert die Atemwegsdiagnostik mit der KI-gestützten digitalen Zwillingstechnologie von NVIDIA.

Erkunden Sie
Anlagenbau Anlagenbau
CAPEX Projekt E/EPCM Dienstleistungen
Operative Exzellenz
Pflanzenerhaltung und Management
Material- und Teilemanagement
Technik zur Einhaltung gesetzlicher Vorschriften
Leader in ISG Provider Lens™ : Oil and Gas Industry - AI and Cloud - NA

Leader in ISG Provider Lens™ : Oil and Gas Industry - AI and Cloud - NA

Erkunden Sie
Entdecken Sie unsere Lösungen Entdecken Sie unsere Lösungen
Lösungen
AiCE
AiKno®
AnnotAI
ARC
Asset Health Rahmenwerk
CHEST-rAi™
Vernetzte Sicherheit
EDGYneer
ESM
EvQUAL
FlyBoard®
Fusion
i-BEMS
Nliten
nBOn
PSM
SafeX
Halbleiter-IP
Sensor- und Gateway-Lösung
UBIQWeise 2.0
Einblicke
Analystenberichte
Blogs
Broschüren
Fallstudien
eBooks
Veranstaltungen
Podcasts
PoVs
Videos
Webinare
Whitepapers
Karriere
Über uns
Anerkennungen
Allianzen
Analysten
Direktorium
CSR
Engineer At Heart
Engineering the change
Innovationen
Investoren
Nearshore-Zentren
Nachrichten und Medien
Qualitätsmanagement
Unternehmerische Nachhaltigkeit
Testimonials
Kontakt
Header (Secondary)
Search
Mail
  • English
  • Deutsch
  • 日本語
Kontakt

Brotkrümel

  1. Startseite
  2. Blogs
  3. Entwicklung von Datenpipelines

Entwicklung von Datenpipelines

Salman Hamza Hussain, Praxisleiter, Digitale Architektur und Analytik
Salman Hamza Hussain

Praxisleiter, Digitale Architektur & Analytik

Veröffentlicht am11 Feb 2022

min lesen

674

Ansichten

Entwicklung von Datenpipelines

Wenn in der Vergangenheit Daten aktualisiert werden mussten, trugen die Mitarbeiter sie manuell in eine Datentabelle ein. Dies führte zu manuellen Eingabefehlern und Zeitverzögerungen. Da dies hauptsächlich in Stapeln, meist täglich, geschah, gab es eine beträchtliche Vorlaufzeit zwischen dem Eintreten des Ereignisses und seiner Meldung. Die Entscheidungsträger mussten mit dieser Zeitspanne leben und trafen ihre Entscheidungen oft auf der Grundlage veralteter Daten.

In der heutigen Zeit sind Echtzeit-Updates und -Einblicke eine alltägliche Anforderung. Der Aufbau von Datenpipelines diente im Wesentlichen dazu, Daten aus einer Ebene (Transaktions- oder Ereignisquellen) in Data Warehouses oder Data Lakes zu verschieben, aus denen Erkenntnisse gewonnen werden.

Es stellt sich die Frage, ob wir angesichts dieser Fortschritte bei den Anforderungen zur Unterstützung von Echtzeiteinblicken und anderen Qualitätsanforderungen mit herkömmlichen Architekturen oder gängigen ETL-Ansätzen effizient arbeiten können. Lassen Sie es uns herausfinden!

Aktueller Stand der Datenpipeline-Architekturen und Herausforderungen

Datenpipelines sind für jedes Programm zur Produktdigitalisierung wichtig. In der zweiten Hälfte dieses Jahrzehnts wurden wir Zeuge, wie ein immenser Fokus auf digitale Architekturen und Technologien gelegt wurde. Die Einführung von Microservices und Containerisierung zeigt eine starke Wachstumskurve, die diese Tatsache belegt. Wir sehen auch, dass technologische Fortschritte angewandt werden, aber auf traditionelle "OLTP" oder Kerndienste/Geschäftslogik beschränkt sind.

Anders sieht es aus, wenn man die Muster in den Datenpipelines oder auf der "OLAP"-Seite der Dinge betrachtet. Wir beobachten eine begrenzte Anpassung an die technologische Entwicklung im Bereich der Kerndienste. Die meisten gängigen Datenpipelines werden entweder mit traditionellen ETL- oder ELTL-Architekturen erstellt. Dies sind beliebte De-facto-Ansätze der Branche. Sie lösen zwar das eigentliche Problem, d. h. die Gewinnung verwertbarer Erkenntnisse, sind aber auch mit gewissen Einschränkungen verbunden. Lassen Sie uns einige dieser Herausforderungen untersuchen:

Abgeschottete Teams: Der ETL-Prozess erfordert Fachwissen oder Fähigkeiten bei der Datenextraktion oder -migration. Dies könnte bedeuten, dass das technische Team mehrstufig oder so strukturiert ist, dass es sich mit den technischen Nuancen des Prozesses befasst. Z.B.: Ein ETL-Ingenieur weiß oft nicht, welche Erkenntnisse abgeleitet werden und wie sie von den Endbenutzern genutzt werden.

Begrenzte Manifestation: Das Implementierungsteam versucht nun, jeden gewünschten Anwendungsfall in die vorgegebene Struktur oder das Muster einzupassen. Obwohl dies nicht immer ein Problem oder ein Fehler ist, kann es manchmal ineffizient sein. Z.B.: Wie extrahiert man aus einer unstrukturierten Quelle und wie geht man mit der Modellierung des dazwischenliegenden Persistenzschemas um?

Latenzzeit: Die Zeit, die für das Extrahieren, Transformieren und Laden der Daten benötigt wird, führt oft zu Verzögerungen. Diese Verzögerung könnte darauf zurückzuführen sein, dass die Daten in Stapeln verarbeitet werden, oder auf die notwendigen Zwischenladeschritte zur Persistenz von Zwischenergebnissen. In einigen Geschäftsszenarien ist dies nicht akzeptabel. Z.B.: Datenströme, die von einem IoT-Dienst stammen, werden gespeichert und zu einem späteren Zeitpunkt als Stapel verarbeitet. Dadurch entsteht eine Verzögerung zwischen der Datengenerierung und den aktualisierten Erkenntnissen auf Dashboards.

Zukünftiger Stand der Datenpipeline-Architektur und wichtige Überlegungen

Mit den Fortschritten in der allgemeinen Softwarearchitektur, wie Microservice, Service Mesh usw., besteht ein Bedarf an einer ähnlichen Modernisierung. Ein wichtiger Ansatz ist die Verteilung der Datenpipeline für die Domänen anstelle einer zentralisierten Datenpipeline, die zum Aufbau mehrerer solcher Objekte beiträgt, was zu Data Mesh führt. Data Mesh zielt darauf ab, diese Herausforderungen zu bewältigen, indem ein anderer Ansatz gewählt wird:

  • Teams oder Pods, die auf die Bereitstellung funktionaler Merkmale ausgerichtet sind
  • Behandlung von Daten als Produkt (auffindbar, in sich geschlossen und sicher)
  • Polyglotte Speicherung und Kommunikation über Mesh erleichtern

Einen ersten Überblick über Data Mesh finden Sie hier.

Data Mesh kann auf verschiedene Weise implementiert werden. Ein effektives Muster ist die Verwendung eines ereignisgesteuerten Ansatzes und Event Storming zur Bildung von Datenprodukten. Ein Bereich kann aus einem oder mehreren Datenprodukten bestehen. Dies würde auch bedeuten, dass Daten redundant sein können und in einem oder mehreren Speichern persistiert werden. Dies wird als polyglotte Speicherung bezeichnet. Schließlich werden diese Datenprodukte über die Mesh-APIs konsumiert, die entsprechend den Anforderungen der jeweiligen Domäne entwickelt wurden.

Andere Architekturen sind Data Lake, Data Hub und Data Virtualization. Eine kurze Gegenüberstellung dieser Stile finden Sie hier.

Einige weitere Überlegungen, die man anstellen sollte:

  • Erleichterung des einfachen Datenzugriffs zu jeder Zeit durch Verwendung von Standardschnittstellen wie SQL. Technologien wie Snowflake, DBT, Materialize ermöglichen solche Echtzeit-Joins, die nicht nur BI ermöglichen, sondern auch beim Low-Level-Plotting der Pipeline helfen
  • Entwerfen Sie Datenpipelines so, dass sie robust und fehlertolerant sind, z. B. durch Checkpoints für Zwischenergebnisse, die für weitere Analysen benötigt werden
  • Nutzung verteilter, lose gekoppelter Verarbeitungseinheiten, skalierbar für den Einsatz polyglotter Technologien, z. B. Spark-Jobs oder Python-Modelle
  • Einsatz von Datenvirtualisierung zur Abmilderung von Engpässen, z. B. Verkürzung der Vorlaufzeit für die Datenverfügbarkeit
  • Effizienter Einsatz von DataOps zur Verfolgung und Bewertung der Leistung Ihrer Datenpipeline
Schlussfolgerung

Abschließend möchte ich mit einem Disclaimer schließen. Dieser Artikel soll nicht dazu dienen, die aktuellen ETL-Architekturen zu verwerfen. In der Tat ist ETL für bestimmte Anwendungsfälle wie Batch-Jobs immer noch eine sehr gute Option, die es zu übernehmen gilt. Vielmehr geht es hier um eine Erkenntnis, die man auf der Grundlage der verschiedenen Anforderungen gewinnen muss, und um die Erkundung weiterer Architekturen, die für den jeweiligen Bedarf gut geeignet sind. In diesem Artikel haben wir uns einige solcher Architekturen wie Data Mesh und die damit verbundenen Bereiche angesehen, die es zu berücksichtigen gilt.

Sie können gerne Ihre Kommentare, Ihr Feedback und Ihre Fragen zu diesem Artikel loswerden. Ich werde versuchen, jede dieser Fragen so schnell wie möglich zu beantworten.

Einschlägige Blogs

Data Warehouses, Data Lakes und Data Mesh verstehen: Eine Kurzfibel für den Geschäftserfolg
Vernetzte Fertigung: Verwischung der Grenzen mit IIOT
Europas IIoT-Geschichte: Von Inseln zu einer einheitlichen digitalen Einheit
Alles erforschen

Bleiben Sie mit uns auf dem Laufenden

Abonnieren Sie unsere Blogs

Salman Hamza Hussain, Praxisleiter, Digitale Architektur und Analytik
Salman Hamza Hussain

Praxisleiter, Digitale Architektur & Analytik

Salman Hamza Hussain ist ein erfahrener Software-Führer mit mehr als 20 Jahren Erfahrung in der Softwareentwicklung. Im Laufe seiner Karriere leitete er Initiativen zur digitalen Transformation in verschiedenen Branchen, darunter Industrieprodukte, Transport, medizinische Geräte und mehr. Er ist bekannt für sein Talent bei der Entwicklung und dem Ausbau digitaler Serviceangebote wie Managed Devices, Engineering Cloud und Intuitive Products.

Footer Navigation
  • Industrie
    • Mobilität
      • Luft- und Raumfahrttechnik
      • Automobilindustrie
      • Schienenverkehr
      • Lastkraftwagen und Geländewagen
    • Nachhaltigkeit
      • Diskrete Fertigung und Industrieprodukte
      • Prozessfertigung
    • Tech
      • Unterhaltungselektronik
      • MedTech
      • Medien und Unterhaltung
      • NexGen Comms
      • Halbleiter
      • Software und Plattformen
      • Öffentliche Infrastruktur & Smart Cities
  • Dienstleistungen
    • Digitale Technik
      • Künstliche Intelligenz
      • Cybersecure
      • Überwachung der Sicherheit
      • Sicherheitslösungen
      • Sicherheitsdienste
      • Immersive Erlebnisse
      • Industrie 4.0
      • Produktberatung
      • Nachhaltigkeitstechnik
      • Nachhaltige intelligente Welt
      • 5G
    • Produktentwicklung
      • CAE UND CFD
      • CAx-Automatisierung
      • Software-Entwicklung
      • Cloud-Technik
      • DevOps
      • Eingebettete Systeme
      • Technische Analytik
      • Integrierter Entwurf, Validierung und Prüfung
      • Labor als Dienstleistung
      • Lebensunterhalt
      • Prüfung
      • Prüfung und Validierung
      • Benutzererfahrung
      • VLSI
      • Sprachliche Innovationen
      • Wearables Technik
    • Fertigungstechnik
      • Beschleunigte Operationen
      • Agile Lieferkette
      • Technische Inhalte
      • Digitale Fabrik & Simulationen
      • Leitungserweiterung & Übertragung
      • Automatisierung der Fertigung
      • Entwicklung neuer Produkte
      • PLM in der Cloud
      • Anlagenplanung und Engineering
      • Beschaffung und Einkauf
    • Anlagenbau
      • CAPEX Projekt E/EPCM Dienstleistungen
      • Material- und Teilemanagement
      • Operative Exzellenz
      • Pflanzenerhaltung und Management
      • Beschaffung und Einkauf
      • Technik zur Einhaltung gesetzlicher Vorschriften
  • Engineering the change
  • Karriere
  • Engineer At Heart
  • Ressourcen
  • Lösungen
    • AiCE
    • AiKno®
    • AnnotAI
    • ARC
    • Asset Health Rahmenwerk
    • CHEST-rAi™
    • Vernetzte Sicherheit
    • EDGYneer
    • ESM
    • EvQUAL
    • FlyBoard®
    • Fusion
    • i-BEMS
    • LTTSiDriVe™
    • Nliten
    • nBOn
    • PLxAI
    • PSM
    • SafeX
    • Halbleiter-IP
    • Sensor- und Gateway-Lösung
    • UBIQWeise 2.0
    • TrackEi™
  • Über uns
    • Anerkennungen
    • Allianzen
    • Blogs
    • Direktorium
    • CSR
    • Veranstaltungen & Webinare
    • Innovationen
    • Investoren
    • Medienpaket
    • Nearshore-Zentren
    • Nachrichten und Medien
    • Qualitätsmanagement
    • Unternehmerische Nachhaltigkeit
    • Testimonials
LTTS
  •  Twitter
  •  LinkedIn
  •  YouTube
  •  Facebook
  •  Instagram
  • Urheberrecht & Nutzungsbedingungen
  • Datenschutz
  • Sitemap
  • info@ltts.com

© 2026 L&T Technology Services Limited. Alle Rechte vorbehalten.