Zum Hauptinhalt springen
Startseite

Suche

 
 
 
Header (Main)
Industrie
Mobilität Mobilität
Automobilindustrie
Elektrifizierung von Fahrzeugen

Elektrifizierung von Fahrzeugen

Erkunden Sie
Luft- und Raumfahrttechnik
Optimierte Flugzeugausfallzeiten und Gemeinkosten für eine führende globale Fluggesellschaft mit automatisierten Analysen

Optimierte Flugzeugausfallzeiten und Gemeinkosten für eine führende globale Fluggesellschaft mit automatisierten Analysen

Erkunden Sie
Schienenverkehr
Inspektionssystem für Eisenbahnschienen

Inspektionssystem für Eisenbahnschienen

Erkunden Sie
Kommerzielle Fahrzeuge und Wohnmobile
Der Weg zur autonomen Mobilität

Der Weg zur autonomen Mobilität

Erkunden Sie
Off-Highway-Fahrzeuge
Auf dem Weg zur vernetzten Mobilität: Eine ER&D-Perspektive

Auf dem Weg zur vernetzten Mobilität: Eine ER&D-Perspektive

Erkunden Sie
Wie KI die nächste Ära der Mobilität antreibt

Wie KI die nächste Ära der Mobilität antreibt

Erkunden Sie
Nachhaltigkeit Nachhaltigkeit
Diskrete Fertigung und Industrieprodukte
Gebäudetechnik und intelligente Infrastruktur
Elektrische Leistung und Steuerungen
Industrielle Maschinen
Erschließen Sie die Zukunft der Fertigung mit Fabriken der Zukunft

Erschließen Sie die Zukunft der Fertigung mit Fabriken der Zukunft

Erkunden Sie
Prozessfertigung
Öl und Gas
Chemikalien
FMCG
ISG-Anbieter-Linse™ 2024: Dienstleistungen und Lösungen für die Öl- und Gasindustrie

ISG-Anbieter-Linse™ 2024: Dienstleistungen und Lösungen für die Öl- und Gasindustrie

Erkunden Sie
Agentische KI: Die transformative KI, auf die Unternehmen gewartet haben?

Agentische KI: Die transformative KI, auf die Unternehmen gewartet haben?

Erkunden Sie
Tech Tech
HiTech
Unterhaltungselektronik
Medien und Unterhaltung
NexGen Comms
Halbleiter
L&T Technology Services sichert sich als strategischer Partner eines globalen Netzwerkanbieters einen 50-Millionen-Dollar-Vertrag

L&T Technology Services sichert sich als strategischer Partner eines globalen Netzwerkanbieters einen 50-Millionen-Dollar-Vertrag

Erkunden Sie
MedTech
Revolutionierung der Endoskopie durch softwaredefinierte Innovation in Zusammenarbeit mit NVIDIA

Revolutionierung der Endoskopie durch softwaredefinierte Innovation in Zusammenarbeit mit NVIDIA

Erkunden Sie
Öffentliche Infrastruktur & Smart Cities
Projekt für integrierte intelligente Überwachung

Projekt für integrierte intelligente Überwachung

Erkunden Sie
Software und Plattformen
LTTS und SymphonyAI bieten KI-basierte Transformation

LTTS und SymphonyAI bieten KI-basierte Transformation

Erkunden Sie
Dienstleistungen
Digitale Technik & Beratung Digitale Technik & Beratung
Künstliche Intelligenz
Cybersecure
Überwachung der Sicherheit
Sicherheitsdienste
Sicherheitslösungen
Immersive Erlebnisse
Industrie 4.0
Produktberatung
Nachhaltigkeitstechnik
Nachhaltige intelligente Welt
5G
Beschleunigung der Produktentwicklungszyklen mit (KI)

Beschleunigung der Produktentwicklungszyklen mit KI

Erkunden Sie
Produktentwicklung Produktentwicklung
Software-Entwicklung
Cloud-Technik
DevOps
Technische Analytik
Immersive Erlebnisse
Unterhalt & Wartung
Benutzererfahrung
Sprachliche Innovationen
Eingebettete Technik
Eingebettete Systeme
Lebensunterhalt
VLSI
Wearables Technik
Mechanische Konstruktion
CAE UND CFD
CAx-Automatisierung
Prüfung und Validierung
Integrierter Entwurf, Validierung und Prüfung
Labor als Dienstleistung
Prüfung
Ermöglichung eines Paradigmenwechsels beim Testen Eine LTTS-KI-Perspektive

Ermöglichung eines Paradigmenwechsels beim Testen Eine LTTS-KI-Perspektive

Erkunden Sie
Fertigungstechnik Fertigungstechnik
Intelligente Fertigung
Anlagenplanung & Engineering
Beschleunigte Operationen
Digitale Fabrik & Simulationen
Technik der Versorgungskette
Beschaffung und Einkauf
Herstellung und Planung
Beschleunigte Operationen
Digitale Fabrik & Simulationen
Leitungserweiterung & Übertragung
Automatisierung der Fertigung
Entwicklung neuer Produkte
Anlagenplanung & Engineering
PLM in der Cloud
Ausführung der Produktion
Agile Lieferkette
Inhaltliche Gestaltung
Material- und Teilemanagement
Beschaffung und Einkauf
Künstliche Intelligenz im Supply Chain Management

Künstliche Intelligenz im Supply Chain Management

Erkunden Sie
Anlagenbau Anlagenbau
CAPEX Projekt E/EPCM Dienstleistungen
Operative Exzellenz
Pflanzenerhaltung und Management
Material- und Teilemanagement
Technik zur Einhaltung gesetzlicher Vorschriften
Die Ansicht der ARC Advisory Group über die Digital Twin Solution von LTTS

Die Ansicht der ARC Advisory Group über die Digital Twin Solution von LTTS

Erkunden Sie
Lösungen
AiCE
AiKno®
AnnotAI
ARC
Asset Health Rahmenwerk
CHEST-rAi™
Vernetzte Sicherheit
EDGYneer
ESM
EvQUAL
FlyBoard®
Fusion
i-BEMS
Nliten
nBOn
PSM
SafeX
Halbleiter-IP
Sensor- und Gateway-Lösung
UBIQWeise 2.0
Einblicke
Analystenberichte
Blogs
Broschüren
Fallstudien
eBooks
Veranstaltungen & Webinare
Podcasts
PoVs
Whitepapers
Karriere
Über uns
Anerkennungen
Allianzen
Analysten
Direktorium
CSR
Engineer At Heart
Engineering the change
Investoren
Nearshore-Zentren
Nachrichten und Medien
Qualitätsmanagement
Unternehmerische Nachhaltigkeit
Testimonials
Kontakt
Header (Secondary)
Search
Mail
  • English
  • Deutsch
  • 日本語
Kontakt

Brotkrümel

  1. Startseite
  2. Blogs
  3. Entwicklung von Datenpipelines

Entwicklung von Datenpipelines

Salman Hamza Hussain, Praxisleiter, Digitale Architektur und Analytik
Salman Hamza Hussain

Praxisleiter, Digitale Architektur & Analytik

Veröffentlicht am11 Feb 2022

min lesen

424

Ansichten

Entwicklung von Datenpipelines

Wenn in der Vergangenheit Daten aktualisiert werden mussten, trugen die Mitarbeiter sie manuell in eine Datentabelle ein. Dies führte zu manuellen Eingabefehlern und Zeitverzögerungen. Da dies hauptsächlich in Stapeln, meist täglich, geschah, gab es eine beträchtliche Vorlaufzeit zwischen dem Eintreten des Ereignisses und seiner Meldung. Die Entscheidungsträger mussten mit dieser Zeitspanne leben und trafen ihre Entscheidungen oft auf der Grundlage veralteter Daten.

In der heutigen Zeit sind Echtzeit-Updates und -Einblicke eine alltägliche Anforderung. Der Aufbau von Datenpipelines diente im Wesentlichen dazu, Daten aus einer Ebene (Transaktions- oder Ereignisquellen) in Data Warehouses oder Data Lakes zu verschieben, aus denen Erkenntnisse gewonnen werden.

Es stellt sich die Frage, ob wir angesichts dieser Fortschritte bei den Anforderungen zur Unterstützung von Echtzeiteinblicken und anderen Qualitätsanforderungen mit herkömmlichen Architekturen oder gängigen ETL-Ansätzen effizient arbeiten können. Lassen Sie es uns herausfinden!

Aktueller Stand der Datenpipeline-Architekturen und Herausforderungen

Datenpipelines sind für jedes Programm zur Produktdigitalisierung wichtig. In der zweiten Hälfte dieses Jahrzehnts wurden wir Zeuge, wie ein immenser Fokus auf digitale Architekturen und Technologien gelegt wurde. Die Einführung von Microservices und Containerisierung zeigt eine starke Wachstumskurve, die diese Tatsache belegt. Wir sehen auch, dass technologische Fortschritte angewandt werden, aber auf traditionelle "OLTP" oder Kerndienste/Geschäftslogik beschränkt sind.

Anders sieht es aus, wenn man die Muster in den Datenpipelines oder auf der "OLAP"-Seite der Dinge betrachtet. Wir beobachten eine begrenzte Anpassung an die technologische Entwicklung im Bereich der Kerndienste. Die meisten gängigen Datenpipelines werden entweder mit traditionellen ETL- oder ELTL-Architekturen erstellt. Dies sind beliebte De-facto-Ansätze der Branche. Sie lösen zwar das eigentliche Problem, d. h. die Gewinnung verwertbarer Erkenntnisse, sind aber auch mit gewissen Einschränkungen verbunden. Lassen Sie uns einige dieser Herausforderungen untersuchen:

Abgeschottete Teams: Der ETL-Prozess erfordert Fachwissen oder Fähigkeiten bei der Datenextraktion oder -migration. Dies könnte bedeuten, dass das technische Team mehrstufig oder so strukturiert ist, dass es sich mit den technischen Nuancen des Prozesses befasst. Z.B.: Ein ETL-Ingenieur weiß oft nicht, welche Erkenntnisse abgeleitet werden und wie sie von den Endbenutzern genutzt werden.

Begrenzte Manifestation: Das Implementierungsteam versucht nun, jeden gewünschten Anwendungsfall in die vorgegebene Struktur oder das Muster einzupassen. Obwohl dies nicht immer ein Problem oder ein Fehler ist, kann es manchmal ineffizient sein. Z.B.: Wie extrahiert man aus einer unstrukturierten Quelle und wie geht man mit der Modellierung des dazwischenliegenden Persistenzschemas um?

Latenzzeit: Die Zeit, die für das Extrahieren, Transformieren und Laden der Daten benötigt wird, führt oft zu Verzögerungen. Diese Verzögerung könnte darauf zurückzuführen sein, dass die Daten in Stapeln verarbeitet werden, oder auf die notwendigen Zwischenladeschritte zur Persistenz von Zwischenergebnissen. In einigen Geschäftsszenarien ist dies nicht akzeptabel. Z.B.: Datenströme, die von einem IoT-Dienst stammen, werden gespeichert und zu einem späteren Zeitpunkt als Stapel verarbeitet. Dadurch entsteht eine Verzögerung zwischen der Datengenerierung und den aktualisierten Erkenntnissen auf Dashboards.

Zukünftiger Stand der Datenpipeline-Architektur und wichtige Überlegungen

Mit den Fortschritten in der allgemeinen Softwarearchitektur, wie Microservice, Service Mesh usw., besteht ein Bedarf an einer ähnlichen Modernisierung. Ein wichtiger Ansatz ist die Verteilung der Datenpipeline für die Domänen anstelle einer zentralisierten Datenpipeline, die zum Aufbau mehrerer solcher Objekte beiträgt, was zu Data Mesh führt. Data Mesh zielt darauf ab, diese Herausforderungen zu bewältigen, indem ein anderer Ansatz gewählt wird:

  • Teams oder Pods, die auf die Bereitstellung funktionaler Merkmale ausgerichtet sind
  • Behandlung von Daten als Produkt (auffindbar, in sich geschlossen und sicher)
  • Polyglotte Speicherung und Kommunikation über Mesh erleichtern

Einen ersten Überblick über Data Mesh finden Sie hier.

Data Mesh kann auf verschiedene Weise implementiert werden. Ein effektives Muster ist die Verwendung eines ereignisgesteuerten Ansatzes und Event Storming zur Bildung von Datenprodukten. Ein Bereich kann aus einem oder mehreren Datenprodukten bestehen. Dies würde auch bedeuten, dass Daten redundant sein können und in einem oder mehreren Speichern persistiert werden. Dies wird als polyglotte Speicherung bezeichnet. Schließlich werden diese Datenprodukte über die Mesh-APIs konsumiert, die entsprechend den Anforderungen der jeweiligen Domäne entwickelt wurden.

Andere Architekturen sind Data Lake, Data Hub und Data Virtualization. Eine kurze Gegenüberstellung dieser Stile finden Sie hier.

Einige weitere Überlegungen, die man anstellen sollte:

  • Erleichterung des einfachen Datenzugriffs zu jeder Zeit durch Verwendung von Standardschnittstellen wie SQL. Technologien wie Snowflake, DBT, Materialize ermöglichen solche Echtzeit-Joins, die nicht nur BI ermöglichen, sondern auch beim Low-Level-Plotting der Pipeline helfen
  • Entwerfen Sie Datenpipelines so, dass sie robust und fehlertolerant sind, z. B. durch Checkpoints für Zwischenergebnisse, die für weitere Analysen benötigt werden
  • Nutzung verteilter, lose gekoppelter Verarbeitungseinheiten, skalierbar für den Einsatz polyglotter Technologien, z. B. Spark-Jobs oder Python-Modelle
  • Einsatz von Datenvirtualisierung zur Abmilderung von Engpässen, z. B. Verkürzung der Vorlaufzeit für die Datenverfügbarkeit
  • Effizienter Einsatz von DataOps zur Verfolgung und Bewertung der Leistung Ihrer Datenpipeline
Schlussfolgerung

Abschließend möchte ich mit einem Disclaimer schließen. Dieser Artikel soll nicht dazu dienen, die aktuellen ETL-Architekturen zu verwerfen. In der Tat ist ETL für bestimmte Anwendungsfälle wie Batch-Jobs immer noch eine sehr gute Option, die es zu übernehmen gilt. Vielmehr geht es hier um eine Erkenntnis, die man auf der Grundlage der verschiedenen Anforderungen gewinnen muss, und um die Erkundung weiterer Architekturen, die für den jeweiligen Bedarf gut geeignet sind. In diesem Artikel haben wir uns einige solcher Architekturen wie Data Mesh und die damit verbundenen Bereiche angesehen, die es zu berücksichtigen gilt.

Sie können gerne Ihre Kommentare, Ihr Feedback und Ihre Fragen zu diesem Artikel loswerden. Ich werde versuchen, jede dieser Fragen so schnell wie möglich zu beantworten.

Einschlägige Blogs

Data Warehouses, Data Lakes und Data Mesh verstehen: Eine Kurzfibel für den Geschäftserfolg
Vernetzte Fertigung: Verwischung der Grenzen mit IIOT
Europas IIoT-Geschichte: Von Inseln zu einer einheitlichen digitalen Einheit
Alles erforschen

Bleiben Sie mit uns auf dem Laufenden

Abonnieren Sie unsere Blogs

Salman Hamza Hussain, Praxisleiter, Digitale Architektur und Analytik
Salman Hamza Hussain

Praxisleiter, Digitale Architektur & Analytik

Salman Hamza Hussain ist ein erfahrener Software-Führer mit mehr als 20 Jahren Erfahrung in der Softwareentwicklung. Im Laufe seiner Karriere leitete er Initiativen zur digitalen Transformation in verschiedenen Branchen, darunter Industrieprodukte, Transport, medizinische Geräte und mehr. Er ist bekannt für sein Talent bei der Entwicklung und dem Ausbau digitaler Serviceangebote wie Managed Devices, Engineering Cloud und Intuitive Products.

Footer Navigation
  • Industrie
    • Mobilität
      • Luft- und Raumfahrttechnik
      • Automobilindustrie
      • Schienenverkehr
      • Lastkraftwagen und Geländewagen
    • Nachhaltigkeit
      • Diskrete Fertigung und Industrieprodukte
      • Prozessfertigung
    • Tech
      • Unterhaltungselektronik
      • MedTech
      • Medien und Unterhaltung
      • NexGen Comms
      • Halbleiter
      • Software und Plattformen
      • Öffentliche Infrastruktur & Smart Cities
  • Dienstleistungen
    • Digitale Technik
      • Künstliche Intelligenz
      • Cybersecure
      • Überwachung der Sicherheit
      • Sicherheitslösungen
      • Sicherheitsdienste
      • Immersive Erlebnisse
      • Industrie 4.0
      • Produktberatung
      • Nachhaltigkeitstechnik
      • Nachhaltige intelligente Welt
      • 5G
    • Produktentwicklung
      • CAE UND CFD
      • CAx-Automatisierung
      • Software-Entwicklung
      • Cloud-Technik
      • DevOps
      • Eingebettete Systeme
      • Technische Analytik
      • Integrierter Entwurf, Validierung und Prüfung
      • Labor als Dienstleistung
      • Lebensunterhalt
      • Prüfung
      • Prüfung und Validierung
      • Benutzererfahrung
      • VLSI
      • Sprachliche Innovationen
      • Wearables Technik
    • Fertigungstechnik
      • Beschleunigte Operationen
      • Agile Lieferkette
      • Technische Inhalte
      • Digitale Fabrik & Simulationen
      • Leitungserweiterung & Übertragung
      • Automatisierung der Fertigung
      • Entwicklung neuer Produkte
      • PLM in der Cloud
      • Anlagenplanung und Engineering
      • Beschaffung und Einkauf
    • Anlagenbau
      • CAPEX Projekt E/EPCM Dienstleistungen
      • Material- und Teilemanagement
      • Operative Exzellenz
      • Pflanzenerhaltung und Management
      • Beschaffung und Einkauf
      • Technik zur Einhaltung gesetzlicher Vorschriften
  • Engineering the change
  • Karriere
  • Engineer At Heart
  • Ressourcen
  • Lösungen
    • AiCE
    • AiKno®
    • AnnotAI
    • ARC
    • Asset Health Rahmenwerk
    • CHEST-rAi™
    • Vernetzte Sicherheit
    • EDGYneer
    • ESM
    • EvQUAL
    • FlyBoard®
    • Fusion
    • i-BEMS
    • LTTSiDriVe™
    • Nliten
    • nBOn
    • PLxAI
    • PSM
    • SafeX
    • Halbleiter-IP
    • Sensor- und Gateway-Lösung
    • UBIQWeise 2.0
  • Über uns
    • Anerkennungen
    • Allianzen
    • Blogs
    • Direktorium
    • CSR
    • Veranstaltungen & Webinare
    • Investoren
    • Medienpaket
    • Nearshore-Zentren
    • Nachrichten und Medien
    • Qualitätsmanagement
    • Unternehmerische Nachhaltigkeit
    • Testimonials
LTTS
  •  Twitter
  •  LinkedIn
  •  YouTube
  •  Facebook
  •  Instagram
  • Urheberrecht & Nutzungsbedingungen
  • Datenschutz
  • Sitemap
  • info@ltts.com

© 2025 L&T Technology Services Limited. Alle Rechte vorbehalten.