Google Cloud Storage
Lösung
Xtract Universal
Produkt

Kunde & Herausforderung

METRO

METRO stand vor der Aufgabe, Non-SAP-Daten zentral und performant für Analytics und neue datengetriebene Anwendungen bereitzustellen. Ziel war ein Data Lake in der Google Cloud als zentrale Single Source of Truth. Mit Xtract Universal inklusive CDC-Komponente gelang die nahezu echtzeitfähige, inkrementelle Integration bei minimaler Belastung der Quellsysteme – und damit eine belastbare Grundlage für hohe Datenqualität, KI-Anwendungen und fundierte Entscheidungen.

Der in Düsseldorf beheimatete Konzern METRO ist mit ca. 15 Millionen Kunden in 34 Ländern aus dem Bereich Hotel, Restaurant und Catering (HoReCa) sowie unabhängigen Händlern eines der größten B2B-Großhandelsunternehmen der Welt. Die Kunden können ihre Waren entweder in einem der großen Märkte in ihrer Nähe oder per Lieferung erwerben – alles digital unterstützt und miteinander vernetzt. Parallel entsteht mit METRO MARKETS ein internationaler Online-Marktplatz für die Bedürfnisse von professionellen Kunden, der seit 2019 kontinuierlich wächst und expandiert.

METRO stand vor der Herausforderung einer stark heterogenen Systemlandschaft: Betriebs- und Finanzdaten lagen in verschiedenen Systemen vor – SAP FI- und BW-Daten waren von Store- und Head-Office-Informationen getrennt. Diese Trennung erschwerte die durchgängige Analyse und Nutzung der Unternehmensdaten – insbesondere vor dem Hintergrund moderner Anforderungen wie Big Data und Advanced Data Analytics.

Um dem entgegenzuwirken, hat METRO die Google Cloud als zentrale Plattform eingeführt. Kern der Lösung ist ein moderner Data Lake, der Daten aus SAP- und Non-SAP-Systemen zentral zusammenführt. Über BigQuery und weitere Analysewerkzeuge können diese Daten effizient ausgewertet werden. Ziel ist es nicht nur, klassische BI-Anwendungen zu verbessern, sondern auch operative Daten – etwa aus den Stores – mit Finanzdaten konsistent abzugleichen. Das verbessert die Datenqualität und schafft eine verlässliche Grundlage für unternehmerische Entscheidungen. Gleichzeitig legt die Cloud-native Architektur den Grundstein für Innovationen: Sie ermöglicht METRO den Einsatz von Machine Learning, automatisierten Reportings und intelligenten Empfehlungen.

Nach dem Aufbau des Data Lakes stellte sich jedoch die nächste Aufgabe: Wie lassen sich die SAP-Daten effizient und konsistent in diesen zentralen Data Lake integrieren?

„Um das passende Extraktionstool für die Integration der SAP-Datenquellen zu finden, haben wir im Rahmen einer Marktrecherche drei vielversprechende Anbieter identifiziert, deren Lösungen wir anschließend detailliert geprüft haben“, erläutert Brigitte Pasch, Accounting Solutions bei der METRO Digital GmbH. „Im Fokus standen die Performance bei der Datenextraktion, der Benutzerfreundlichkeit und schließlich auch die Kostenstruktur."

Graue Wolken mit rotem Streifen davor.

„Xtract Universal ist als Extraktionstool ein unverzichtbares Werkzeug, um zu gewährleisten, dass SAP-Daten in den Data Lake gelangen und dort mit Non-SAP-Daten verknüpft werden können. Es arbeitet verlässlich und stabil im Hintergrund und sorgt dafür, dass wir jederzeit auf eine belastbare und qualitativ hochwertige Datenbasis zugreifen können. Diese technische Grundlage ist essenziell, um datenbasierte Entscheidungen schnell, sicher und fundiert treffen zu können. Ohne diese Verlässlichkeit wäre unsere datengetriebene Strategie kaum umsetzbar.“

Brigitte Pasch, Accounting Solutions, METRO Digital GmbH

Lösung mit Xtract Universal

Entschieden hat sich METRO für Xtract Universal mit der CDC- (Change Data Capture)- Komponente. Diese ermöglicht eine performante und zuverlässige Übertragung von SAP-Datenänderungen in Echtzeit – ohne vollständige Replikation, sondern durch inkrementelles Laden. So werden nur neue oder geänderte Datensätze übertragen, was die Systemlast reduziert und eine effiziente Datenintegration in nachgelagerte Systeme sicherstellt.

Das ausschlaggebende Kriterium bei der Auswahl war die Performance, wie Brigitte Pasch berichtet: „Da wir nach und nach alle Länder anbinden, in denen METRO aktiv ist, erwarten wir ein entsprechend hohes tägliches Datenvolumen. Umso wichtiger war es für uns sicherzustellen, dass der laufende Tagesbetrieb nicht durch die teilweise nahezu in Echtzeit erfolgenden Datenextraktionen beeinträchtigt wird. Xtract Universal konnte hier mit seiner Leistungsfähigkeit klar überzeugen.“

Im Rahmen umfassender Operational Acceptance Tests (OAT) wurde geprüft, ob die Extraktionen technisch robust und performant abliefen und wie stark die Quellsysteme während der Datenübertragung belastet wurden. Nach vier Wochen hatte die Schnittstelle alle Tests erfolgreich bestanden. METRO startete den Data-Lake-Load zunächst mit zwei Ländern – Deutschland und Frankreich – und konnte dabei innerhalb von nur drei Tagen mehr als 10 TB an Daten in die Data Lakes laden. Aktuell werden täglich etwa 40 GB extrahiert, teilweise im 15-Minuten-Takt, da die Nutzenden der Daten eine nahezu Echtzeitverfügbarkeit erwarten und benötigen.

Für den initialen Know-how-Aufbau bei METRO im Umgang mit der Schnittstelle sorgte Theobald Software mit ein- bis zweistündigen, maßgeschneiderten Remote-Trainingssessions.

Mehr erfahren
Logo von Xtract Universal.

Ausblick

Die Reise ist für UiPath noch lange nicht zu Ende. Zukünftig sollen Funktionen wie inkrementelle Datenextraktionen sowie Scheduling – Funktionalitäten die Automatisierungsstrategie weiter vorantreiben.

„Wir sehen Theobald Software nicht nur als Technologieanbieter, sondern als strategischen Partner auf unserem Weg zur nächsten Generation der Prozessautomatisierung. Wir würden Theobald Software jederzeit weiterempfehlen – nicht nur wegen der Technologie, sondern auch wegen der partnerschaftlichen Zusammenarbeit“, sagt Jack Miller, Senior Product Manager bei UiPath.

Fazit: Ein starker Partner für starke Ergebnisse

SAP-Datenintegration muss kein Hindernis sein – mit der richtigen Technologie wird sie zum Enabler. Dank Theobald Software konnte UiPath seine SAP-Anbindung radikal vereinfachen, beschleunigen und professionalisieren – und schafft so die Basis für datengetriebene Prozessoptimierung auf höchstem Niveau.