.avif)
Kunde & Herausforderung
METRO stand vor der Aufgabe, Non-SAP-Daten zentral und performant für Analytics und neue datengetriebene Anwendungen bereitzustellen. Ziel war ein Data Lake in der Google Cloud als zentrale Single Source of Truth. Mit Xtract Universal inklusive CDC-Komponente gelang die nahezu echtzeitfähige, inkrementelle Integration bei minimaler Belastung der Quellsysteme – und damit eine belastbare Grundlage für hohe Datenqualität, KI-Anwendungen und fundierte Entscheidungen.
Der in Düsseldorf beheimatete Konzern METRO ist mit ca. 15 Millionen Kunden in 34 Ländern aus dem Bereich Hotel, Restaurant und Catering (HoReCa) sowie unabhängigen Händlern eines der größten B2B-Großhandelsunternehmen der Welt. Die Kunden können ihre Waren entweder in einem der großen Märkte in ihrer Nähe oder per Lieferung erwerben – alles digital unterstützt und miteinander vernetzt. Parallel entsteht mit METRO MARKETS ein internationaler Online-Marktplatz für die Bedürfnisse von professionellen Kunden, der seit 2019 kontinuierlich wächst und expandiert.
METRO stand vor der Herausforderung einer stark heterogenen Systemlandschaft: Betriebs- und Finanzdaten lagen in verschiedenen Systemen vor – SAP FI- und BW-Daten waren von Store- und Head-Office-Informationen getrennt. Diese Trennung erschwerte die durchgängige Analyse und Nutzung der Unternehmensdaten – insbesondere vor dem Hintergrund moderner Anforderungen wie Big Data und Advanced Data Analytics.
Um dem entgegenzuwirken, hat METRO die Google Cloud als zentrale Plattform eingeführt. Kern der Lösung ist ein moderner Data Lake, der Daten aus SAP- und Non-SAP-Systemen zentral zusammenführt. Über BigQuery und weitere Analysewerkzeuge können diese Daten effizient ausgewertet werden. Ziel ist es nicht nur, klassische BI-Anwendungen zu verbessern, sondern auch operative Daten – etwa aus den Stores – mit Finanzdaten konsistent abzugleichen. Das verbessert die Datenqualität und schafft eine verlässliche Grundlage für unternehmerische Entscheidungen. Gleichzeitig legt die Cloud-native Architektur den Grundstein für Innovationen: Sie ermöglicht METRO den Einsatz von Machine Learning, automatisierten Reportings und intelligenten Empfehlungen.
Nach dem Aufbau des Data Lakes stellte sich jedoch die nächste Aufgabe: Wie lassen sich die SAP-Daten effizient und konsistent in diesen zentralen Data Lake integrieren?
„Um das passende Extraktionstool für die Integration der SAP-Datenquellen zu finden, haben wir im Rahmen einer Marktrecherche drei vielversprechende Anbieter identifiziert, deren Lösungen wir anschließend detailliert geprüft haben“, erläutert Brigitte Pasch, Accounting Solutions bei der METRO Digital GmbH. „Im Fokus standen die Performance bei der Datenextraktion, der Benutzerfreundlichkeit und schließlich auch die Kostenstruktur."
Lösung mit Xtract Universal
Entschieden hat sich METRO für Xtract Universal mit der CDC- (Change Data Capture)- Komponente. Diese ermöglicht eine performante und zuverlässige Übertragung von SAP-Datenänderungen in Echtzeit – ohne vollständige Replikation, sondern durch inkrementelles Laden. So werden nur neue oder geänderte Datensätze übertragen, was die Systemlast reduziert und eine effiziente Datenintegration in nachgelagerte Systeme sicherstellt.
Das ausschlaggebende Kriterium bei der Auswahl war die Performance, wie Brigitte Pasch berichtet: „Da wir nach und nach alle Länder anbinden, in denen METRO aktiv ist, erwarten wir ein entsprechend hohes tägliches Datenvolumen. Umso wichtiger war es für uns sicherzustellen, dass der laufende Tagesbetrieb nicht durch die teilweise nahezu in Echtzeit erfolgenden Datenextraktionen beeinträchtigt wird. Xtract Universal konnte hier mit seiner Leistungsfähigkeit klar überzeugen.“
Im Rahmen umfassender Operational Acceptance Tests (OAT) wurde geprüft, ob die Extraktionen technisch robust und performant abliefen und wie stark die Quellsysteme während der Datenübertragung belastet wurden. Nach vier Wochen hatte die Schnittstelle alle Tests erfolgreich bestanden. METRO startete den Data-Lake-Load zunächst mit zwei Ländern – Deutschland und Frankreich – und konnte dabei innerhalb von nur drei Tagen mehr als 10 TB an Daten in die Data Lakes laden. Aktuell werden täglich etwa 40 GB extrahiert, teilweise im 15-Minuten-Takt, da die Nutzenden der Daten eine nahezu Echtzeitverfügbarkeit erwarten und benötigen.
Für den initialen Know-how-Aufbau bei METRO im Umgang mit der Schnittstelle sorgte Theobald Software mit ein- bis zweistündigen, maßgeschneiderten Remote-Trainingssessions.
Anforderung
Integration von Non-SAP-Daten in einen Data Lake in der Google Cloud, um sie zentral für Data Analytics und innovative Anwendungen nutzbar zu machen.
Lösung
Xtract Universal mit CDC-Komponente
Mehrwert
Zentrale und performante Integration von Non-SAP-Daten in eine Single Source of Truth, inkrementelle Datenübertragung in nahezu Echtzeit bei minimaler Belastung der Quellsysteme, benutzerfreundliche Schnittstelle mit schnellem Support und kontinuierlicher Weiterentwicklung, verbesserte Datenqualität als Grundlage für KI-Einsatz und datengetriebene Entscheidungen
„Die Schnittstelle ist insgesamt sehr einfach zu bedienen“, sagt Brigitte Pasch. „Unterstützung benötigen wir nur teilweise, etwa bei Upgrades der Quellsysteme. Sowohl unser Consultant als auch das Support-Team reagieren schnell und kompetent. Innerhalb von ein bis zwei Tagen lagen meist Lösungen vor.“
Positiv aufgefallen ist METRO auch die hohe Bereitschaft von Theobald Software, die Schnittstelle kontinuierlich weiterzuentwickeln. Dabei ging es nicht nur um Anpassungen, die allen Kunden zugutekommen, wie etwa Modifikationen an der CDC-Komponente zu Beginn des Projekts, sondern auch um individuelle Erweiterungen, die speziell auf METRO zugeschnitten sind.
Die Strategie von METRO setzt auf datengetriebene Unternehmenssteuerung. Voraussetzung dafür ist die Verfügbarkeit relevanter Daten in einer Single Source of Truth. Xtract Universal stellt sicher, dass SAP-Daten effizient und zuverlässig in den Data Lake als zentrale Datenquelle integriert werden.
„Durch die Möglichkeit, SAP- und Non-SAP-Daten zu verknüpfen und auszuwerten, lässt sich die Datenqualität kontinuierlich prüfen und verbessern“, erklärt Brigitte Pasch. Das wiederum ist essenziell, um die Potenziale generativer KI-Technologien im Rahmen unserer Digitalisierungsstrategie noch besser nutzen zu können.“
Ein konkretes Beispiel für den Nutzen dieser Integration bietet das Finance Governance Competence Center bei METRO: Es wertet die Daten aus, um die Übereinstimmung der Bestände zwischen Lager- und Finanzsystemen systemseitig zu prüfen. Dabei werden etwaige Abweichungen identifiziert und den einzelnen Ländern spezifische Hinweise gegeben, damit sie Unstimmigkeiten erkennen und gezielt korrigierend eingreifen können.
Aktuell werden die Daten aus den SAP-Systemen in Polen und Spanien per Xtract Universal in den Data Lake übertragen. „Die Performance von Xtract Universal ist dabei nach wie vor beeindruckend. Unser Techniker bekommt jedes Mal strahlende Augen, wenn er sieht, mit welcher Geschwindigkeit die Daten extrahiert werden“, so Brigitte Pasch abschließend.
In den kommenden Monaten wird sukzessive die gesamte METRO-Welt aufgeschaltet. Die Datenmenge, die dann mit Xtract Universal täglich verarbeitet wird, schätzt Brigitte Pasch auf das Zehnfache des aktuellen Volumens.
Ausblick
Die Reise ist für UiPath noch lange nicht zu Ende. Zukünftig sollen Funktionen wie inkrementelle Datenextraktionen sowie Scheduling – Funktionalitäten die Automatisierungsstrategie weiter vorantreiben.
„Wir sehen Theobald Software nicht nur als Technologieanbieter, sondern als strategischen Partner auf unserem Weg zur nächsten Generation der Prozessautomatisierung. Wir würden Theobald Software jederzeit weiterempfehlen – nicht nur wegen der Technologie, sondern auch wegen der partnerschaftlichen Zusammenarbeit“, sagt Jack Miller, Senior Product Manager bei UiPath.
Fazit: Ein starker Partner für starke Ergebnisse
SAP-Datenintegration muss kein Hindernis sein – mit der richtigen Technologie wird sie zum Enabler. Dank Theobald Software konnte UiPath seine SAP-Anbindung radikal vereinfachen, beschleunigen und professionalisieren – und schafft so die Basis für datengetriebene Prozessoptimierung auf höchstem Niveau.



