Big Data Einsatz in der Intralogistik von SPAR

2016 nahm das neue vollautomatisierte Lager der Spar Warenhandels GmbH in Ebergassing den Betrieb auf. Als die Performance die hohen Erwartungen nicht erfüllte, waren die Gründe dafür anfangs rätselhaft. Der Einsatz einer Big-Data-Analyse im Rahmen eines gemeinsamen Projekts mit Fraunhofer Austria konnte die Ursachen identifizieren. Am Lagerstandort ist man mit den Ergebnissen des Forschungsprojekts sehr zufrieden.
Die Spar Warenhandels GmbH hat sich mit 1.560 Standorten, über 44.700 Mitarbeiterinnen und Mitarbeitern und einem Umsatz von über 15 Milliarden Euro von einem österreichischen Handelsunternehmen zu einem Konzern von mitteleuropäischem Rang entwickelt. Dabei setzt Spar nicht nur auf innovative Produkte, sondern auch auf topmoderne Logistik. Das neue Lager in Ebergassing, das von der Österreichischen Gesellschaft für Nachhaltige Immobilienwirtschaft ÖGNI mit dem Platin-Zertifikat ausgezeichnet wurde und somit das erste Logistikgroßprojekt Österreichs mit ÖGNI-Zertifikat darstellt, ist beispielhaft für ein Logistikzentrum auf dem allerneusten Stand. Gemeinsam mit der Regionalzentrale St. Pölten stellt das für den Einsatz modernster energieeffizienter Technologien und Innovationen bei der technischen Gebäudeausstattung als Best Practise-Beispiel gelobte Lager Ebergassing die Versorgung von Wien, Niederösterreich und dem nördlichen Burgenland sicher. Von Anfang an setzte man in Ebergassing auf hochgradige Automatisierung und modernste Technik. Verschiedenste Lager-, Kommissionier- und Fördertechniken sind im Einsatz, 150 Mitarbeiterinnen und Mitarbeiter arbeiten in neu geschaffenen Jobs in einer besonders ergonomischen und schonenden Umgebung. Nach einigen Monaten des Betriebs zeigte sich allerdings, dass bei der Effizienz noch Potenzial vorhanden war. 2017 startete daher das gemeinsame Projekt mit Fraunhofer Austria mit dem Ziel, dieses Potenzial auszuschöpfen.
Gute Daten – präzise Diagnose
Um in einer hochkomplexen Umgebung wie einem Zentrallager, in dem verschiedenste Technologien im Einsatz stehen, Potenziale erfolgreich zu identifizieren, ist eine gute Datenbasis das Um und Auf. Nur mit einer ausreichenden Menge an Daten, die in ausreichender Qualität über einen passenden Zeitraum erhoben wurden, lassen sich die Abläufe visualisieren und Handlungsanweisungen ableiten. Daten aus unterschiedlichen Quellen müssen dabei zu einem einheitlichen Datensatz zusammengeführt werden – eine Aufgabe, welche die Expertise von Datenwissenschaftlern erfordert. »Stehen nur Daten aus einem kleinen Zeitraum wie zum Beispiel einigen Wochen zur Verfügung, so lassen sich Schwankungen sowie der saisonale Verlauf der Auftragsstruktur nicht ausreichend abbilden. Automatisierungslösungen müssen aber immer ganz genau an die Auftragsstruktur angepasst sein. Eine erfolgreiche Optimierung lässt sich also logischerweise nur dann umsetzen, wenn man mindestens ein ganzes Jahr lang Daten gesammelt hat«, erklärt Martin Riester, Leiter der Arbeitsgruppe Logistiksysteme und Transport. Das Forscherinnen- und Forscher-Team von Fraunhofer Austria begann seine Analyse daher mit einer umfassenden Datenerhebung, die sich über mittlerweile 90 Wochen erstreckte. 85 Millionen Buchungszeilen standen schlussendlich zur Verfügung, auf deren Basis die Big-Data-Analyse ihre vollen Möglichkeiten entfalten konnte.
Weit über Tabellenkalkulation hinaus
Expertise war dann vor allem bei der Bearbeitung der enormen Datenmengen gefragt. Berechnungen mit Tabellenkalkulationsprogrammen sind bei der beträchtlichen Menge an Buchungszeilen natürlich nicht mehr möglich – stattdessen setzte das Forscherteam Datenbanken und Statistiksoftware ein. Auch die strukturierte Speicherung der Datenmengen erfordert Know-how und Ressourcen. »Wir haben für Spar einen Server zur Verfügung gestellt, auf dem die Daten sicher gespeichert werden können«, erklärt Projektleiter Philip Ramprecht. Um immer topaktuelle Simulationen abliefern zu können, aktualisiert sich das System in regelmäßigen Abständen selbst, sodass wöchentlich neue Daten hinzukommen und der Datenschatz weiterhin wächst. Diese neu hinzugefügten Daten werden in den Berechnungen berücksichtigt, ohne dass händisches Nachbessern nötig ist.
Eine besondere Herausforderung stellte die Integration dar, also das Zusammenführen von Daten aus den 14 unterschiedlichen Quellen mit unterschiedlichen Formaten. Auch hier konnten die Forscher ihre Expertise gut zum Einsatz bringen und aus den etwa 2500 Einzeldateien einen umfassenden Datensatz schaffen, der eine eingehende Analyse möglich macht – mit großem Erfolg, ließ sich doch die Anzahl sowohl der internen als auch der externen Warentransporte deutlich reduzieren. Auch das zweite Spar-Lager im Osten Österreichs, die Regionalzentrale in St. Pölten, wurde in die Simulationen miteinbezogen. »Wir haben uns genau angesehen, welche Produktgruppe zu welcher Lagerleistung passt und wie wir die bestehende Technik maximal sinnvoll einsetzen können«, erklärt Philip Ramprecht.
Erkenntnis durch Visualisierung
Für die Optimierungsrechnung hat das Fraunhofer-Forscherteam ein userfreundliches Interface geschaffen, das die Daten auch visuell aufbereitet. »Visualisierung macht die Daten erst für den Menschen verständlich«, erklärt Martin Riester. »Uns war es daher wichtig, der Lagerleitung ein Tool in die Hand zu geben, mit dem sofort ersichtlich ist, wie die Situation aussieht, was die optimale Vorgehensweise wäre und was ein neuer Auftrag für die jeweilige Performance bedeutet.«. »Wir sind mit den Ergebnissen dieses Projekts sehr zufrieden. Die Kosten pro Pick konnten deutlich gesenkt werden, die Anzahl Warentransporte wurde reduziert, und die umgesetzten Handlungsempfehlungen zeigen bereits Erfolg«, freut sich SPAR-Logistikleiter Prok. Franz Zagler.