Die Bosch Mobility Solutions zieht durch die Analyse vergangener Transaktionsdaten Rückschlüsse auf zukünftige Bestellvolumen. Die hierfür entwickelte Forecasting-Lösung muss dabei mit einer stetig wachsenden Menge an Daten aus verschiedensten Quellsystemen umgehen. In der ersten Folge des TDWI StackTalks gibt Jakob Wolf einen Einblick in den Aufbau und die Evolution der hierfür zugrunde liegenden technischen Lösung.
Die Herausforderung: Wachsende Datenmengen und manuelle Prozesse
Die stetig zunehmenden Datenquellen sowie moderne Auswertungsmöglichkeiten bieten Unternehmen viele neue Möglichkeiten im Bereich des Forecastings – also der Prognose bestimmter Werte auf Basis einer mathematischen Auswertung von Daten aus der Vergangenheit. Allerdings bringen die großen Datenmengen und die teils anspruchsvollen neuen Berechnungsmethoden existierende Forecasting-Ansätze, die oft noch auf traditionellen Tabellenkalkulationen basieren, schnell an ihre Grenzen. Vor einer ähnlichen Herausforderung stand auch die die Bosch Mobility Solutions. Das Ziel des Forecastings ist hier anhand vergangener Transaktionsdaten Rückschlüsse auf zukünftige Bestellvolumen abzuleiten. Hierfür müssen Daten aus verschiedenen operativen Systemen integriert, analysiert und in verständlicher Form an die zuständigen Mitarbeiter kommuniziert werden.
Bisher wurden hierfür Daten aus den Quellsystemen exportiert, mit Skripten aufbereitet und dann von Analysten manuell ausgewertet. Die manuellen Schritte innerhalb des Prozesses waren hierbei aufwändig und die Aktualisierung von Daten dauerte dementsprechend lange. Zudem waren die Auswertungsmöglichkeiten technologisch limitiert, da etwa die eingesetzten Excel-Tabellen nicht auf die Verarbeitung großer Datenmengen ausgelegt waren.
Die Lösung: Skalierbare Datenplattform und Automatisierung
Vor diesem Hintergrund erarbeitete die Bosch Mobility Solutions eine neue Datenarchitektur zur Abbildung eines effizienteren Forecasting-Prozesses. Das Herz der neuen Lösung ist hierbei ein Data Lake auf Basis einer Oracle-Datenbank, die als zentraler Speicher aller Quelldaten dient und damit den bisherigen dateibasierten Prozess ablöst. Für die Verarbeitung der großen Datenmengen wurde zudem ein Verarbeitungs-Cluster aufgebaut, in welchem die oft sehr komplexen Berechnungen stattfinden. Mit dieser neuen Struktur konnte ein großer Teil des Prozesses automatisiert werden und es wurde eine Möglichkeit geschaffen mit den stetig wachsenden Datenmengen umzugehen.
Der Ausblick: Skalierung und Integration in operative Prozesse
Aber schon im aktuellen Pilot-Betrieb mit sechs ausgewählten Werken zeigt sich, dass die Berechnung der Vorhersagen enorme Ressourcen erfordern. Um die geplante Skalierung auf dutzende Werke zu ermöglichen, ist in Zukunft zudem eine Migration des Verarbeitungs-Clusters in eine Cloud-Umgebung geplant. Des Weiteren ermöglicht der nun sehr automatisierte Prozess neben einer deskriptiven Auswertung der Ergebnisse auch eine stärkere Integration des Forecastings in Geschäftsprozesse des Unternehmens, bspw. durch ein Rückspielen der Ergebnisse in operative Systeme des Einkaufs oder des Controllings.
Schauen Sie jetzt TDWI StackTalk Episode 1 kostenfrei auf YouTube:
https://www.youtube.com/watch?v=5F_nDAQHyd0
Architektur-Skizze der Lösung: https://miro.com/app/board/o9J_leMW6XQ=/
Sie möchten auch gerne eine Lösung im StackTalk präsentieren? Nehmen Sie gerne Kontakt mit uns auf unter stacktalk@tdwi.eu.
Was ist der TDWI StackTalk?
Der TDWI StackTalk ist ein regelmäßiger VideoCast in dem Experten und Praktiker echte Analytics-Lösungen vorstellen und diskutieren. Ziel ist es hierbei Herausforderungen bei der Planung und Umsetzung anspruchsvoller Analytics-Lösungen zu diskutieren und einen Einblick zu erhalten was in der Praxis funktioniert.
Schreibe einen Kommentar