eCommerce / Datenmanagement

Big Data? Erstmal SMALL Data beherrschen!

FEBRUAR 2018 | Die Möglichkeiten von Big Data Anwendungen sind sicherlich (fast) grenzenlos – allerdings ist in der Praxis zu beobachten, dass die Projekte häufig aufwändig und teuer sind. Ein sechs-stelliger Betrag ist schnell ausgegeben. Wenn dann die zu Grunde liegenden Use-Cases, Fragestellungen und Ziele nicht klar sind, ist der Nutzen absehbar. Für mich stellt sich die Frage, warum man mit den großen Themen beginnt, wenn die Potenziale von sauberen Daten-Analysen im Alltagsgeschäft bisher gar nicht ausgeschöpft sind? Warum sollte man in teure Tools investieren, wenn man mit Excel schon viel Potenzial heben kann? Daher folgen hier ein paar Anregungen aus dem Bereich eCommerce / Online-Shop.

Aus Sicht eines Online-Shops sind die Produktdaten der eigenen Angebote eines der wichtigsten Einsatzfaktoren. Inklusive Beschreibung, Bilddaten, Verschlagwortung, Übersetzungen etc. kann ein einzelner Artikel (SKU) schnell im Bereich von EUR 300 liegen. Bei einem Artikel-Bestand von nur 1 000 Artikeln sind das 300 000 Euro, häufig Millionenwerte! Demgegenüber haben die von mir beobachteten Systemlandschaften aus Shopsystem, ERP-System und PDM-System eine große Schwäche: Sie ermöglichen das „Online-Stellen“ neuer Artikel, haben aber selten ein sinnvolles Reporting, welche Artikel eben NICHT online sind.

Hier kann man z.B. mit Excel eine schnelle Analyse – nennen wir sie der Veranschaulichung halber „SMALL DATA“ - aufsetzen. Im Abgleich von Shopexport (z.B. Google-Shopping-Feed), Lagerbestand und Produktdaten erkennt man schnell, welche Artikel zwar 100% gepflegt UND auf Bestand, aber trotzdem NICHT ONLINE sind. Aus meiner bisherigen Erfahrung können hier schnell 5 – 10% der Artikel betroffen sein. Diese Einsicht gilt für Großunternehmen genauso wie für KMU. Im obigen Beispiel sprechen wir von 30 000 Euro, die für das Unternehmen „ungenutzt“ sind. Häufig noch mehr, da die Artikel auch auf Bestand liegen. Erst beim betrachten des Bestands („Penner-Liste“, Langsamdreher) ergibt sich die Frage, warum die Artikel nicht verkauft werden.

Nächstes Analysefeld ist die Datenqualität. Selbst wenn ein Artikel online ist kann er – z.B. durch eine falsche Kategorisierung – vom Shopkunden nicht gefunden werden. Ein Big Data Ansatz könnte hier sicherlich auch Potenziale aufzeigen, ist jedoch viel aufwändiger als eine schnelle, kleine Analyse. Die Daten in ein Tabellen-Kalkulationsprogramm geladen, die Filter aktiviert oder eine Pivot-Tabelle aufgesetzt. Schon sieht man die leeren / nicht-gepflegten Felder, eine falsche Zuordnung oder schlicht Schreibfehler. Im nächsten Schritt oder zur regelmäßigen Kontrolle lässt sich ein Vergleich mit den Sollwerten automatisieren.

Mit diesem Vorgehen erschließt man schnell weitere Potenziale. Häufig werden falsch oder schlecht gepflegte Artikel von den eCommerce-Partnern abgelehnt. Eine fehlende Google-Product-Category führt zur Ablehnung des Artikels im Google-Shopping-Feed. Dann wird Verkaufspotenzial verschenkt. Noch schlechter ist eine falsche Pflege – z.B. beobachtet bei falsch buchstabierten Markennamen. Wird zum Beispiel statt der Textilmarke „Venti“ fälschlicherweise „Ventil“ geschrieben (automatische Rechtschreibprüfung lässt grüßen), dann erscheint der Artikel nicht mehr korrekt in entsprechenden Shopfiltern. Je nach Shopsystem kann es sein, dass der Artikel gar nicht mehr im Filter erscheint. Wieder wird Potenzial verschenkt. Beides lässt sich wie oben beschrieben leicht mit eigenen Mitteln beheben.

Ein häufiges Problem in diesem Zusammenhang ist auch der „Time-Lag-Effekt“. Wenn die Systeme nicht in Echtzeit zusammenspielen, dann ergeben sich Zeitdifferenzen im Datenstand. Bei der Synchronisierung großer Datenbestände (z.B. Bilddaten, Bestände, Preise) wird häufig im Nachtjob gearbeitet. Bei der Übertragung über 2-3 Systemgrenzen hinweg habe ich dabei schon einen „Time-Lag“ von bis zu 48 Stunden beobachtet. Das bedeutet unter Umständen, dass Affiliate Partner noch mit alten Bestandsdaten arbeiten und Kunden auf Artikel leiten, die nicht mehr bestellbar sind. Oder die bestellt werden, obwohl sie ausverkauft sind. Beides erzeugt Kosten und Nutzer-Frust.

Fazit: Selbst eine optimierte Systemlandschaft bietet noch viele Möglichkeiten, dass Artikeldaten falsch sind und damit Kosten und Nutzer-Frust erzeugen. Hier sollte man mit einer Prozessanalyse und schnellen „Small Data Analysen“ ansetzen. Erst wenn die eigenen Hausaufgaben in dieser Richtung gemacht sind, sollte man sich an das Thema Big Data heranwagen. Das Potenzial im eigenen Shop ist oft riesig und schnell zu heben. Sie haben Interesse an einer Analyse in Ihrem Umfeld? An Praxisbeispielen? Dann fragen Sie mich per Email an kontakt@henke-scm.de oder telefonisch: 09941-4014507!