Preis- und Wettbewerbsstrategie

So profitiert der Mittelstand von Digital Analytics & KI

11.05.2023
Von   IDG ExpertenNetzwerk und
Jan Rodig leitet das Kompetenzfeld Digital Performance & Analytics bei der Unternehmensberatung Struktur Management Partner. Er ist Experte für die Konzeption und Umsetzung von Digitalstrategien, für digitale Geschäftsmodelle und Digitalorganisationen. Herr Rodig ist Co-Autor mehrerer IoT-Fachbücher, Mitglied der BMWi-Initiative Plattform Industrie 4.0 und war bis 2019 CEO eines von ihm mitgegründeten IoT-Softwaredienstleisters.
Von Haus aus gelernter Volkswirt und Mathematiker, verantwortet Janis Steinfort das Analytics Lab von Struktur Management Partner. Neben der Beratung des deutschen Mittelstands vermittelt er Praxiswissen als Dozent an der Frankfurt School of Finance and Management.
Manchen mittelständischen Unternehmen fällt es noch schwer, ihr Geschäftsmodell mit datengestützten Analysen zu stärken. Hier einige praktische Beispiele, die sinnvoll und einfach umzusetzen sind.
Unternehmen, die ausschließlich mit Excel-Listen arbeiten, erhalten zwar grafische Auswertungen. Zielführende Querverbindungen verschiedener Datenquellen sind allerdings oft nicht möglich.
Unternehmen, die ausschließlich mit Excel-Listen arbeiten, erhalten zwar grafische Auswertungen. Zielführende Querverbindungen verschiedener Datenquellen sind allerdings oft nicht möglich.
Foto: NicoElNino - shutterstock.com

Über kaum ein Technologiethema wurde in den letzten Jahren so viel geschrieben wie über den Wert von Daten in der digitalen Ökonomie. Das Datenvolumen steigt seit Jahren explosionsartig an und wird auch in den kommenden Jahren weiter zulegen. IDC geht laut Statista bis 2025 von 181 Zettabyte Daten auf der ganzen Welt aus - eine Steigerung von 182 Prozent innerhalb von fünf Jahren.

Data Analytics im Kontext von aktiver Preispolitik

Gerade für KMUs gibt es jedoch Use Cases für Digital Analytics und Künstliche Intelligenz, die konkrete Mehrwerte schaffen und sich schnell rechnen. Ein Beispiel dafür ist die kontinuierliche Anpassung und Optimierung von Preisen.

Preissetzung ist im Mittelstand oft noch „Chefsache“ und hängt nicht selten vom Bauchgefühl ab. Dabei gibt es einfache und effektive Data-Analytics-Anwendungen für diese Thematik. Diese konsolidieren Daten zur Nachfrageentwicklung, Preissensibilität sowie zu Kreuzpreis-Elastizitäten (Nachfrageänderung infolge von Preisänderungen) der Vergangenheit. Diese Daten generieren Unternehmen üblicherweise automatisch entweder direkt aus dem ERP-System oder – etwas umständlicher – aus der Abrechnungssoftware der Buchhaltung.

Analysesoftware wie Alteryx, Tableau, Fivetran, oder – für die etwas Geübteren – Stata oder R helfen, die Daten in die Form zu bringen, die es braucht, um eine dynamische, kontinuierliche Preissetzung beziehunsweise Kalkulation aufzusetzen. Zudem kann dadurch der optimale Preiskorridor für Produkte oder Produktgruppen für den jeweiligen Zeitpunkt und das adressierte Kundensegment ermittelt werden – Stichwort: Dynamic Pricing. Dies schließt auch Rabatt- und Konditionsstrukturen mit ein.

Lesetipp: Auf dem Weg zur Data-driven Company

Hat ein Unternehmen einmal ein Preismodell aufgesetzt, dann kann dies nicht nur dabei helfen, die richtigen intrinsischen Preise zu definieren. Es ist auch in der Lage, schnell auf Marktverwerfungen auf der Absatz- und Einkaufsseite zu reagieren. Die Herausforderung dabei ist, dass ein Preismodell selten am Reißbrett entsteht - es muss sich entwickeln. Deshalb ist ein lernendes Modell ratsam, das kontinuierlich angepasst und optimiert werden kann.

Ein Preismodell mit Daten füttern

Zum initialen Aufsetzen empfiehlt es sich, die folgenden Daten in die Auswertung einfließen zu lassen:

Unternehmensspezifische Daten

- Produktkosten für zu bepreisende Ware

- Lagerbestände

- Preisentwicklung

- Nachfrageentwicklung

Marktdaten
- Preise von Wettbewerbern
- Wettbewerbsintensität

Makroökonomische Daten
- Einkommensstruktur/Kaufkraft von Kunden
- Verbrauchervertrauensindex
- Saisonalität

Tipp: Oft ist die Preissetzung historisch gewachsen und analog der Nachfrage strukturiert. Was auf den ersten Blick intuitiv wirkt, kann in der Praxis zu merkwürdigen Auswüchsen führen.
Ein Beispiel: Ein größerer Artikel, der mehr Materialaufwand verursacht, ist plötzlich günstiger bepreist als ein kleinerer, vergleichbarer Artikel. Solche Muster sind mit einem einfachen Größen-Preis Korrelationscheck schnell entdeckt und können erhebliche Ergebniseffekte bei der Bereinigung nach sich ziehen.

Risikofrüherkennung mithilfe von Business Intelligence

Täglich verändern sich Marktgegebenheiten, Anforderungen und Erwartungen an ein Unternehmen und an diejenigen, die es steuern. Dabei bleibt es nicht aus, dass den Verantwortlichen bei ihrem unternehmerischen Handeln sowie beim Treffen von Entscheidungen Fehler unterlaufen können. Aus den Herausforderungen, die Unternehmen sich in Zeiten von Krieg in Europa, Inflation und zerrütteten Lieferketten stellen müssen, werden erst dann existenzbedrohende Probleme, wenn die Fehler nicht erkannt werden, beziehungsweise dem Management die Informationen fehlen, die den tatsächlichen Zustand des eigenen Unternehmens wiedergeben.

Eine Business Intelligence (BI)-Software erlaubt es, Datenquellen zu vereinen und ein stringentes Risikocontrolling aufzusetzen. Durch die Verbindung von Datenquellen in Verbindung mit einem hohen Grad an Self-Service-Möglichkeiten können BI-Lösungen die Controlling-Abteilung entlasten und die Informationen dorthin transportieren, wo sie bestmöglich interpretiert werden können. Mittlerweile bedienen sich viele BI-Anwendungen auch KI-Komponenten, die Datenauswertungen automatisieren und nach Auffälligkeiten durchsuchen.

Wichtig ist, vor der Implementierung die konzeptionelle Ausgestaltung systematisch und ganzheitlich zu durchdenken. Dann fällt die Auswahl des passenden Systems, wie PowerBI, Tableau oder Qlik für die individuellen Anforderungen und Rahmenbedingungen nicht mehr schwer.

Tipp: Probieren Sie doch einfach mal die KI-Addins von BI-Softwarelösungen aus. Oft etwas unscheinbar, haben fast alle diese Tools sogenannte "Data Preparation"-Vorschläge. Das sind semi-autonome Umsetzungen von Mappings, Joins oder Datenaufbereitungsmechanismen. Damit lassen sich in kürzester Zeit große Datenmengen bereinigen und automatisiert für die Analyse aufbereiten. Die Künstliche Intelligenz geht dann sogar noch einen Schritt weiter: sie leitet eigenständig Analysehypothesen ab und macht oftmals bereits erste Vorschläge zur Optimierung.