Business AnalyseProduct Analyst / Produktanalytiker

Welcher statistische Ansatz ermöglicht es, den kausalen Effekt der Einführung eines dynamischen Preismodells (Surge Pricing) auf die Preiselastizität der Nachfrage und das Gleichgewicht von Angebot und Nachfrage in einem zweiseitigen Marktplatz zu isolieren, wenn der Preis eine endogene Variable ist, die mit der latenten Nachfrage korreliert, und geografische Randomisierung aufgrund von Netzwerkeffekten zwischen den Marktseiten innerhalb einer Region unmöglich ist?

Bestehen Sie Vorstellungsgespräche mit dem Hintsage-KI-Assistenten

Antwort auf die Frage

Der historische Kontext führt zurück zu dem klassischen ökonometrischen Problem der Endogenität des Preises, bei dem die beobachteten Marktdaten das Gleichgewicht von Angebot und Nachfrage widerspiegeln und nicht die reine Reaktion auf den Preis. Traditionelle Ansätze zur Schätzung der Elastizität durch OLS-Regression führten zu verzerrten Schätzungen, da hohe Preise genau dann beobachtet wurden, wenn die Nachfrage hoch war, was eine positive Korrelation erzeugte, die die negative Elastizität verdeckte. Moderne Produktanalytik stützt sich auf Causal Inference Ansätze, die in der Bildungsökonomie und auf Arbeitsmärkten entwickelt wurden und auf digitale zweiseitige Märkte (two-sided markets) wie Uber, Airbnb oder Delivery Hero adaptiert wurden.

Das Problem besteht darin, dass ein direktes A/B-Testing der Preise das Prinzip der Konsistenz der Benutzererfahrung verletzt und Arbitragemöglichkeiten schafft (Benutzer migrieren in die Kontrollgruppe). Zudem gibt es eine umgekehrte Kausalität: Der Preis beeinflusst das Verhalten der Anbieter (Supply), die sich zwischen den Regionen umverteilen und das grundlegende Marktgleichgewicht verändern. Eine Standardanordnung mit Durchschnittsdifferenzen (Difference in Means) führt aufgrund der Bedingungen hoher Nachfrage (Feiertage, Wetter) zu einer verzerrten Schätzung, da diese sowohl den Preis als auch die Zahlungsbereitschaft beeinflussen.

Die optimale Lösung kombiniert Regression Discontinuity Design (RDD) basierend auf algorithmischen Schwellenwerten des Auslastungsfaktors mit dem Ansatz der Instrumentvariablen (IV). Die Methodologie RDD verwendet die Tatsache, dass die Umgebung eines Schwellenwerts (z.B. 1.2x des Basispreises bei 85% Auslastung) eine quasi-experimentelle Zufälligkeit der Zuteilung von Behandlungen schafft. Zur Erhöhung der Validität wird eine zwei-stufige Kleinste-Quadrate-Methode (2SLS) eingesetzt, bei der exogene Schocks (unvorhergesehene Wetterbedingungen, Sportereignisse) die Instrumente sind, die den Preis beeinflussen, aber nicht direkt mit den individuellen Präferenzen der Benutzer korrelieren. Zusätzlich wird die Synthetic Control Method verwendet, um eine kontrafaktische Region auf der Grundlage einer gewichteten Kombination von Gebieten, die nicht dem Algorithmus unterzogen wurden, zu erstellen.

Lebenssituation

Der Fall betraf einen großen Lieferservice für Fertiggerichte, der plante, in Spitzenzeiten dynamisches Preismodelling einzuführen, um Angebot und Nachfrage der Kurierfahrer in Einklang zu bringen. Die grundlegende Kennzahl — die Erfüllungsrate (fulfillment rate) — fiel in den Abendstunden auf 70%, was zu einem Abfluss von Nutzern führte. Das Produkt-Team ging davon aus, dass eine Preiserhöhung in Spitzenzeiten die Nachfrage verringern und aufgrund der höheren Bezahlung mehr Kuriere anziehen würde, jedoch musste die Preiselastizität quantitativ bewertet werden, ohne die Benutzererfahrung in der Teststadt zu beeinträchtigen.

Die erste betrachtete Option war eine geografische A/B-Testung mit der Aufteilung benachbarter Städte in Kontroll- und Testgruppen. Vorteile: reines Kontrafaktum, einfache Interpretation, keine Kreuzkontamination innerhalb der Stadt. Nachteile: grundlegende Unterschiede in der Nachfrage zwischen den Städten (unterschiedliche Restaurantdichte, unterschiedliches Einkommensniveau), Migration von Kuriere zwischen den Städten (verletzt SUTVA), Unmöglichkeit der Skalierung der Ergebnisse auf die Zielmetropole mit einzigartigem Verkehr.

Die zweite Option war eine zeitliche Unterbrechungsanalyse (interrupted time series) mit dem Vergleich der Zeiträume vor und nach der Einführung. Vorteile: Arbeit mit der gesamten Bevölkerung einer Stadt, Berücksichtigung der Saisonalität durch CausalImpact. Nachteile: Unmöglichkeit, den Effekt der Preisgestaltung von Marktwachstumstrends zu trennen, Einfluss von gleichzeitig durchgeführten Marketingkampagnen, Veränderung des Wettbewerbsumfelds während der Beobachtungsperiode.

Die dritte Option war Regression Discontinuity Design unter Anwendung eines internen algorithmischen Schwellenwerts für den Surge-Multiplikator (z.B. ein Preissprung tritt bei 80% Auslastung der Kuriere auf) auf. Vorteile: lokale Zufälligkeit in der Nähe des Schwellenwerts (Benutzer direkt über/unter der Schwelle sind vergleichbar), Isolierung des reinen Preiseffekts von der allgemeinen Nachfrage, Arbeit im Rahmen einer Stadt ohne externe Kontrollgruppen. Nachteile: Schätzung des Local Average Treatment Effect (LATE) nur für marginale Benutzer in der Nähe der Schwelle, Notwendigkeit großer Stichproben für eine angemessene Power, Sensitivität gegenüber Manipulation der Schwelle durch den Algorithmus.

Eine kombinierte Lösung wurde gewählt: RDD basierend auf dem Auslastungsschwellwert mit Validierung durch Instrumentvariablen (unerwartete Niederschläge als Preisinstrument) und Synthetic Control auf Ebene der Stadtviertel. Dies ermöglichte die Isolierung des Preiseffekts von dem Erwartungseffekt (der auch mit der Auslastung steigt). Infolgedessen wurde festgestellt, dass die Nachfrageelastizität -0,8 beträgt (moderat elastisch), der Effekt auf das Marktgleichgewicht jedoch nur bei einem Koeffizienten von 1,5x+ erreicht wird. Dies ermöglichte die Optimierung der Schwellenwerte und die Steigerung der Erfüllungsrate auf 89% ohne signifikanten Verlust des GMV.

Was Kandidaten oft übersehen

Wie unterscheidet man echte Preiserhöhungen der Nachfrage von dem Erwartungseffekt (delay cost), wenn ein Preisanstieg mit einer verlängerten Lieferzeit korreliert?

Die Antwort erfordert die Zerlegung des Gesamteffekts durch Mediation-Analyse oder die Verwendung von IV mit zwei Instrumenten: eines, das nur den Preis beeinflusst (algorithmischer Schwellenwert), das andere, das nur die Wartezeit beeinflusst (äußere Verkehrsunfälle). Anfänger-Analytiker vermischen oft diese Effekte und überschätzen die Preiselastizität. Es ist notwendig, ein strukturelles Modell zu erstellen, in dem Preis und Wartezeit endogene Regressoren sind und die Nachfrage das Ergebnis ihrer Wechselwirkungen ist. Ohne dies trifft das Unternehmen Entscheidungen über den Preis, ohne zu verstehen, dass ein Teil des Rückgangs der Conversion nicht durch den Preis, sondern durch unzufriedenstellenden Service (Wartezeit) verursacht wird.

Warum führt die Standardbewertung der Elastizität durch log-log Regression zu verzerrten Ergebnissen in zweiseitigen Märkten und wie kann man das korrigieren?

In zweiseitigen Märkten gibt es eine Simultaneitätsverzerrung: Der Preis beeinflusst die Nachfrage, aber die Nachfrage beeinflusst den Preis durch den Mechanismus des Surge-Algorithmus. OLS-Schätzungen werden asymptotisch verzerrt sein. Der korrekte Ansatz erfordert die Verwendung von Two-Stage Least Squares (2SLS), bei dem im ersten Schritt der Preis durch exogene Schocks (Wetter, Ereignisse) vorhergesagt wird und im zweiten Schritt die vorhergesagten Werte für die Schätzung der Elastizität verwendet werden. Kandidaten ignorieren oft die Notwendigkeit, die Relevanz der Instrumente zu überprüfen (F-Statistik > 10) und deren Validität (Ausschlussbeschränkung), was zu ungültigen kausalen Schlussfolgerungen führt.

Wie berücksichtigt man Netzwerkeffekte (Cross-Side Network Effects) zwischen Auftraggebern und Anbietern bei der Bewertung des kausalen Effekts der Preisgestaltung?

Ein Preisaufschlag zieht mehr Kuriere an (positiver Effekt auf das Angebot), was die Wartezeit senkt und den negativen Preisanstieg auf die Nachfrage ausgleichen kann. Dies schafft einen allgemeinen Gleichgewichtseffekt, der durch partielle Gleichgewichte nicht erfasst werden kann. Es ist erforderlich, ein strukturelles Modell eines zweiseitigen Marktes (structural two-sided market model) zu erstellen oder eine bipartite Graphanalyse zu verwenden, um die Migration von Anbietern zwischen den Zonen zu verfolgen. Ohne dies können Analysten fehlerhaft eine effektive Preispolitik ablehnen, ohne den ausgleichenden Effekt der Verbesserung der Servicequalität durch verkürzte Lieferzeiten zu erkennen.