Analityka produktowa (IT)Analityk Produktowy / Product Analyst

Jaki podejście statystyczne pozwoli na izolację efektu przyczynowo-skutkowego wdrożenia algorytmu dynamicznego ustalania cen (surge pricing) na elastyczność popytu i równowagę popytu i podaży na dwustronnym rynku, gdy cena jest zmienną endogenną skorelowaną z ukrytym popytem, a geograficzna randomizacja jest niemożliwa z powodu efektów sieciowych między stronami rynku w obrębie jednego regionu?

Zdaj rozmowy kwalifikacyjne z asystentem AI Hintsage

Odpowiedź na pytanie

Kontekst historyczny sięga klasycznego problemu ekonomicznego endogenności ceny, gdzie obserwowane dane rynkowe odzwierciedlają równowagę popytu i podaży, a nie czystą reakcję na cenę. Tradycyjne metody oceny elastyczności poprzez OLS-regresję dawały zniekształcone wyniki, ponieważ wysokie ceny były obserwowane właśnie w czasie wysokiego popytu, co tworzyło pozytywną korelację, maskującą negatywną elastyczność. Nowoczesna analityka produktowa opiera się na podejściu Causal Inference, opracowanym w ekonomii edukacji i rynków pracy, dostosowanym do cyfrowych rynków dwustronnych (two-sided markets) takich jak Uber, Airbnb czy Delivery Hero.

Problem polega na tym, że bezpośrednie testowanie A/B cen narusza zasadę spójności doświadczenia użytkownika i stwarza możliwości arbitrażu (użytkownicy migrują do grupy kontrolnej). Dodatkowo występuje odwrotna przyczynowość: cena wpływa na zachowanie dostawców (supply), którzy się przenoszą między regionami, zmieniając podstawową równowagę rynku. Standardowe podejście z różnicą średnich (difference in means) daje zniekształconą ocenę, ponieważ warunki wysokiego popytu (święta, pogoda) wpływają jednocześnie na cenę i gotowość do płacenia.

Optymalne rozwiązanie łączy Regression Discontinuity Design (RDD) w oparciu o algorytmiczne progi wyzwalania współczynnika obciążenia z podejściem Instrumental Variables (IV). Metodologia RDD wykorzystuje fakt, że sąsiedztwo wartości progowej (np. 1,2x ceny podstawowej przy obciążeniu 85%) tworzy quasi-eksperymentalną losowość przydzielania leczenia. Aby wzmocnić ważność, stosuje się dwuetapową metodę najmniejszych kwadratów (2SLS), gdzie narzędziami są wstrząsy egzogenne (nieprzewidywalne warunki pogodowe, wydarzenia sportowe), które wpływają na cenę, ale nie korelują bezpośrednio z indywidualnymi preferencjami użytkowników. Dodatkowo stosuje się Synthetic Control Method do budowania kontrfaktycznego regionu na podstawie ważonej kombinacji obszarów, które nie zostały poddane wdrożeniu algorytmu.

Sytuacja życiowa

Przykład dotyczył dużego serwisu dostawy gotowych dań, planującego wdrożenie dynamicznego ustalania cen w godzinach szczytu w celu zrównoważenia popytu i podaży kurierów. Podstawowa metryka — współczynnik realizacji zamówień (fulfillment rate) — spadał do 70% w godzinach wieczornych, co prowadziło do odpływu użytkowników. Zespół produktowy zakładał, że podniesienie ceny w godzinach szczytu zmniejszy popyt i przyciągnie więcej kurierów poprzez wyższą płatność, ale konieczne było ilościowe oszacowanie elastyczności popytu, nie naruszając doświadczenia użytkownika w testowym mieście.

Pierwsza rozważana opcja — geograficzne testowanie A/B z podziałem sąsiednich miast na grupę kontrolną i testową. Zalety: czysty kontrfakt, prostota interpretacji, brak zanieczyszczenia krzyżowego wewnątrz miasta. Wady: fundamentalne różnice w strukturze popytu między miastami (różna gęstość restauracji, różny poziom dochodów), migracja kurierów między miastami (narusza SUTVA), niemożność skalowania wyników na docelową metropolię z unikalnym ruchem.

Druga opcja — analizowanie przerw czasowych (interrupted time series) porównujące okresy przed i po wdrożeniu. Zalety: praca z pełną publicznością jednego miasta, uwzględnienie sezonowości poprzez CausalImpact. Wady: niemożność oddzielenia efektu ustalania cen od trendów wzrostu rynku, wpływ równoległych kampanii marketingowych, zmiana środowiska konkurencyjnego w czasie obserwacji.

Trzecia opcja — Regression Discontinuity Design z wykorzystaniem wewnętrznego algorytmicznego progu ponownego uruchomienia surge multiplier (np. skok ceny następuje po osiągnięciu 80% obciążenia kurierów). Zalety: lokalna losowość wokół progu (użytkownicy tuż powyżej/poniżej progu są porównywalni), izolacja czystego efektu cenowego od ogólnego popytu, praca w obrębie jednego miasta bez zewnętrznych grup kontrolnych. Wady: ocena Local Average Treatment Effect (LATE) tylko dla marginalnych użytkowników wokół progu, potrzeba dużych próbek dla osiągnięcia mocy, wrażliwość na manipulację progiem przez algorytm.

Wybrane rozwiązanie łączy: RDD na progu obciążenia z walidacją przez Instrumental Variables (niespodziewane opady jako instrument ceny) i Synthetic Control na poziomie mikroregionów miasta. Pozwoliło to na izolację efektu ceny od efektu oczekiwania (który również rośnie wraz z obciążeniem). W rezultacie ustalono, że elastyczność popytu wynosi -0,8 (umiarkowanie elastyczna), ale efekt na równowagę rynku osiąga się dopiero przy współczynniku 1,5x+. Umożliwiło to optymalizację progów uruchamiania i zwiększenie współczynnika realizacji zamówień do 89% bez znaczącej utraty GMV.

Co kandydaci często pomijają

Jak rozróżnić prawdziwe cenowe przesunięcie popytu od efektu oczekiwania (delay cost), gdy wzrost ceny koreluje ze wzrostem czasu dostawy?

Odpowiedź wymaga dekompozycji ogólnego efektu za pomocą analizy mediacyjnej lub użycia IV z dwoma instrumentami: jeden wpływa tylko na cenę (algorytmiczny próg), drugi — tylko na czas oczekiwania (zewnętrzne incydenty drogowe). Początkujący analitycy często mieszają te efekty, przeszacowując elastyczność cenową. Należy zbudować model strukturalny, w którym cena i czas oczekiwania są endogennymi regresorami, a popyt jest wynikiem ich interakcji. Bez tego biznes podejmuje decyzje o cenach, nie rozumiejąc, że część spadku konwersji jest spowodowana nie ceną, ale niezadowalającą obsługą (czasem).

Dlaczego standardowa ocena elastyczności poprzez regresję log-log daje zniekształcone wyniki na rynkach dwustronnych i jak to skorygować?

Na rynkach dwustronnych występuje simultaneity bias: cena wpływa na popyt, ale popyt wpływa na cenę poprzez mechanizm algorytmu surge. OLS-oceny będą asimptotycznie zniekształcone. Poprawne podejście wymaga użycia Two-Stage Least Squares (2SLS), gdzie na pierwszym etapie cena jest przewidywana przez egzogenne wstrząsy (pogoda, wydarzenia), a na drugim — przewidywane wartości są używane do oceny elastyczności. Kandydaci często ignorują konieczność sprawdzenia istotności narzędzi (F-statistic > 10) oraz ich ważności (exclusion restriction), co prowadzi do nieważnych wniosków przyczynowych.

Jak uwzględnić efekty sieciowe (cross-side network effects) między zamawiającymi a wykonawcami przy ocenie efektu przyczynowego ustalania cen?

Wzrost ceny przyciąga więcej kurierów (pozytywny efekt na podaż), co zmniejsza czas oczekiwania i może zrekompensować negatywne przesunięcie cenowe na popyt. Tworzy to general equilibrium effect, który jest niemożliwy do uchwycenia poprzez częściowe równowagi. Wymaga to zbudowania strukturalnego modelu rynku dwustronnego (structural two-sided market model) lub zastosowania bipartite graph analysis do śledzenia migracji wykonawców między strefami. Bez tego analitycy mogą błędnie odrzucić skuteczną politykę cenową, nie dostrzegając kompensującego efektu poprawy jakości usługi poprzez skrócenie czasu dostawy.