Kontekst historyczny. W ostatnich latach BNPL (Buy Now Pay Later) stał się standardem integracji fintech w handlu detalicznym, umożliwiając użytkownikom rozłożenie płatności na raty bez odsetek. Analitycy stają przed fundamentalnym problemem: przeprowadzenie eksperymentu losowego jest niemożliwe, ponieważ odrzucenie kredytu z powodów etycznych i prawnych jest niemożliwe, a użytkownicy sami wybierają się na podstawie zdolności kredytowej. Tworzy to klasyczną endogenność, gdy obserwowana korelacja między korzystaniem z BNPL a wysokim koszykiem jest spowodowana wcześniej istniejącymi cechami płatniczo zdolnych klientów, a nie samym produktem.
Sformułowanie problemu. Główne wyzwania obejmują ostry rozdział w cechach na granicy progu zatwierdzenia (np. 700 punktów), sezonowość (Czarny piątek, okres przedświąteczny), kanibalizację przyszłych sprzedaży (intertemporal substitution) i wzrost zwrotów z powodu impulsywnych zakupów. Wymaga to wyizolowania czystego efektu inkrementalnego (LATE — Local Average Treatment Effect) dla użytkowników na „granicy” zatwierdzenia, minimalizując wpływ zmiennych zakłócających.
Szczegółowe rozwiązanie. Optymalne podejście — Sharp Regression Discontinuity Design (RDD) na progu scoringu z pasmem (bandwidth) ±30-50 punktów. Metodologia opiera się na założeniu lokalowej losowości: użytkownicy z 695 i 705 punktami statystycznie nie różnią się w obserwowanych i nieobserwowanych cechach, ale trafiają do różnych grup (kontrola i traktowanie). Dodatkowo stosuje się Difference-in-Differences (DiD) do śledzenia dynamiki przed i po wdrożeniu w tym paśmie, co kontroluje sezonowość. Do oceny kanibalizacji używa się Event Study z opóźnieniami (wydatki w t-3, t-2 miesiącach przed korzystaniem z BNPL). Jeśli dostępne jest narzędzie (próg zatwierdzenia), ale następuje brak zgodności (zatwierdzeni, ale niekorzystający z BNPL), stosuje się Fuzzy RDD za pomocą Two-Stage Least Squares (2SLS). Ważne jest sprawdzenie równowagi kowariantu (Covariate Balance Tests) i gęstości rozkładu (McCrary test) dla walidacji projektu.
Marketplace elektroniki zintegrował BNPL z bankiem-partnerem z surowym progiem zatwierdzenia wynoszącym 650 punktów w wewnętrznej skali. Biznes odnotował wzrost średniej wartości koszyka o 35% u użytkowników z BNPL, ale podejrzewał, że to efekt samo-selekcji bardziej zamożnych klientów. Niezbędne było podjęcie decyzji o rozszerzeniu limitu kredytowego, ale wymagano oceny rzeczywistego efektu przyczynowo-skutkowego.
Opcja 1: Proste porównanie „korzystający z BNPL” vs „nie korzystający” bez uwzględnienia progu. Zalety: maksymalnie prosta realizacja w SQL, nie wymaga skomplikowanej statystyki. Wady: krytyczne zniekształcenie wyboru (selection bias) — zatwierdzeni użytkownicy mają wyższe dochody i historię zakupów, co daje zawyżoną ocenę efektu do +40%, nie związaną z produktem. Wynik nie nadaje się do podejmowania decyzji.
Opcja 2: Analiza przed-po dla całej grupy bez podziału na grupy. Zalety: uwzględnia ogólne trendy wzrostu platformy i jest prosta w interpretacji. Wady: niemożliwe jest oddzielenie efektu BNPL od sezonowego skoku (sprzedaż świąteczna) i równoczesnych kampanii marketingowych. Ocena okazuje się zniekształcona z powodu czasowych wstrząsów popytu.
Opcja 3: Regression Discontinuity Design (RDD) na progu 650 punktów z pasmem ±40 punktów. Zalety: wykorzystuje ostry rozdział w prawdopodobieństwie zatwierdzenia jako naturalny eksperyment, oceniając efekt dla „marginalnych” użytkowników, którzy „ledwo” przeszli lub nie przeszli progu. Kontroluje za niezmierzalnymi cechami w lokalnej okolicy. Wady: ocenia tylko lokalny efekt (LATE), który nie może być bez zastrzeżeń ekstrapolowany na wszystkich użytkowników z wysokim scoringiem; wymaga dużej próby w okolicy progu dla mocy statystycznej.
Wybrane rozwiązanie: kombinacja Sharp RDD dla użytkowników w paśmie 610-690 punktów z Propensity Score Matching na podstawie historycznych wydatków i kategorii zakupów, uzupełniona o Difference-in-Differences do śledzenia dynamiki przez 90 dni po zakupie. W celu kontrolowania sezonowości wprowadzono stałe efekty tygodniowe (Week Fixed Effects). To umożliwiło wyizolowanie czystego efektu produktu od cech pożyczkobiorcy.
Ostateczny wynik: wykazano statystycznie istotny wzrost średniej wartości koszyka o 17% (ITT — Intent-to-Treat) dla marginalnych użytkowników, ale wzrost wskaźnika zwrotów o 11% z powodu impulsywnych zakupów. Efekt okazał się heterogeniczny: wysoki dla elektroniki (+24%), zerowy dla artykułów gospodarstwa domowego. Na podstawie danych skorygowano próg zatwierdzenia dla ryzykownych kategorii towarów, co zmniejszyło poziom zwrotów o 4% bez utraty przychodów.
Jak rozróżnić efekt „nowości” (novelty effect) od trwałej zmiany zachowania przy użyciu RDD?
Należy przeprowadzić Dynamic RDD z analizą efektu w interwałach czasowych (cohort-level RDD). Ocenia się efekt oddzielnie dla tygodnia 1-2 (nowość) i miesięcy 3-6 (utrwałe zachowanie). Jeśli wartości współczynników różnią się znacząco (sprawdzanie przez Chow test), używamy tylko długoterminowego okna lub wprowadzamy interakcję czasu z treatment. Ważne jest również sprawdzenie pre-trend parallel — braku rozdziału w wynikach (spending) w okresach przed przekroczeniem progu, co potwierdzi ważność projektu i brak efektów anticipacyjnych.
Jak poprawnie ocenić kanibalizację przyszłych sprzedaży (intertemporal substitution) przy wdrożeniu BNPL?
Standardowy RDD ocenia tylko statyczny efekt w momencie zakupu. Dla kanibalizacji budujemy Event Study z opóźnieniami i wyprzedzeniami (leads/lags) w odniesieniu do momentu pierwszego korzystania z BNPL. Analizujemy wydatki w okresach t-3, t-2, t-1 (przed) i t+1, t+2, t+3 (po) miesiącach. Jeśli suma współczynników na wyprzedzeniach (pre-periods) jest ujemna i istotna, świadczy to o pożyczaniu z przyszłości (użytkownik planował zakup i przyspieszył go dzięki BNPL). Używamy Local Projections metody Jordà dla dynamicznych mnożników, co pozwala ocenić czysty inkrementalny efekt na dłuższy okres.
Dlaczego w tym przypadku nie można użyć prostego porównania według skłonności (Propensity Score Matching) bez RDD, i jakie założenia są naruszane?
PSM wymaga założenia Unconfoundedness (Ignorability), co jest niemożliwe w przypadku istnienia niezmierzalnych cech, które wpływają na zatwierdzenie (np. „dyscyplina finansowa”, nieoficjalne źródła dochodu, które nie znalazły się w scoringu). Te latentne zmienne korelują i z zatwierdzeniem, i z wydatkami, tworząc zniekształcenie. RDD osłabia to wymaganie do lokalowej losowości w okolicach progu (Local Randomization), gdzie cechy niezmierzalne są rozdzielane losowo. Kandydaci często ignorują potrzebę sprawdzenia gęstości rozkładu scoringów (McCrary test) i równowagi kowariatu (Covariate balance tests) w okolicy progu, co jest krytyczne dla ważności wniosków.