Badanie całej populacji może być bardzo ciężkim zadaniem, czasem wręcz niemożliwym do zrealizowania. Jeśli chcemy zbadać grupę marszałków województw Rzeczpospolitej Polskiej, to zebranie danych od 16 osób (czyli całej populacji marszałków) jest całkiem realne do wykonania. Zazwyczaj jednak chcemy by nasze wnioski były bardziej uniwersalne i praktyczne, więc badana populacja będzie obejmowała większą grupę osób. Tu pojawia się wspomniany problem z realizacją takiego przedsięwzięcia. Jeśli chcielibyśmy analizować np. przyzwyczajenia Polaków, to dotarcie z narzędziem badawczym do każdego jednego obywatela pochłonęłoby gigantyczną ilość zasobów. Badanie kompletne można jednak zastąpić badaniem reprezentacyjnym. Dzięki wnioskowaniu statystycznemu możemy określić na ile próba, do której rzeczywiście mieliśmy dostęp, jest reprezentatywna względem całej populacji, a wyciągane wnioski pokrywają się z rzeczywistością.
Estymacja statystyczna
Estymacja jest procesem szacowania pewnych parametrów rozkładu zmiennej w populacji na podstawie posiadanych danych z jej „próbki”. Takim parametrem może być średnia, wariancja lub inna charakterystyka liczbowa. Dla przykładu – jeśli znamy średni czas wykonywania danej usługi w badanej próbie, możemy na jej podstawie szacować średni czas wykonywania takiej usługi dla całej populacji. Pozwoli to np. na określenie ilu klientów może dana placówka bankowa umówić na jeden dzień pracy, aby mieć pewność, że każda osoba zostanie przez doradcę obsłużona.
W zależności od wybranej metody, można dokonać podziału szacowania na estymację punktową oraz przedziałową. Estymacja punktowa opiera się na wyznaczeniu pojedynczej liczby (estymatora), która najlepiej będzie odzwierciedlała nieznany parametr w populacji. W naszym przykładzie mogłaby to być wartość 21 minut dla średniego czasu potrzebnego na obsłużenie klienta w populacji. Choć wygodnie jest otrzymać jedną, konkretną liczbę, wadą tej metody jest to, że nie wiemy jak bardzo precyzyjna jest uzyskana wartość – czy zakres ten wynosi 19-23 minut, czy też 2-40 minut?
Estymacja przedziałowa opiera się na wyznaczeniu przedziału, w którym z pewnym zadanym prawdopodobieństwem znajduje się poszukiwany nieznany parametr populacji. Analityk może określić współczynnik ufności, o wartości, który determinuje prawdopodobieństwo oszacowania poprawnej wartości. Otrzymany w ten sposób przedział nazywany jest przedziałem ufności. Im większa wartość współczynnika ufności, tym przedział ufności będzie szerszy - jeśli chcemy na przykład oszacować średni wiek odbiorcy tworzonych treści, to przedział 0-100 lat da nam niemal 100% pewności wyniku. Kosztem w takiej sytuacji jest oczywiście precyzja estymacji. Choć zawężenie przedziału ufności spowoduje, że zmaleje prawdopodobieństwo, że prawdziwa wartość się w nim znajduje, taki przedział będzie zdecydowanie bardziej użyteczny - wiedza, że respondent prawdopodobnie jest w wieku 0-100 lat jest zbyt ogólna, abyśmy mogli ją w praktyce wykorzystać. Jeśli będziemy mogli zawęzić ten przedział do np. 25-35 lat, to taka informacja pozwoli m.in. na podejmowanie trafniejszych strategii sprzedażowych.
Chcesz wiedzieć więcej?
Zapraszamy na szkolenie ST 1. Podstawy statystyki dla każdego
Ograniczenia estymacji
Zarówno estymacja punktowa, jak i przedziałowa, są niestety obarczone pewnym błędem – choć niektórzy twierdzą, że wyjątki jedynie potwierdzają regułę, koniec końców zazwyczaj dokonywane oszacowania nie będą dawać stuprocentowej pewności otrzymania poprawnego wyniku.
W przypadku estymacji punktowej, wynikiem jest estymator – pojedyncza wartość danego parametru w próbie. Jeśli znamy wartość tego parametru w populacji, możemy wyliczyć błąd estymacji, odejmując go od wartości estymatora. Gdy jednak nie mamy takiej informacji z całej populacji, jakość estymacji punktowej zazwyczaj oceniana jest przy użyciu błędu standardowego. Błąd standardowy jest miarą rozproszenia estymatorów z próby wokół prawdziwej wartości parametru populacji.
W estymacji przedziałowej, wielkość tego błędu uzależniona jest od wspomnianego wcześniej współczynnika ufności. Zazwyczaj przedziały ufności określa się z 95% prawdopodobieństwem znajdowania się w nich rzeczywistej wartości parametru z populacji, ale często można spotkać się również z prawdopodobieństwem rzędu 97% czy 99%. Ta decyzja zależy przede wszystkim od charakteru posiadanych danych.
Jakie więc powinny być dane, aby dokonywana estymacja była jak najbardziej zbliżona do rzeczywistych wartości w populacji? Kluczowym zadaniem badacza jest tu odpowiedni dobór próby[1]. Przede wszystkim próbka z populacji musi zostać wybrana w sposób losowy. Drugim bardzo ważnym aspektem jest to, aby była ona odpowiedniej wielkości. Dopiero kiedy próba będzie reprezentatywna, wyciągane na jej podstawie wnioski będą obarczone mniejszymi błędami i będą bardziej zbliżone do rzeczywistych wyników w populacji.
[1] https://predictivesolutions.pl/dobor-proby-badawczej-jak-wylosowac-respondentow-do-badania-ankietowego
Weryfikacja hipotez statystycznych
Drugim działem wnioskowania statystycznego jest weryfikacja hipotez statystycznych. Pozwala na sprawdzenie założeń o populacji na podstawie wyodrębnionej z niej próby statystycznej.
Pierwszym krokiem procesu weryfikacji hipotez statystycznych jest oczywiście odpowiednie ich postawienie. Zwyczajowo, dla każdego wnioskowania stawia się dwie hipotezy: zerową, która zakłada brak różnic np. między grupami, pomiarami, rozkładami oraz przeciwną jej hipotezę alternatywną. W drugim kroku należy wybrać test statystyczny, odpowiedni do testowanych hipotez oraz posiadanych danych. Dalsze etapy zależą już od wybranego podejścia.
Najczęściej stosowanym podejściem do problemu weryfikacji hipotez statystycznych jest wnioskowanie częstościowe. Po określeniu poziomu istotności, obliczana jest statystyka testowa oraz, na jej podstawie, wartość p, o których więcej przeczytać można w artykule dot. istotności statystycznej[1]. Znając wartość p, można podjąć decyzję o odrzuceniu lub nieodrzuceniu hipotezy zerowej. To podejście pozwala na kontrolę błędów decyzyjnych – przyjmując poziom istotności godzimy się na to, że popełnimy 5 błędów na 100 wnioskowań, a przy zmniejszeniu poziomu istotności do będzie to już zaledwie 1 błąd na 1000.
Innym sposobem na weryfikację hipotez jest skorzystanie z metody wnioskowania bayesowskiego. To podejście wychodzi poza czysto częstościowe wyliczenia, dodając do procesu element subiektywny – prawdopodobieństwo a priori. Statystyka bayesowska pozwala na aktualizowanie dotychczasowych przekonań w oparciu o nowe dane. Przekonania a priori mogą bazować na dotychczasowych wynikach badań, ale też na eksperckiej wiedzy czy nawet intuicji. Zebrane później dane pozwalają na weryfikację tych przekonań – prawdopodobieństwo a posteriori. Aby zrozumieć to na przykładzie, wyobraźmy sobie, że chcemy przewidywać długość życia danej osoby. Bazując na średnim czasie trwania życia z raportu GUS z 2021 r.[2], moglibyśmy a priori przyjąć, że wiek ten wynosić będzie 75,6 lat. Jednak, przy założeniu, że posiadamy dodatkowe informacje o danej osobie, jak na przykład stan jej zdrowia, styl życia, czy genetyczne predyspozycje, możemy skorzystać z metody statystyki bayesowskiej, aby dokładniej przewidzieć jej długość życia.
Korzystając ze statystyki bayesowskiej, aktualizujemy więc nasze przekonanie o długości życia danej osoby w oparciu o zebrane dane (prawdopodobieństwo a posteriori). Na podstawie dostępnych informacji, nasza estymacja może zmienić się tak, że nasze przekonanie a posteriori może wskazywać na wyższą długość życia, np. 80 lat, biorąc pod uwagę zdrowy tryb życia danej osoby i brak historii chorób przewlekłych w rodzinie. Istotą statystyki bayesowskiej jest ciągłe aktualizowanie naszych przekonań na podstawie nowych danych, co pozwala nam na coraz bardziej trafne prognozy i lepsze podejmowanie decyzji.
Choć wnioskowanie częstościowe i bayesowskie są najczęściej wykorzystywanymi metodami weryfikacji hipotez statystycznych, warto wspomnieć, że dostępne są również takie podejścia jak test ilorazu wiarygodności (ang. likelihood-based inference), który dąży do maksymalizacji funkcji wiarygodności, czy kryterium informacji Akaike (AIC) opierające się na teorii informacji i porównywaniu różnych modeli statystycznych pod kątem zbalansowania między dopasowaniem danych a złożonością modelu.
[1] https://predictivesolutions.pl/istotnosc-statystyczna
[2] Trwanie życia w 2021 roku (stat.gov.pl)
Analizy prezentowane w tym artykule zostały zrealizowane przy pomocy PS IMAGO PRO
Podsumowanie
Wnioskowanie statystyczne odgrywa kluczową rolę w analizie danych, umożliwiając wyciąganie trafnych i rzetelnych wniosków na podstawie próby. Poprzez odpowiednie metody testowania hipotez oraz konstrukcję przedziałów ufności, analityk może podejmować decyzje oparte na solidnych podstawach liczbowych. Wprowadzenie do analizy rygorystycznego podejścia statystycznego przyczynia się do lepszego zrozumienia zjawisk i wspiera rozwijanie skutecznych strategii działania w różnych dziedzinach – zarówno w badaniach satysfakcji klientów, oceny strategii marketingowych, jak i w przewidywaniu wystąpienia niepożądanych zdarzeń czy weryfikacji skuteczności nowopowstałych leków.