statystyka

Entropia

Entropia jest miarą nieuporządkowania lub niepewności w rozkładzie prawdopodobieństwa.

Czytaj więcej

Regresja logistyczna

Regresja służy do przewidywania wartości zmiennej zależnej (przewidywanej) na podstawie wartości zmiennej lub zmiennych niezależnych (predyktorów).

Czytaj więcej

Skośność i kurtoza

Kurtoza i skośność to miary asymetrii opisujące takie własności jak kształt i asymetria analizowanego rozkładu. Dostarczają nam informacji, w jaki sposób wartości zmiennych...

Czytaj więcej

Testy t Studenta

Grupa testów t Studenta służy do porównania ze sobą dwóch grup wyników, zmierzonych za pomocą średniej arytmetycznej.

Czytaj więcej

Moc testu

Moc testu to prawdopodobieństwo wykrycia istotnego statystycznie efektu, gdy faktycznie taki w badanej populacji występuje.

Czytaj więcej

Analiza czynnikowa

Celem analizy czynnikowej jest wyjaśnienie jak największej części zmienności przy pomocy jak najmniejszej liczby zmiennych.

Czytaj więcej

Błędy I i II rodzaju

Sprawdzając postawione hipotezy badawcze, w kategoriach statystycznych odnosimy się do tzw. testowania hipotez statystycznych. Wyjściową hipotezą jest hipoteza zerowa, która...

Czytaj więcej
Strona 2 z 5
Ustawienia dostępności
Zwiększ wysokość linii
Zwiększ odległość między literami
Wyłącz animacje
Przewodnik czytania
Czytnik
Większy kursor