Notatki z pliku notes/statystyczna/statystyczna_0000.00.00.md
Matematyka Statystyczna¶
Notatki z pliku notes/statystyczna/statystyczna_2024.10.07.md
https://home.agh.edu.pl/mariuszp
Wstęp / pojęcia podstawowe¶
populacja - zbiór wszystkich przedstawicieli przedstawiających daną cechę
próbka losowa - reprezentatywna próbka całej populacji
prób prosta - ma miejsce gdy prawdopodobieństwo jednego wyboru nie ma wpływu na kolejne/inne wybory (białe/czarne kule, losowanie z/bez zwracania)
zachowanie ukłądu któ©ego nie jesteśmy w stanie przewidzieć nazywamy przypadkowym a miarą przypadkowośći jest prawdopodobieńśtwo.
zdarzenie losowe - dowolny podzbiór przestrzeni zdarzeń elementarnych
zdarzenie elementarne musi być ekskluzywne (nie zawiera innych zdarzeń elementarnych)
Prawdopodobieńśtwo: Każdemu zdarzeniu losowemu z PZA przypisujemy liczbę określająćą prawdoopodbieńśtwo tego zdarzenia (0, 1). zdarzenie pewne = 1 prawdopodobieńśtwo Sumay ekskluzywnych zdarzeń jest równe sumie prawdopodobieńśtw.
prawdopodobieństwo subiektywne
gdy nie wiemy czy dane są prawdziwe (np. czy istnieje życie pod powierzchnią oceanu jednego z księżyców saturna).
albo, czy wolisz dostać 100 czy wziąć udział w loterii o 1000
Prawa De Morgana¶
Prawo rozdzielności dodawania i mnożenia¶
Wnioski:
Wskazówka
Prawdopodobieńśtwo zdarzenia przeciwnego jes trówne \(P(\bar{A}) = 1-P(A)\)
Wiele sdarzeń¶
przykłąd
A_i = i-ta ścianka nie wypadła ani raz \(P(A_i) = \frac{5}{t}^n\) \(A_j\) = dowolne 2 śicanki nie wypadły ani raz \(P(A_j) = \frac{2}{3}^n\) itd.
formuła wł/wył
$$
rozszerzenie pojęć kombinatorycznych¶
dwa typy losowań:
bez powtórzeń - raz wylosowany element nie wraca do populcji
z powtórzeniami - element wraca do populacji
Jeżeli kolejność jest istotna to warjacja, jeśli nie to kiombinacja
Warjacja z powtórzeniami \(W(n, k) = n^k\) (np. rozkłąd n rozróżnialnych cząstek w k komórkach)
warjacja bez powtórzeń \(V(n, k) = \frac{n!}{(n-k)!}\) (k rozróżnialnych kól w n komórkach gdy w komórce może być tylko jedna kula) (winda)
Permutacja \(P(n) = n!\) (Boltzman: k kul w k komórkach)
Kombinacja bez powtórzeń \(C(n, k) = \frac{n!}{k!(n-k)!}\)
kombinacje z powtó©zniami \(C(n+k-1, k)\)
Notatki z pliku notes/statystyczna/statystyczna_2024.10.07_post.md
Wskazówka
Przez \(P(E)\) profesor oznacza zdarzenie elementarne
Kwestia/przykład o kulach
Jest \(N\) komórek. Do każdej z nich można włożyć kulę/kilka kul (zależy od typu losowania). Kule mogą być rozróżnialne (na przykład ponumerowane) lub nierozróżnialne Istnieje też przypadek, w którym równiez komórki są nierozróżnialne.
Notatki z pliku notes/statystyczna/statystyczna_2024.10.11.md
Prawdopodobieńśtwo warunkowe¶
Statystyczna niezależność zdarzeń¶
Jeżeli \(p9a\cap B) = P(A) * P(B)\) zdarzenia nazywamy niezależnymi.
[więcej na prezentacji]
Notatki z pliku notes/statystyczna/statystyczna_2024.10.16.md
Zmienna losowa¶
Ref:
Zmienna losowa jest jak zwykła zmienna tylko że jest losowa.
Są 2 typy zm. Losowych:
dyskretna - są konkretne wartości jakie może przyjmować
ciągła - przyjmuje wszystkie wartośći z przedziału
Notatki z pliku notes/statystyczna/statystyczna_2024.10.31.md
Dobra, po kolei:¶
ref;
https://www.youtube.com/watch?v=OvTEhNL96v0
https://home.agh.edu.pl/~mariuszp/wfiis_stat/wyklad_stat_4.pdf
Wartość Oczekiwana¶
Wartość oczekiwana to teoretyczna (bo liczymy prawdopodobieństwo) wartość średniej pomiarów/danych.
Wskazówka
Dlaczeog średnia?
Rozważmy taką tabelkę:
\(x_i\) |
1 |
2 |
3 |
---|---|---|---|
\(p(x_i)\) |
0.2 |
0.5 |
0.3 |
To przecież oznacza, że gdybyśmy zrobili 10 pomiarów, to 2 z nich to byłoby 1, 5 - 2 i 3 3. Prawdopodobieństwo \(p(x_i) oznacza procentowy udział \)x_i$ w docelowych pomiarach.
hehe, mam nadzieję że to jasne.
Informacja
Oznaczenia: na wartość oczekiwaną X mamy następujące oznaczenia
\(E(x)\) (z youtube) również \(\mu\)
profesor oznacza jako \(\epsilon\left[x\right] = \left<x\right>\)
Informacja
Wartość Oczekiwana Funkcji Zmiennej losowej \(E(g(x)) = \sum_{i} g(x_i) * p(x_i)\)
Notatki z pliku notes/statystyczna/statystyczna_2025.01.15.md
Metoda momentów¶
K-ty teoretycznyy moment zdefiniowany jest jako:
(Czyli wartość oczekiwana \(X^k\)).
Można róœnież zdefiniować ten moment dla określonej “średniej” \(\mu_k = E((X - \mu)^k)\).
Moment k-tego rzędu próby (odnosi się bezpośrednio do danych, a nie do teoretycznej funkcji gęstości):
Można zauważyć, że dla k=1 powyższe wyrażenie uprości się do \(M_1 = \frac{1}{n} \sum_{i=1}^{n} x_i = \bar{x}\) (średnia próby).
Notatki z pliku notes/statystyczna/statystyczna_2025.01.30.md
Notatki do egzaminu (break it down)¶
Momenty¶
ogólnie moment n
tego rzędu to wartość oczekiwana x podniesionego do n
:
Moment pierwszego rzędu jest popularnie zwany średnią.
Moment centralny, to… Moment zwykły tylko że wokół środka (czyli od każdego x odejmujemy średnie x aka jego wartośc oczekiwaną - serio tu nie ma różnicy chyba).
Moment centralny oznacza się przez \(\mu\) i definuje jako:
Ważne
moment centralny 1 rzędu byłby równy zero:
Można to udowodnić (szczególnie cześć z \(\left\langle\left\langle x \right\rangle\right\rangle = \left\langle x \right\rangle\) z faktu, że \(\left\langle x \right\rangle\) jest liczbą więc można
wyciągnąć przed całkę i mieć całkę z f
która jest oczywiście 1
(zachęcam do policzenia. ja to mam w zeszycie i mi się nie chce przepisywać).
Dlatego też moment centralny 1 rzędu to… moment zwykły 1 rzędu czyli po prostu średnia.
Ważne
Spoiler alert! tak na prawdę to “śrdnia” \(\neq\) \(\left\langle x \right\rangle\), bo średnia to estymator wartości oczekiwanej, a wartość oczekiwana to wartość oczekiwana.
To jest tak, że średnią aka estymator liczysz z DANYCH, natomiast wartość oczekiwaną z ROZKŁADU. Więc hipootetycznie to te same rzeczy ale no jednak nie.
Moment mieszany \(\mu_{m, n}\) to moment centralny dla 2 rzeczy
ważne momenty¶
wariancja: \(\sigma^2 = \mu_2 = \left\langle x^2 \right\rangle - \left\langle x \right\rangle^2\)
kowariancja to moment mieszany 1 rzędu \(\mu_{1, 1} = \left\langle xy \right\rangle - \left\langle x \right\rangle \left\langle y \right\rangle\) Jeżeli zmienne są statystycznie niezależne \(\Rightarrow\) kowariancja równa 0
Współczynnik korelacji (Pearsona)¶
Notatki z pliku notes/statystyczna/statystyczna_2025.02.01.md
Rozkłady¶
Poissona \(P_k(\mu) = \frac{\mu^k}{k!}e^{-\mu}\), gdzie \(\mu > 0\). Wartość oczekiwana: \(E(X) = \mu\) (jedyne dziwne przejście to z Teylora mamy \(\sum_{i=1}^{\infty} \frac{\mu^i}{i!} = e^{\mu}\)).
Geometryczny \(G(p) = p* (1-p)^{k-1}\), gdzie \(k \in \mathbb{N}\). Wartość oczekiwana: \(E(X) = \frac{1}{p}\) (w obliczeniu robimy pochodna z \(\sum_k^\infty q^k = \frac{1}{1-q}\) - suma ciągu geometrycznego)
Populacja a Próba¶
Prawdę mówiąc te pojęcia są często używane praktycznie wszędzie w wykładach ale… jest to trochę mylące.
Populacja
zbiór WSZYSTKICH obiektów, które nas interesują.
Na przykład - badając wzrost ludzi na świecie populację stanowią… wszyscy ludzie na świecie. Inny przykład - badamy czy cegły danego producenta są wadliwe. Populacje stanowią wszystkie cegły tego kolesia ever.
Próba
jak widać z powyższej definicji badanie całej populacji jest średnio wykonalne/praktyczne.
Próba to Element populacji co do którego mamy dane.
W przykładach powyżej:
1000 losowo wybranych osób
n losowych cegieł.
Nazwa |
Populacja |
Próba |
---|---|---|
średnia |
\(\mu\) |
$\bar{x} |
wariancja |
\(\sigma^2\) |
\(s^2\) |
Centralne Twierdzenie Graniczne
mamy n niezależnych zmiennych losowych \(X_1, X_2, ..., X_n\) pochodzących z tego samego rozkładu.
Niech: \(S_n = X_1 + X_2 + ... + X_n\) oraz \(\bar{X} = \frac{S_n}{n}\)
wtedy dzieje się fajna rzecz, otóż:
Polecam poniższy kod:
import numpy as np
import matplotlib.pyplot as plt
def central_limit_theorem_demo(sample_size=1000, num_samples=10000): # ode mnie: można ustawić sample size na 1 i za dużo to nie zmieni - dalej działa
means = []
for _ in range(num_samples):
sample = np.random.uniform(0, 1, sample_size) # Losujemy próbkę z rozkładu jednostajnego
means.append(np.mean(sample)) # Obliczamy średnią próbki
# Rysowanie histogramu średnich
plt.hist(means, bins=50, density=True, alpha=0.6, color='b')
# Teoretyczna krzywa normalna
mu = 0.5 # Średnia rozkładu jednostajnego U(0,1)
sigma = np.sqrt(1/12) / np.sqrt(sample_size) # Wariancja U(0,1) wynosi 1/12
x = np.linspace(min(means), max(means), 100)
plt.plot(x, (1 / (sigma * np.sqrt(2 * np.pi))) * np.exp(- (x - mu) ** 2 / (2 * sigma ** 2)), 'r', linewidth=2)
plt.title(f'CTG: Średnie {num_samples} próbek (rozmiar próbki={sample_size})')
plt.xlabel('Średnia próbek')
plt.ylabel('Gęstość prawdopodobieństwa')
plt.show()
# Uruchamiamy demonstrację
central_limit_theorem_demo(sample_size=30, num_samples=10000)
Notatki z pliku notes/statystyczna/wyklady_tracker.md
Tracker wykłądóœ
07.10.2024 (dodatkowy)