Notatki z pliku notes/statystyczna/statystyczna_0000.00.00.md

Matematyka Statystyczna


Notatki z pliku notes/statystyczna/statystyczna_2024.10.07.md

https://home.agh.edu.pl/mariuszp

Wstęp / pojęcia podstawowe

populacja - zbiór wszystkich przedstawicieli przedstawiających daną cechę

próbka losowa - reprezentatywna próbka całej populacji

prób prosta - ma miejsce gdy prawdopodobieństwo jednego wyboru nie ma wpływu na kolejne/inne wybory (białe/czarne kule, losowanie z/bez zwracania)

zachowanie ukłądu któ©ego nie jesteśmy w stanie przewidzieć nazywamy przypadkowym a miarą przypadkowośći jest prawdopodobieńśtwo.

zdarzenie losowe - dowolny podzbiór przestrzeni zdarzeń elementarnych

zdarzenie elementarne musi być ekskluzywne (nie zawiera innych zdarzeń elementarnych)

Prawdopodobieńśtwo: Każdemu zdarzeniu losowemu z PZA przypisujemy liczbę określająćą prawdoopodbieńśtwo tego zdarzenia (0, 1). zdarzenie pewne = 1 prawdopodobieńśtwo Sumay ekskluzywnych zdarzeń jest równe sumie prawdopodobieńśtw.

prawdopodobieństwo subiektywne

gdy nie wiemy czy dane są prawdziwe (np. czy istnieje życie pod powierzchnią oceanu jednego z księżyców saturna).

albo, czy wolisz dostać 100 czy wziąć udział w loterii o 1000

Prawa De Morgana

\[\begin{split} \bar{A \cup B} = \bar{A} \cap \bar{B} \\ \bar{A \cap B} = \bar{A} \cup \bar{B} \end{split}\]

Prawo rozdzielności dodawania i mnożenia

\[\begin{split} A \cap (B \cup C) = (A \cap B) \cup (A \cap C) \\ A \cup (B \cap C) = (A \cup B) \cap (A \cup C) \end{split}\]

Wnioski:

\[\begin{split} A \cup B = A \cup (B - A \cap B) \\ \end{split}\]

Wskazówka

Prawdopodobieńśtwo zdarzenia przeciwnego jes trówne \(P(\bar{A}) = 1-P(A)\)

Wiele sdarzeń

\[ P(U_{i=1}^{n} A_i) = \sum_{i=1}^{n} P(A_i) - \sum_{i=1}^{n} \sum_{j=i+1}^{n} P(A_i \cap A_j) + \sum_{i=1}^{n} \sum_{j=i+1}^{n} \sum_{k=j+1}^{n} P(A_i \cap A_j \cap A_k) - \ldots \]

przykłąd

A_i = i-ta ścianka nie wypadła ani raz \(P(A_i) = \frac{5}{t}^n\) \(A_j\) = dowolne 2 śicanki nie wypadły ani raz \(P(A_j) = \frac{2}{3}^n\) itd.

formuła wł/wył

$$

rozszerzenie pojęć kombinatorycznych

dwa typy losowań:

  • bez powtórzeń - raz wylosowany element nie wraca do populcji

  • z powtórzeniami - element wraca do populacji

Jeżeli kolejność jest istotna to warjacja, jeśli nie to kiombinacja

  • Warjacja z powtórzeniami \(W(n, k) = n^k\) (np. rozkłąd n rozróżnialnych cząstek w k komórkach)

  • warjacja bez powtórzeń \(V(n, k) = \frac{n!}{(n-k)!}\) (k rozróżnialnych kól w n komórkach gdy w komórce może być tylko jedna kula) (winda)

  • Permutacja \(P(n) = n!\) (Boltzman: k kul w k komórkach)

  • Kombinacja bez powtórzeń \(C(n, k) = \frac{n!}{k!(n-k)!}\)

  • kombinacje z powtó©zniami \(C(n+k-1, k)\)


Notatki z pliku notes/statystyczna/statystyczna_2024.10.07_post.md

Wskazówka

Przez \(P(E)\) profesor oznacza zdarzenie elementarne

Kwestia/przykład o kulach

Jest \(N\) komórek. Do każdej z nich można włożyć kulę/kilka kul (zależy od typu losowania). Kule mogą być rozróżnialne (na przykład ponumerowane) lub nierozróżnialne Istnieje też przypadek, w którym równiez komórki są nierozróżnialne.


Notatki z pliku notes/statystyczna/statystyczna_2024.10.11.md

Prawdopodobieńśtwo warunkowe

\[ P(A|B) = \frac{P(A\cap B)}{P(B)} \]

Statystyczna niezależność zdarzeń

Jeżeli \(p9a\cap B) = P(A) * P(B)\) zdarzenia nazywamy niezależnymi.

[więcej na prezentacji]


Notatki z pliku notes/statystyczna/statystyczna_2024.10.16.md

Zmienna losowa

Ref:

Zmienna losowa jest jak zwykła zmienna tylko że jest losowa.

Są 2 typy zm. Losowych:

  • dyskretna - są konkretne wartości jakie może przyjmować

  • ciągła - przyjmuje wszystkie wartośći z przedziału


Notatki z pliku notes/statystyczna/statystyczna_2024.10.31.md

Dobra, po kolei:

ref;

  • https://www.youtube.com/watch?v=OvTEhNL96v0

  • https://home.agh.edu.pl/~mariuszp/wfiis_stat/wyklad_stat_4.pdf

Wartość Oczekiwana

Wartość oczekiwana to teoretyczna (bo liczymy prawdopodobieństwo) wartość średniej pomiarów/danych.

\[ E(X) = \sum_{i=1}^{n} x_i * p(x_i) \]

Wskazówka

Dlaczeog średnia?

Rozważmy taką tabelkę:

\(x_i\)

1

2

3

\(p(x_i)\)

0.2

0.5

0.3

To przecież oznacza, że gdybyśmy zrobili 10 pomiarów, to 2 z nich to byłoby 1, 5 - 2 i 3 3. Prawdopodobieństwo \(p(x_i) oznacza procentowy udział \)x_i$ w docelowych pomiarach.

\[ \bar{x} = \frac{1 + 1 + 5 * 2 + 3 * 3}{10} = (1 * 0.2) + (2 * 0.5) + (3 * 0.3) = \sum_{i = 1}^{3} x_i * p(x_i) \]

hehe, mam nadzieję że to jasne.

Informacja

Oznaczenia: na wartość oczekiwaną X mamy następujące oznaczenia

  • \(E(x)\) (z youtube) również \(\mu\)

  • profesor oznacza jako \(\epsilon\left[x\right] = \left<x\right>\)

Informacja

Wartość Oczekiwana Funkcji Zmiennej losowej \(E(g(x)) = \sum_{i} g(x_i) * p(x_i)\)


Notatki z pliku notes/statystyczna/statystyczna_2025.01.15.md

Metoda momentów

K-ty teoretycznyy moment zdefiniowany jest jako:

\[ \mu_k = E(X^k) = \int_{-\infty}^{\infty} x^k f(x) dx \]

(Czyli wartość oczekiwana \(X^k\)).

Można róœnież zdefiniować ten moment dla określonej “średniej” \(\mu_k = E((X - \mu)^k)\).

Moment k-tego rzędu próby (odnosi się bezpośrednio do danych, a nie do teoretycznej funkcji gęstości):

\[ M_k = \frac{1}{n} \sum_{i=1}^{n} x_i^k \]

Można zauważyć, że dla k=1 powyższe wyrażenie uprości się do \(M_1 = \frac{1}{n} \sum_{i=1}^{n} x_i = \bar{x}\) (średnia próby).


Notatki z pliku notes/statystyczna/statystyczna_2025.01.30.md

Notatki do egzaminu (break it down)

Momenty

ogólnie moment ntego rzędu to wartość oczekiwana x podniesionego do n:

\[ m_n = \left\langle x^n \right\rangle \]

Moment pierwszego rzędu jest popularnie zwany średnią.

Moment centralny, to… Moment zwykły tylko że wokół środka (czyli od każdego x odejmujemy średnie x aka jego wartośc oczekiwaną - serio tu nie ma różnicy chyba).

Moment centralny oznacza się przez \(\mu\) i definuje jako:

\[ \mu_n = \left\langle (x - \left\langle x \right\rangle)^n \right\rangle \]

Ważne

moment centralny 1 rzędu byłby równy zero:

\[\begin{split} \mu_{hipotetycznie 1} = \left\langle (x - \left\langle x \right\rangle)^1 \right\rangle = \\ \left\langle x \right\rangle - \left\langle\left\langle x \right\rangle\right\rangle = \left\langle x \right\rangle - \left\langle x \right\rangle = 0 \end{split}\]

Można to udowodnić (szczególnie cześć z \(\left\langle\left\langle x \right\rangle\right\rangle = \left\langle x \right\rangle\) z faktu, że \(\left\langle x \right\rangle\) jest liczbą więc można wyciągnąć przed całkę i mieć całkę z f która jest oczywiście 1 (zachęcam do policzenia. ja to mam w zeszycie i mi się nie chce przepisywać).

Dlatego też moment centralny 1 rzędu to… moment zwykły 1 rzędu czyli po prostu średnia.

Ważne

Spoiler alert! tak na prawdę to “śrdnia” \(\neq\) \(\left\langle x \right\rangle\), bo średnia to estymator wartości oczekiwanej, a wartość oczekiwana to wartość oczekiwana.

To jest tak, że średnią aka estymator liczysz z DANYCH, natomiast wartość oczekiwaną z ROZKŁADU. Więc hipootetycznie to te same rzeczy ale no jednak nie.

Moment mieszany \(\mu_{m, n}\) to moment centralny dla 2 rzeczy

\[ \mu_{m, n} = \left\langle (x - \left\langle x \right\rangle)^m (y - \left\langle y \right\rangle)^n \right\rangle \]

ważne momenty

  • wariancja: \(\sigma^2 = \mu_2 = \left\langle x^2 \right\rangle - \left\langle x \right\rangle^2\)

  • kowariancja to moment mieszany 1 rzędu \(\mu_{1, 1} = \left\langle xy \right\rangle - \left\langle x \right\rangle \left\langle y \right\rangle\) Jeżeli zmienne są statystycznie niezależne \(\Rightarrow\) kowariancja równa 0

Współczynnik korelacji (Pearsona)

\[ p = \frac{cov[x,y]}{\sqrt{v[x]v[y]}} \]

Notatki z pliku notes/statystyczna/statystyczna_2025.02.01.md

Rozkłady

  1. Poissona \(P_k(\mu) = \frac{\mu^k}{k!}e^{-\mu}\), gdzie \(\mu > 0\). Wartość oczekiwana: \(E(X) = \mu\) (jedyne dziwne przejście to z Teylora mamy \(\sum_{i=1}^{\infty} \frac{\mu^i}{i!} = e^{\mu}\)).

  2. Geometryczny \(G(p) = p* (1-p)^{k-1}\), gdzie \(k \in \mathbb{N}\). Wartość oczekiwana: \(E(X) = \frac{1}{p}\) (w obliczeniu robimy pochodna z \(\sum_k^\infty q^k = \frac{1}{1-q}\) - suma ciągu geometrycznego)

Populacja a Próba

Prawdę mówiąc te pojęcia są często używane praktycznie wszędzie w wykładach ale… jest to trochę mylące.

Populacja

zbiór WSZYSTKICH obiektów, które nas interesują.

Na przykład - badając wzrost ludzi na świecie populację stanowią… wszyscy ludzie na świecie. Inny przykład - badamy czy cegły danego producenta są wadliwe. Populacje stanowią wszystkie cegły tego kolesia ever.

Próba

jak widać z powyższej definicji badanie całej populacji jest średnio wykonalne/praktyczne.

Próba to Element populacji co do którego mamy dane.

W przykładach powyżej:

  • 1000 losowo wybranych osób

  • n losowych cegieł.

Nazwa

Populacja

Próba

średnia

\(\mu\)

$\bar{x}

wariancja

\(\sigma^2\)

\(s^2\)

Centralne Twierdzenie Graniczne

mamy n niezależnych zmiennych losowych \(X_1, X_2, ..., X_n\) pochodzących z tego samego rozkładu.

Niech: \(S_n = X_1 + X_2 + ... + X_n\) oraz \(\bar{X} = \frac{S_n}{n}\)

wtedy dzieje się fajna rzecz, otóż:

\[ \lim_{n \to \infty} \frac{S_n - n\mu}{\sigma \sqrt{n}} = \frac{\bar{x} - \mu}{\frac{\sigma}{\sqrt{n}}} = N(0,1) \]

Polecam poniższy kod:

import numpy as np
import matplotlib.pyplot as plt

def central_limit_theorem_demo(sample_size=1000, num_samples=10000): # ode mnie: można ustawić sample size na 1 i za dużo to nie zmieni - dalej działa
    means = []
    for _ in range(num_samples):
        sample = np.random.uniform(0, 1, sample_size)  # Losujemy próbkę z rozkładu jednostajnego
        means.append(np.mean(sample))  # Obliczamy średnią próbki

    # Rysowanie histogramu średnich
    plt.hist(means, bins=50, density=True, alpha=0.6, color='b')

    # Teoretyczna krzywa normalna
    mu = 0.5  # Średnia rozkładu jednostajnego U(0,1)
    sigma = np.sqrt(1/12) / np.sqrt(sample_size)  # Wariancja U(0,1) wynosi 1/12
    x = np.linspace(min(means), max(means), 100)
    plt.plot(x, (1 / (sigma * np.sqrt(2 * np.pi))) * np.exp(- (x - mu) ** 2 / (2 * sigma ** 2)), 'r', linewidth=2)

    plt.title(f'CTG: Średnie {num_samples} próbek (rozmiar próbki={sample_size})')
    plt.xlabel('Średnia próbek')
    plt.ylabel('Gęstość prawdopodobieństwa')
    plt.show()

# Uruchamiamy demonstrację
central_limit_theorem_demo(sample_size=30, num_samples=10000)

Notatki z pliku notes/statystyczna/wyklady_tracker.md

Tracker wykłądóœ

  • 07.10.2024 (dodatkowy)