Korelace

Z Wikipedie, otevřené encyklopedie
Skočit na: Navigace, Hledání

Korelace (z lat.) znamená vzájemný vztah mezi dvěma procesy nebo veličinami. Pokud se jedna z nich mění, mění se korelativně i druhá a naopak. Pokud se mezi dvěma procesy ukáže korelace, je pravděpodobné, že na sobě závisejí, nelze z toho však ještě usoudit, že by jeden z nich musel být příčinou a druhý následkem. To samotná korelace nedovoluje rozhodnout.

V určitějším slova smyslu se pojem korelace užívá ve statistice, kde znamená vzájemný lineární vztah mezi znaky či veličinami x a y. Míru korelace pak vyjadřuje korelační koeficient, který může nabývat hodnot od −1 až po +1.

Korelace ve statistice[editovat | editovat zdroj]

Na obrázku je několik příkladů grafického zobrazení naměřených dat a koeficienty jejich korelace s funkcí y = x

Vztah mezi znaky či veličinami x a y může být kladný, pokud (přibližně) platí y = kx, nebo záporný (y = -kx). Hodnota korelačního koeficientu −1 značí zcela nepřímou závislost (antikorelaci), tedy čím více se zvětší hodnoty v první skupině znaků, tím více se zmenší hodnoty v druhé skupině znaků, např. vztah mezi uplynulým a zbývajícím časem. Hodnota korelačního koeficientu +1 značí zcela přímou závislost, např. vztah mezi rychlostí bicyklu a frekvencí otáček kola bicyklu. Pokud je korelační koeficient roven 0 (nekorelovanost), pak mezi znaky není žádná statisticky zjistitelná lineární závislost. Je dobré si uvědomit, že i při nulovém korelačním koeficientu na sobě veličiny mohou záviset, pouze tento vztah nelze vyjádřit lineární funkcí, a to ani přibližně.

Výpočet Pearsonova korelačního koeficientu[editovat | editovat zdroj]

Vypočteme aritmetické průměry proměnných X a Y (E(X) a E(Y)), vypočteme střední hodnotu součinu odchylek od těchto průměrů. Tím jsme spočetli tzv. kovarianci, což je však absolutní veličina, pro výpočet relativní veličiny pak kovarianci dělíme násobkem odmocnin rozptylů proměnných X a Y.

\rho_{X,Y}={\mathrm{cov}(X,Y) \over \sigma_X \sigma_Y} ={E((X-\mu_X)(Y-\mu_Y)) \over \sigma_X\sigma_Y},

Protože  \mu_X = E(X) , \sigma^2_X = E(X^2) - E^2(X) a obdobně pro Y, můžeme psát:

\rho_{X,Y}=\frac{E(XY)-E(X)E(Y)}{\sqrt{E(X^2)-E^2(X)}~\sqrt{E(Y^2)-E^2(Y)}}

Koeficient korelace nabývá hodnot z intervalu \langle -1,1\rangle. Při nezávislosti veličin X a Y je koeficient korelace roven 0. Nulový korelační koeficient však neznamená, že jsou veličiny X a Y nezávislé.

Tento koeficient jako první odvodil anglický psycholog a antropolog Sir Francis Galton.

Korelace v teorii signálů[editovat | editovat zdroj]

Hlavní článek: korelace (zpracování signálu)

Zkrácený výraz pro korelační funkci.

Pro spojité signály f(t) a g(t):

(f \star g)(t) \ \stackrel{\mathrm{def}}{=} \int_{-\infty}^{\infty} f^*(\tau) \cdot g(t+\tau)\,d\tau

Pro diskrétní signály fk a gk:

(f \star g)_k \ \stackrel{\mathrm{def}}{=} \sum_{i=-\infty}^{\infty} f^*_i \ g_{k+i}

U komplexních signálů f* představuje komplexně sdružené číslo k f.

Velmi se podobá konvoluci. Rozdíl je hlavně v časovém překlopení druhé funkce g.

Jako autokorelace se rozumí korelace (f \star f). Lze tak určit tzv. soběpodobnost signálu, tedy zda se např. signál v určitých periodách neopakuje.

Související články[editovat | editovat zdroj]