Kunvarianco

El Vikipedio, la libera enciklopedio
Saltu al: navigado, serĉo

En teorio de probabloj kaj statistiko, la kunvarianco inter du reelo-valoraj hazardaj variabloj X kaj Y, kun atendataj valoroj E(X)=\mu \  kaj  \ E(Y)=\nu \ , estas notita per \operatorname{cov}(X, Y) (ankaŭ foje per  \sigma_{XY} \ ), kaj difinita tiel:

\operatorname{cov}(X, Y) = \sigma_{XY} = \operatorname{E} [(X - \mu) (Y - \nu)]

kie E estas la atendata valoro.

Intuicie, kunvarianco estas la mezuri de kiom du variabloj varias kune. Tio estas ke la kunvarianco iĝas pli pozitiva por ĉiu paro de valoroj kiu diferenciĝas de iliaj meznombroj en la sama direkto, kaj iĝas pli negativa kun ĉiu paro de valoroj kiuj diferenciĝas de ilia meznombro en kontraŭaj direktoj. Tiamaniere, ju pli ofte ili diferenciĝas en la sama direkto, des pli pozitiva la kunvarianco, kaj ju pli ofte ili diferenciĝas en kontraŭaj direktoj, des pli negativa la kunvarianco.

La kunvarianco estas iam nomata kiel mezuro de "lineara dependeco" inter la du hazardaj variabloj. La frazo "lineara dependeco" ĉi tie signifas ne la samon kiel ĝi signifas en lineara algebro, vidu en lineara dependeco, kvankam ĉi tiuj signifoj iel interrilatas.

La unuo de mezuro de la kunvarianco cov(X, Y) estas tiuj de X multiplikitaj je tiuj de Y. Per kontrasto, la korelacio, kiu dependas de la kunvarianco, estas sendimensia mezuri de la lineara dependeco.

La difino pli supre estas ekvivalenta al la sekva formulo kiu estadas uzata en kalkuloj:

\operatorname{cov}(X, Y) = \operatorname{E}(X Y) - \mu \nu

Se X kaj Y estas sendependaj, tiam ilia kunvarianco estas nulo. Ĉi tio sekvas ĉar en okazo de sendependeco

E(X \cdot Y)=E(X) \cdot E(Y)=\mu\nu

La reo, tamen, ne estas ĝenerale vera: eblas ke X kaj Y estas ne sendependaj sed ilia kunvarianco estas nulo. Hazarda variablo kies kunvarianco estas nulo estas nomata kiel nekorelaciigita (kun certa la alia hazarda variablo).

Se X kaj Y estas reelo-valoraj hazarda variablo kaj c estas konstanto ("konstanto", en ĉi tiu ĉirkaŭteksto, signifas ke ne hazarda), tiam jenaj faktoj sekvas de la difino de kunvarianco:

\operatorname{cov}(X, X) = \operatorname{var}(X)
\operatorname{cov}(X, Y) = \operatorname{cov}(Y, X)
\operatorname{cov}(cX, Y) = c\, \operatorname{cov}(X, Y)
\operatorname{cov}\left(\sum_i{X_i}, \sum_j{Y_j}\right) = \sum_i{\sum_j{\operatorname{cov}\left(X_i, Y_j\right)}}

Por kolumno-vektoro-valoraj hazardaj variabloj X kaj Y kun n kaj m skalaraj komponantoj respektive kaj kun respektivaj atendataj valoroj μ kaj ν, la kunvarianco estas difinita al esti la n×m matrico

\operatorname{cov}(X, Y) = \operatorname{E}[(X-\mu)(Y-\nu)^\top]

Por vektoro-valora hazarda variablo, cov(X, Y) kaj cov(Y, X) estas transponoj unu de la alia:

cov(X, Y) = cov(Y, X)T

Matrico de varianco-kunvarianco[redakti | redakti fonton]

La matrico de varianco-kunvarianco de vektoro \vec X de k variabloj estas la matrico konsistanta el kunvariancoj de eroj de la vektoro inter ili:


\operatorname{var}(\vec X)
=
\operatorname{var}\begin{pmatrix} X_1  \\ \vdots\\ X_k \end{pmatrix}
=
\begin{pmatrix} 
\operatorname{cov}(X_{1}, X_{1}) & \operatorname{cov}(X_{2}, X_{1}) &  \cdots & \operatorname{cov}(X_{k}, X_{1}) \\
\operatorname{cov}(X_{1}, X_{2}) & \operatorname{cov}(X_{2}, X_{2}) & \cdots & \operatorname{cov}(X_{k}, X_{2}) \\
\vdots & \vdots & \ddots & \vdots\\
\operatorname{cov}(X_{1}, X_{k}) & \operatorname{cov}(X_{2}, X_{k}) & \cdots&  \operatorname{cov}(X_{k}, X_{k}) 
\end{pmatrix}
=
\begin{pmatrix} 
\operatorname{var}(X_1) & \operatorname{cov}(X_{2}, X_{1}) &  \cdots & \operatorname{cov}(X_{k}, X_{1}) \\
\operatorname{cov}(X_{1}, X_{2}) & \operatorname{var}(X_2) & \cdots & \operatorname{cov}(X_{k}, X_{2}) \\
\vdots & \vdots & \ddots & \vdots\\
\operatorname{cov}(X_{1}, X_{k}) & \operatorname{cov}(X_{2}, X_{k}) & \cdots&  \operatorname{var}(X_k) 
\end{pmatrix}

Pro tio ke \operatorname{cov}(X_i, X_i) = \operatorname{var}(X_i) sur ĉefdiagonalo de la matrico estas variancoj de eroj de la vektoro.

Pro tio ke \operatorname{cov}(X_i, X_j) = \operatorname{cov}(X_j, X_i) la matrico estas simetria matrico:

\operatorname{var}(\vec X)=\operatorname{var}(\vec X)^T

Loĝantara kunvarianco kaj specimena kunvarianco[redakti | redakti fonton]

Ĝenerale, la loĝantara kunvarianco de "finiaj" loĝantaroj de du vicoj da N elementoj estas donita per:

\sigma_{xy} = \frac{1}{N} \sum_{i=1}^N
 \left(x_i - \overline{x} \right) \left(y_i - \overline{y} \right)  \, ,

kie \overline{x} estas la empiria loĝantara meznombro de la unua vico \bar{x} = \frac{1}{N} \sum_{i=1}^N{x_i}, kaj kie\overline{y} estas la empiria loĝantara meznombro de la dua vico \bar{y} = \frac{1}{N} \sum_{i=1}^N{y_i}.

En multaj praktikaj situacioj, la vera kunvarianco de la loĝantaroj estas ne sciata apriore, kaj devas esti komputita iel. Kiam traktante kun multnombraj finiaj loĝantaroj, oni povas nek observi, nek nombri ĉiujn N elementojn de la loĝantaro; do estas preskaŭ neniam eble trovi precizan valoron de la loĝantara kunvarianco

Komuna maniero taksi la kunvariancon de multnombraj finiaj aŭ malfiniaj loĝantaroj estas per specimenoj. Ni komencas kun "finia" specimenaj loĝantaroj prenitaj el la entutaj loĝantaroj. Supozu ni ke tia specimeno estas la vicoj (x_1,\dots,x_n) kaj (y_1,\dots,y_n), kie n < N.

La specimena kunvarianco de la specimeno, po n elementoj en ĉiu loĝantaro, estas donita per:

s_{xy} = \frac{1}{n-1} \sum_{i=1}^{n}
 \left(x_i - \overline{x} \right)  \left(y_i - \overline{y} \right)  \, ,

kie \overline{x} kaj \overline{y} estas la empiriaj meznombroj de la du respektivaj subloĝantaroj.

Notu ke la termo n-1 en la denominatoro pli supre malsimilas al la ekvacio pri \sigma_{xy} \ , kiu havas N en la denominatoro.

Notu ke s_{xy} \ estas ĝenerale ne identa al la vera loĝantara kunvarianco; ĝi estas nur proksimumo, kvankam tre bona nur kiam n estas granda.

Vidu ankaŭ[redakti | redakti fonton]