Singulara valora malkomponaĵo

El Vikipedio, la libera enciklopedio
Saltu al: navigado, serĉo

En lineara algebro, la singulara valora malkomponaĵosingulara valora dekomponaĵo (SVD) estas matrica malkomponaĵo (matrica faktorigo) de reelakompleksa matrico.

Singulara valoro malkomponaĵo povas esti de ankaŭ ne-kvadrata matrico.

Estu M estas m×n matrico kies elementoj estas de kampo K, kiu estas la kampo de reelaj nombroj aŭ la kampo de kompleksaj nombroj. Tiam ekzistas faktorigo de formo

M = UΣV*

kie U estas m×m unita matrico super K;

Σ estas m×n diagonala matrico kun nenegativaj reelaj nombroj sur la ĉefdiagonalo;
V estas n×n unita matrico super K;
V* estas konjugita transpono de V.

Por reela M, ankaŭ U kaj V estas reelaj, kaj konjugita transpono estas la samo kiel transpono.

Komuna konvencio estas ordigi la diagonalajn elementojn Σi, i en malkreska ordo. En ĉi tiu okazo, la diagonala matrico Σ estas unike difinita per M, kvankam la matricoj U kaj V estas ne unikaj. La diagonalaj elementoj de Σ estas la singularaj valoroj de M.

Ekzegezo de la malkomponaĵo povas esti ĉi tia:

  • La kolumnoj de V formas aron de ortonormalaj enigaj aŭ analizantaa bazvektoroj por M. Ili estas la ajgenvektoroj de M*M.
  • La kolumnoj de U formas aron de ortonormalaj eligaj bazvektoroj por M. Ili estas la ajgenvektoroj de MM*.
  • La diagonalaj valoroj en matrico Σ estas la skalaraj amplifaj koefivientoj, per kiu ĉiu respektiva enigo estas multiplikata por doni respektivan eligoj. Ili estas la kvadrataj radikoj de la ajgenoj de MM* kaj M*M kiu respektivas kun la samaj kolumnoj en U kaj V.

Ekzemplo[redakti | redakti fonton]

Estu la matrico

M =
\begin{bmatrix}
1 & 0 & 0 & 0 & 2\\
0 & 0 & 3 & 0 & 0\\
0 & 0 & 0 & 0 & 0\\
0 & 4 & 0 & 0 & 0\end{bmatrix}

Singulara valoro malkomponaĵo de ĉi tiu matrico estas donita per UΣV* kun


U = \begin{bmatrix}
0 & 0 & 1 & 0\\
0 & 1 & 0 & 0\\
0 & 0 & 0 & -1\\
1 & 0 & 0 & 0\end{bmatrix} ,
\Sigma = \begin{bmatrix}
4 & 0 & 0 & 0 & 0\\
0 & 3 & 0 & 0 & 0\\
0 & 0 & \sqrt{5} & 0 & 0\\
0 & 0 & 0 & 0 & 0\end{bmatrix} ,
V^* = \begin{bmatrix}
0 & 1 & 0 & 0 & 0\\
0 & 0 & 1 & 0 & 0\\
\sqrt{0,2} & 0 & 0 & 0 & \sqrt{0,8}\\
0 & 0 & 0 & 1 & 0\\
-\sqrt{0,8} & 0 & 0 & 0 & \sqrt{0,2}\end{bmatrix}

La Σ havas ne-nulaj valoroj nur en sia ĉefdiagonalo. La matricoj U kaj V* estas unitaj, multipliko de ĉiu el ili per sia respektiva konjugita transpono donas identan matricon, kiel estas montrite pli sube. En ĉi tiu okazo, ĉar U kaj V* estas reelaj, konjugita transpono estas la samo kiel transpono.


\begin{bmatrix}
0 & 0 & 1 & 0\\
0 & 1 & 0 & 0\\
0 & 0 & 0 & -1\\
1 & 0 & 0 & 0
\end{bmatrix}
\cdot
\begin{bmatrix}
0 & 0 & 0 & 1\\
0 & 1 & 0 & 0\\
1 & 0 & 0 & 0\\
0 & 0 & -1 & 0
\end{bmatrix}
=
\begin{bmatrix}
1 & 0 & 0 & 0\\
0 & 1 & 0 & 0\\
0 & 0 & 1 & 0\\
0 & 0 & 0 & 1
\end{bmatrix}

\begin{bmatrix}
0 & 0 & \sqrt{0,2} & 0 & -\sqrt{0,8}\\
1 & 0 & 0 & 0 & 0\\
0 & 1 & 0 & 0 & 0\\
0 & 0 & 0 & 1 & 0\\
0 & 0 & \sqrt{0,8} & 0 & \sqrt{0,2}
\end{bmatrix}
\cdot
\begin{bmatrix}
0 & 1 & 0 & 0 & 0\\
0 & 0 & 1 & 0 & 0\\
\sqrt{0,2} & 0 & 0 & 0 & \sqrt{0,8}\\
0 & 0 & 0 & 1 & 0\\
-\sqrt{0,8} & 0 & 0 & 0 & \sqrt{0,2}
\end{bmatrix}
=
\begin{bmatrix}
1 & 0 & 0 & 0 & 0\\
0 & 1 & 0 & 0 & 0\\
0 & 0 & 1 & 0 & 0\\
0 & 0 & 0 & 1 & 0\\
0 & 0 & 0 & 0 & 1
\end{bmatrix}

En ĉi tiu okazo singulara valoro malkomponaĵo estas ne unika. La alia ebla varianto estas V tia ke


V^* = \begin{bmatrix}
0 & 1 & 0 & 0 & 0\\
0 & 0 & 1 & 0 & 0\\
\sqrt{0,2} & 0 & 0 & 0 & \sqrt{0,8}\\
\sqrt{0,4} & 0 & 0 & \sqrt{0,5} & -\sqrt{0,1}\\
-\sqrt{0,4} & 0 & 0 & \sqrt{0,5} & \sqrt{0,1} \end{bmatrix}

Singularaj valoroj, singularaj vektoroj, kaj ilia rilato al la singulara valoro malkomponaĵo[redakti | redakti fonton]

Nenegativa reela nombro σ estas singulara valoro por matrico M se kaj nur se ekzistas unuo-longaj vektoroj u en Km kaj v en Kn tiaj ke

Mv = σu

kaj

M*u = σv

La vektoroj u kaj v estas la maldekstro-singulara vektor kaj dekstro-singulara vektoro por σ, respektive.

En ĉiu singulara valora malkomponaĵo

M = UΣV*

la diagonalaj elementoj de Σ egalas al la singularaj valoroj de M. La kolumnoj de U kaj V estas, respektive, maldekstro-singularaj kaj dekstro-singularaj vektoroj por la respektivaj singularaj valoroj. Tiel, el la ekzisto el la malkomponaĵoin sekvas ke:

  • m×n matrico M havas almenaŭ unu kaj maksimume p=min(m, n) malsamajn singularajn valorojn.
  • Ĉiam eblas trovi ununormigitan bazon por Km konsistantan el maldekstraj singularaj vektoroj de M.
  • Ĉiam eblas trovi ununormigitan bazon por Kn konsistantan el dekstraj singularaj vektoroj de M.

Singulara valoro por kiu oni povas trovi du maldekstrajn aŭ du dekstrajn singularajn vektorojn, inter si lineare sendependajn, estas nomata kiel degenera.

Ne-degenera singulara valoro ĉiam havas unikan maldekstran kaj dekstran singularajn vektorojn, kun precizeco de multipliko per unuobla faza faktoro e (por la reela okazo kun precizeco de signo). Sekve, se ĉiuj singularaj valoroj de M estas ne-degeneraj kaj ne-nulaj, do ĝia singulara valora malkomponaĵo estas unika, kun precizeco de multipliko de ĉiu kolumno de U per unuobla faza faktoro kaj samtempa multipliko de la respektiva kolumno de V per la sama unuobla faza faktoro.

Degeneraj singularaj valoroj, laŭ difino, havas singularajn vektorojn ne-unikajn kun la precizeco de multipliko per unuobla faza faktoro. Plu, se u1 kaj u2 estas du maldekstro-singularaj vektoroj kiu ambaŭ respektivas al la singulara valoro σ, tiam ĉiu ununormigita lineara kombinaĵo de la du vektoroj estas ankaŭ maldekstra singulara vektoro respektiva al la singulara valoro σ. La simila frazo estas vera por dekstro-singularaj vektoroj. Se M havas degenerajn singularajn valorojn, do ĝia singulara valora malkomponaĵo estas ne unika.

Aplikoj de la singulara valoro malkomponaĵo[redakti | redakti fonton]

Limigo, kerno kaj rango[redakti | redakti fonton]

La singulara valoro malkomponaĵo provizas eksplicitan prezenton de la limigo kaj kerno de matrico M.

La dekstraj singularaj vektoroj respektivaj al nulaj singularaj valoroj de M generas la kernon de M. Ekzemple, la kerno estas generata per la lastaj du kolumnoj de V en la pli supra ekzemplo. La maldekstraj singularaj vektoroj respektivaj al la ne-nulaj singularaj valoroj de M generas la limigon de M. Sekve de tio, la rango de M egalas al la kvanto de ne-nulaj singularaj valoroj, kio estas la kvanto de ne-nulaj eroj de Σ.

En cifereca lineara algebro la singularaj valoroj povas esti uzataj por difini la efikan rangon de matrico, kun konsidero de la malgrandaj sed ne-nulaj singularaj valoroj kiel nulaj. La singulara valoro estas konsiderata kiel nula se ĝia valoro estas ne pli granda ol la ebla rondiga eraro de la kalkulado, aŭ ne pli granda ol la alia iel elektita tolera valoro.

Pseŭdoinverso[redakti | redakti fonton]

La singulara valoro malkomponaĵo povas esti uzata por komputado de la pseŭdoinverso de matrico. La pseŭdoinverso de la matrico M kun singulara valoro malkomponaĵo M = UΣV* estas matrico

M+ = UΣ+V*

kie Σ+ estas la pseŭdoinverso de Σ. Por diagonala matrico, kia estas Σ, la pseŭdoinverso estas formata per anstataŭo de ĉiu nenula elemento per ĝia inverso. La pseŭdoinverso estas enhavata en maniero de solvado lineara plej malgranda kvadrata problemo.

En pseŭdoinverso, en cifereca lineara algebro, kiel estas priskribite pli supre, la malgrandaj sed ne-nulaj singularaj valoroj estas konsiderataj kiel nulaj.

Solvado de homogenaj linearaj ekvacioj[redakti | redakti fonton]

Aro de homogenaj linearaj ekvacioj povas esti skribita kiel Ax=0 por donita matrico A kaj nekonata vektoro x. La tasko estas trovi ne-nulan x. Ĉi tia x estas nomata kiel la dekstra nulvektoro. x povas esti karakterizita kiel dekstra singulara vektoro respektiva al nula singulara valoro de A. Ĉi tio signifas ke se A estas kvadrata matrico kaj ne havas nulan singularan valoron, do la ekvacio ne havas ne-nulan solvaĵon por x. Se la nula singulara valoro estas plurobla, ĉiu lineara kombinaĵo de la respektivaj dekstraj singularaj vektoroj estas ankaŭ valida solvaĵo.

Analoge al la difino de dekstra nulvektoro, ne-nula y tia ke y*A=0 estas nomata kiel maldekstra nulvektoro de A.

Tuteca plej malgranda kvadrata minimumigo[redakti | redakti fonton]

Tuteca plej malgranda kvadrata problemo por donita matrico A estas trovado de vektoro x kiu minimumigas la 2-normon de vektoro Ax kun kondiĉo ||x||=1. La solvaĵo estas la dekstra singulara vektoro de A respektiva al la plej malgranda singulara valoro.

Matrica proksimumado kun donita rango[redakti | redakti fonton]

Iuj praktikaj aplikoj bezonas proksimamadon de matrico M per la alia matrico Mk kiu havas donitan rangon ne pli grandan ol k. En la okazo ke la proksimumado estas bazata sur minimumigo de la normo de Frobenius de la diferenco inter M kaj Mk sub la limigo ke rank(Mk)≤k, la solvaĵo estas donata per la singulara valoro malkomponaĵo de M kiel

Mk = VΣkU*

kie Σk estas la sama matrico kiel Σ escepte ke ĝi enhavas nur la k plej grandajn singularajn valorojn, la aliaj singularaj valoroj estas anstataŭitaj per nuloj. Se M havas rangon egalan aŭ pli grandan ol k, do la Mk havas rangon k. Se M havas rangon egalan aŭ malpli grandan ol k, do Mk=M.

Ekspliko:

||M-Mk|| = ||VΣU*-VΣkU*|| = ||V(Σ-Σk)U*|| = ||Σ-Σk||

kie la lasta egaleco estas ĉar la normo de Frobenius estas invarianto je multipliko je unita matrico. Tiel minimumigo de ||M-Mk|| estas ekvivalenta al minimumigo de ||Σ-Σk||. Tiel necesas trovi matricon Σk, tian ke ĝi havu ne pli ol k nenulajn erojn kaj estu kiel eblas pli proksima la Σ; por ĉi tio necesas nuligi ĉiujn ĝiajn erojn krom la k plej grandajn.

Ĉi tio estas sciata kiel la teoremo de Eckart-Young, ĝi estis pruvita de la du aŭtoroj en 1936 (kvankam estis poste trovite ke ĝi estis sciata al pli fruaj aŭtoroj).

Aldone al estado la plej bona proksimumado sub la normo de Frobenius, la Mk estas ankaŭ la plej bona proksimumado sub la L2 normo.

Plej proksima ortonormala matrico[redakti | redakti fonton]

La ortonormala matrico A plej proksima al matrico M kun singulara valoro malkomponaĵo M = UΣV* en la senco de plej malgrandaj kvadratoj estas matrico A = UV*.

Ĉi tio intuicie havas sencon ĉar ortonormala matrico devus havi la malkomponaĵon UIV* kie I estas la identa matrico.

Statistika interpretado[redakti | redakti fonton]

Efiko de la singulara valoro malkomponaĵo de datumoj pri la larĝo W la alto L de homaj vizaĝoj. La vektoroj U1 kaj U2 estas la du unuaj de la matrico U. U1 donas la direktom de la plej granda variacio
La singularaj valoroj σi, rapide malkreskantaj kun i.

Eblas interpreti ĉi tiun malkomponaĵon en la esploro de statistiko de aro de datumoj. Tiam, la unuaj kolumnaj vektoroj de U prezentas la direktojn de pli grandaj variacioj de la aro. La valoroj je diagonalo de Σ estas tiam analogaj al la energio je ĉiu el la direktoj.

Rilato al ajgena malkomponaĵo[redakti | redakti fonton]

La singulara valoro malkomponaĵo estas pli ĝenerala ol ajgena malkomponaĵo en la senco ke ĝi povas esti aplikita ankaŭ al ĉiu ne-kvadrata matrico, dum ajgeno malkomponaĵo povas esti aplikita nur al certaj klasoj de kvadrataj matricoj. Tamen, la du malkomponaĵoj estas rilatantaj.

Por donita singulara valoro malkomponaĵo de M = UΣV*, jenas du rilatoj veras:

M*M = VΣ*U*UΣV* = VΣ*ΣV* = V(Σ*Σ)V*
MM* = UΣV**U* = UΣΣ*U* = U(ΣΣ*)U*

La dekstraj flankoj de ĉi tiuj rilatoj estas la ajgenaj malkomponaĵoj de la maldekstraj flankoj. Pro tio ke Σ estas diagonala, Σ*Σ=ΣΣ*. Kvadratoj de la ne-nulaj singularaj valoroj de M estas egalaj al la ne-nulaj ajgenoj de M*MMM*. La kolumnoj de U (maldekstraj singularaj vektoroj) estas ajgenvektoroj de MM* kaj la kolumnoj de V (dekstraj singularaj vektoroj) estas ajgenvektoroj de M*M.

En la speciala okazo ke M estas normala matrico, kiu laŭ difino devas esti kvadrata, la spektra teoremo donas ke ĝi povas esti unite diagonaligita uzante bazon de le ajgenvektoroj, tiel ke ĝi povas esti skribita kiel M = UDU* por unita matrico U kaj diagonala matrico D. Se M estas memadjunkta pozitive duondifinita, la malkomponaĵo M = UDU* estas ankaŭ singulara valora malkomponaĵo. Tamen, la ajgena malkomponaĵa kaj la singulara valora malkomponaĵo povas esti malsamaj por la aliaj matricoj M: la ajgena malkomponaĵo estas M = UDU-1 kie U estas ne nepre unita kaj D estas ne nepre diagonala kaj ne nepre pozitive duondifinita, dum la singulara valoro malkomponaĵo estas M = UΣV* kie Σ estas diagonala pozitiva duondifinita, kaj U kaj V estas unitaj matricoj kiuj estas ne nepre la samaj.

Kalkulado de la singulara valoro malkomponaĵo[redakti | redakti fonton]

La singulara valoro malkomponaĵo de matrico M estas tipe komputata per du-paŝa proceduro. En la unua paŝo, la matrico estas malpligrandigata al dudiagonala matrico. Ĉi tio prenas O(mn2) glitkomajn operaciojn, se m≥n. La dua paŝo estas komputado de la singulara valoro malkomponaĵo de la dudiagonala matrico. Ĉi tiu paŝo povas nur esti farata kun ripeta maniero (same kiel estas ĉe ajgenaj algoritmoj). Tamen, en praktiko sufiĉas komputi la singularan valoron malkomponaĵon ĝis certa precizeco, simile al la maŝina epsilono. Se ĉi tiu precizeco estas konsiderata kiel konstanto, do la dua paŝo prenas O(n) ripetojn, ĉiu el konstanta kvanto O(n) da glitkomaj operacioj. Tial, la unua paŝo estas pli multekosta, kaj la entuta kosto estas O(mn2) glitkomaj operacioj.

La unua paŝo povas esti farata per reflektoj de Householder por kosto de 4mn2-4n3/3 glitkomaj operacioj, se nur la singularaj valoroj estas bezonitaj sed ne la singularaj vektoroj. Se m estas multe pli granda ol n tiam estas avantaĝe unue malpligrandigi la matricon M al triangula matrico per la QR-faktorigo kaj tiam per reflektoj de Householder plu malpligrandigi la matricon al dudiagonala formo; la kombinita kosto estas 2mn2+2n3 glitkomaj operacioj.

La dua paŝo povas esti farata per varianto de la QR-algoritmo por la kalkulado de ajgenoj, kiu estis unua priskribita de Gene H. Golub kaj William Kahan en 1965 . La rutino DBDSQR de LAPACK[1] realigas ĉi tiun ripetan manieron, kun iuj ŝanĝoj por kovri la okazon ke la singularaj valoroj estas tre malgrandaj. Kun kun la unua paŝo uzanta reflektojn de Householder kaj, se estas adekvate, QR-faktorigon, ĉi tio formas la rutinon DGESVD[2] por la kalkulado de la singulara valora malkomponaĵo.

La sama algoritmo estas realigita en la GNU Scienca Biblioteko. La biblioteko ankaŭ uzas la alternativan manieron, kiu uzas unuflankan jakobian ortigon en la dua paŝo. Ĉi tiu maniero komputas la singularan valoran malkomponaĵon de la dudiagonala matrico per solvado de vico de 2×2 singularaj valoraj malkomponaĵaj problemoj, simile al tio kiel la jakobia ajgena algoritmo solvas vicon de 2×2 ajgenaj problemoj. Ankoraŭ alia maniero por la dua paŝo uzas la ideon de divido-kaj-venka ajgena algoritmo.

Malpligrandigitaj singularaj valoroj malkomponaĵoj[redakti | redakti fonton]

En aplikoj estas sufiĉe nekutima bezono de la plena singulara valoro malkomponaĵo, inkluzivante plenan unitan malkomponaĵon de la nula spaco de la matrico. Anstataŭe, estas ofte sufiĉe, kaj ankaŭ pli rapida kaj pli ekonome je memoro, komputi malpligrandigitan version de la singulara valoro malkomponaĵo. Jeno povas esti por m×n matrico M de rango r:

Maldika singulara valoro malkomponaĵo[redakti | redakti fonton]

M = UnΣnV*

Nur la n kolumnoj de U respektivaj al la linioj de V* estas kalkulataj. La ceteraj kolumnaj vektoroj de U estas ne kalkulataj. Ĉi tio estas grave pli rapida kaj pli ekonomia ol la plena singulara valoro malkomponaĵo se n<<m. La matrico Un estas tial m×n, Σn estas n×n diagonala, kaj V estas n×n.

La unua paŝo en la kalkulado de maldika singulara valora malkomponaĵo estas kutime QR-faktorigo de M, kiu povas gvidi al grave pli rapida kalkulado se n<<m.

Kompakta singulara valoro malkomponaĵo[redakti | redakti fonton]

M = UrΣrVr*

Nur la r kolumnoj de U kaj r linioj de V* respektivaj al la ne-nulaj singularaj valoroj en Σr estas kalkulataj. La ceteraj partoj de U kaj V* estas ne kalkulataj. Ĉi tio estas pli rapida ol la maldika singulara valoro malkomponaĵo se r<<n. La matrico Ur estas tial m×r, Σr estas r×r diagonala, kaj Vr* estas r×n.

Tranĉita singulara valoro malkomponaĵo[redakti | redakti fonton]

Mt = UtΣtVt*

Nur la t kolumnoj de U kaj t linioj de Vt* respektivaj al la t plej grandaj singularaj valoroj en Σt estas kalkulataj. Ĉi tio povas esti multe pli rapida ol la maldika singulara valoro malkomponaĵo se t<<r. La matrico Ut estas tial m×t, Σt estas t×t diagonala, kaj Vt* estas t×n.

Tranĉita singulara valora malkomponaĵo ne estas akurata malkomponaĵo de la originala matrico M, sed kiel diskutis pli sube, la aproksima matrico Mt estas en tre utila senco la plej proksima proksimumado al M kiu povas esti atingita per matrico de rango t.

Matricaj normoj[redakti | redakti fonton]

Normoj de Ky Fan[redakti | redakti fonton]

Sumo de la k plej grandaj singularaj valoroj de M estas matrica normo, la k-normo de Ky Fan de M.

La 1-normo de Ky Fan estas la samo kiel la operatora normo de M kiel lineara operatoro, konkludita de la eŭklidaj normoj (normoj l2) de Km kaj Kn. Por ĉi tiu kaŭzo, ĝi estas ankaŭ nomata kiel la operatora 2-normo. Estas vere ĝenerale, ke por barita operatoro M sur (eble malfinidimensia) hilbertaj spacoj

||M|| = ||M*M||1/2

Sed, en la matrico okazo, (M*M)1/2 estas normala matrico, do ||M*M||1/2 estas la plej granda ajgeno de (M*M)1/2, kio estas la plej granda singulara valoro de M.

La lasta el la normoj de Ky Fan, kiu estas sumo de ĉiuj singularaj valoroj, estas la spura normo (ankaŭ nomata kiel la kerna normo), difinita per ||M|| = tr((M*M)1/2), la diagonalaj elementoj de M*M estas kvadratoj de la singularaj valoroj.

Normo de Hilberto-Schmidt[redakti | redakti fonton]

La singularaj valoroj estas rilatanta ankaŭ al la normo de Hilberto-Schmidt sur la spaco de operatoroj. Konsideru la enan produton de Hilberto-Schmidt sur la n×n matricoj, difinitan kiel <M, N>=tr(M*N). Tiel la konkludita normo estas

||M|| = <M, M>=(tr(M*M))1/2

Pro tio ke la spuro estas invarianta sub unita transformo

\| M \| = (\sum \sigma_i ^2)^{\frac{1}{2}}

kie σi estas la singularaj valoroj de M. Ĉi tio estas nomata kiel la normo de Frobenius, 2-normo de Schatten, aŭ normo de Hilberto-Schmidt de M. Por ĝi estas egaleco

\| M \| = ( \sum_{i, j} | M_{i, j} | ^2 )^{\frac{1}{2}}

kie Mi, j estas eroj de la matrico M.

Baritaj operatoroj sur hilbertaj spacoj[redakti | redakti fonton]

La faktorigo M = UΣV* povas esti etendita al barita operatoro M sur apartigebla hilberta spaco H. Por ĉiu barita operatoro M, tie ekzistas parta izometrio U, unuargumenta V, mezurhava spaco (X, μ) kaj nenegativa mezurebla f tiaj ke

M = UTfV*

kie Tf estas la multiplika operatoro per f sur L2(X, μ).

VTfV* estas la unika pozitiva kvadrata radiko de M*M, kiel donita per la borelo funkcionala kalkulo por memadjunktaj operatoroj. La kaŭzo kial U ne nepre estas unita estas ĉar, malsimile la finidimensia okazo, por donita izometrio U1 kun ne bagatela kerno, taŭga U2 povas ne troviĝi tia ke

\begin{bmatrix} U_1 \\ U_2 \end{bmatrix}

estas unita operatoro.

Same kiel por matricoj, la singulara valora faktorigo estas ekvivalento al la polusa malkomponaĵo por operatoroj: oni povas simple skribi

M = U(V*V)TfV* = UV*VTfV* = (UV*)(VTfV*)

kaj rimarki ke UV* estas parta izometrio kaj VTfV* estas pozitiva.

Singularaj valoroj kaj kompaktaj operatoroj[redakti | redakti fonton]

Por etendi nociojn de singularaj valoroj kaj singularaj vektoroj al la okazo de operatoroj, oni bezonas limigi konsideradon al kompaktaj operatoroj sur hilberta spaco. Estas ĝenerala fakto ke kompaktaj operatoroj sur banaĥaj spacoj havas nur diskretan spektron. Ĉi tio estas ankaŭ vera por kompaktaj operatoroj sur hilbertaj spacoj, ĉar hilbertaj spacoj estas speciala okazo de banaĥaj spacoj. Se T estas kompakta, ĉiu nenula λ en ĝia spektro estas ajgeno. Plu, kompakta memadjunkta operatoro povas esti diagonaligita per ĝiaj ajgenvektoroj. Se M estas kompakta, do M*M estas kompakta. Aplikante la diagonaligan rezulton, la unita bildo de ĝia pozitiva kvadrata radiko Tf havas aron de ortonormalaj ajgenvektoroj {ei} respektivaj al severe pozitivaj ajgenoj i}. Por ĉiu ψ ∈ H,

 M \psi = U T_f V^* \psi = \sum_i \langle U T_f V^* \psi, U e_i \rangle U e_i
= \sum_i \sigma_i \langle \psi, V e_i \rangle U e_i

kie la serio konverĝas en la norma topologio sur H. Ĉi tiu esprimo similas al la finidimensia okazo. La σi estas la singularaj valoroj de M. {U ei} kaj {V ei} estas la maldekstraj kaj dekstraj singularaj vektoroj de M respektive.

Kompaktaj operatoroj sur hilberta spaco estas la fermaĵo de finiaj rangaj operatoroj en la uniforma operatora topologio. La pli supre donita seria esprimo donas eksplicite ĉi tian prezenton. Senpera konsekvenco de ĉi tio estas ke la operatoro M estas kompakta se kaj nur se M*M estas kompakta.

Historio[redakti | redakti fonton]

La singulara valoro malkomponaĵo estis originale ellaborita de diferencialaj geometriistoj, kiuj deziris al difini ĉu reela dulineara formo povas esti farita egala al la alia per sendependaj perpendikularaj transformoj de la du spacoj sur kiuj ili agas. Eugenio Beltrami kaj Camille Jordan esploris sendepende, en 1873 kaj 1874 respektive, ke la singularaj valoroj de la dulinearaj funkcioj, prezentitaj kiel matrico, formas plenan aron de invariantoj por dulinearaj funkcioj sub perpendikularaj anstataŭoj. James Joseph Sylvester ankaŭ venis al la singulara valoro malkomponaĵo por reelaj kvadrataj matricoj en 1889, ŝajne sendepende de ambaŭ Beltrami kaj Jordan. Sylvester nomis la singularajn valorojn kiel la kanonaj multiplikantoj de la matrico A. La kvara matematikisto kiu malkovris la singularan valoran malkomponaĵon sendepende estas Autonne en 1915, kiu venis al ĝi tra la polusa malkomponaĵo. La unua pruvo de la singulara valoro malkomponaĵo por ne-kvadrataj kaj kompleksaj matricoj ŝajne estis de Carl Eckart kaj Gale Young en 1936;[3], ili vidis ĝin kiel ĝeneraligon de la ĉefa aksa transformo por memadjunktaj matricoj.

En 1907, Erhard Schmidt difinis analogon de singularaj valoroj por integralaj operatoroj (kiuj estas kompaktaj, sub iu malfortaj teknikaj supozoj); ŝajne li ne sciis pri la paralela laboro pri singularaj valoroj de finiaj matricoj. Ĉi tiu teorio estis plu ellaborita de Émile Picard en 1910, kiu estas la unua kiu nomis la nombrojn kiel singularaj valoroj (valeurs singulières).

Praktikaj manieroj por komputado de la singulara valoro malkomponaĵo estas ekigitaj de Ervand Kogbetliantz en 1954, 1955 kaj Magnus Hestenes en 1958.[4]. La maniero estis proksima al la jakobia ajgena algoritmo, kiu uzas ebenajn turnadojn aŭ turnadojn de Givens. Tamen, ĉi tiuj estis anstataŭitaj per la maniero de Gene H. Golub kaj William Kahan publikigita en 1965[5]. En 1970, Golub kaj Christian Reinsch[6] publikigis varianton de la algoritmo de Golub/Kahan kiu estas ankoraŭ la unu plej uzata nun.

Vidu ankaŭ[redakti | redakti fonton]

Referencoj[redakti | redakti fonton]

  1. DBDSQR de LAPACK
  2. DGESVD de LAPACK
  3. Eckart, Carl; Young, Gale (1936). The approximation of one matrix by another of lower rank - La proksimumado de unu matrico per alia de suba rango. Psychometrika 1 (3) 211–218. COI:10.1007/BF02288367.
  4. Hestenes, Magnus R. (1958). Inversion of Matrices by Biorthogonalization and Related Results - Inversigo de matricoj per duortigo kaj rilatantaj rezultoj. Journal of the Society for Industrial and Applied Mathematics - Ĵurnalo de la Socio por Industria kaj Aplikita Matematiko 6 (1) 51–90. COI:10.1137/0106005. Mr 0092215, JSTOR 2098862.
  5. Golub, Gene H.; Kahan, William (1965). Calculating the singular values and pseudo-inverse of a matrix - Kalkulado de la singularaj valoroj kaj pseŭdo-inverso de matrico. Journal of the Society for Industrial and Applied Mathematics: Series B, Numerical Analysis - Ĵurnalo de la Socio por Industria kaj Aplikis Matematiko: Serio B, cifereca analizo 2 (2) 205–224. COI:10.1137/0702016. Mr 0183105, JSTOR 2949777.
  6. Golub, Gene H.; Reinsch, Christian (1970). Singular value decomposition and least squares solutions - Singulara valora malkomponaĵo kaj plej malgrandaj kvadrataj solvaĵoj. Numerische Mathematik 14 (5) 403-420. COI:10.1007/BF02163027. Mr 1553974.

Eksteraj ligiloj[redakti | redakti fonton]

Realigoj[redakti | redakti fonton]