Criterio di Sylvester

In algebra lineare, il criterio di Sylvester è un teorema che fornisce una condizione necessaria e sufficiente affinché una matrice simmetrica o un prodotto scalare siano definiti positivi.

Stabilisce che una matrice hermitiana è definita positiva se e solo se tutti i minori principali di guida sono positivi.

Il criterio

Sia A {\displaystyle A} una matrice simmetrica reale di dimensione n {\displaystyle n} . Per i = 1 , , n {\displaystyle i=1,\ldots ,n} , sia d i {\displaystyle d_{i}} il determinante (minore) della matrice ottenuta cancellando da A {\displaystyle A} le ultime n i {\displaystyle n-i} righe e le ultime n i {\displaystyle n-i} colonne.

Il criterio di Sylvester asserisce che la matrice A {\displaystyle A} è definita positiva se e solo se d i > 0 {\displaystyle d_{i}>0} per ogni i {\displaystyle i} .[1]

Esiste un analogo criterio per testare le matrici definite negative: la matrice A {\displaystyle A} è definita negativa se e solo se ( 1 ) i d i > 0 {\displaystyle (-1)^{i}d_{i}>0} per ogni i {\displaystyle i} .

Dimostrazione

La dimostrazione nel seguito è valida per matrici hermitiane non singolari con coefficienti in R {\displaystyle \mathbb {R} } , ovvero matrici simmetriche non singolari.

Una matrice simmetrica A {\displaystyle A} è definita positiva se tutti i suoi autovalori λ {\displaystyle \lambda } sono maggiori di zero ( λ > 0 {\displaystyle \lambda >0} ), mentre è detta definita non-negativa se λ 0 {\displaystyle \lambda \geq 0} .

  • Teorema 1: Una matrice simmetrica A {\displaystyle A} possiede autovalori non negativi se e solo se può essere fattorizzata come A = B T B {\displaystyle A=B^{T}B} , e tutti gli autovalori sono positivi se e solo se B {\displaystyle B} è non singolare.
Per dimostrare l'implicazione diretta, si nota che se A R n × n {\displaystyle A\in \mathbb {R} ^{n\times n}} è simmetrica allora per il teorema spettrale è diagonalizzabile: esiste una matrice ortogonale P {\displaystyle P} tale che A = P D P T {\displaystyle A=PDP^{T}} , dove D = d i a g ( λ 1 , λ 2 , , λ n ) {\displaystyle D=\mathrm {diag} (\lambda _{1},\lambda _{2},\dots ,\lambda _{n})} è una matrice diagonale reale con sulla diagonale gli autovalori di A {\displaystyle A} (che sono gli stessi di D {\displaystyle D} ), e le colonne di P {\displaystyle P} sono gli autovettori di A {\displaystyle A} . Se λ i 0 {\displaystyle \lambda _{i}\geq 0} per ogni i allora D 1 / 2 {\displaystyle D^{1/2}} esiste, e si ha:
A = P D P T = P D 1 / 2 D 1 / 2 P T = B T B {\displaystyle A=PDP^{T}=PD^{1/2}D^{1/2}P^{T}=B^{T}B}
per B = D 1 / 2 P T {\displaystyle B=D^{1/2}P^{T}} , dove λ i 0 {\displaystyle \lambda _{i}\geq 0} per ogni i se B {\displaystyle B} è non singolare.
Per ottenere l'implicazione inversa, si nota che se A {\displaystyle A} può essere fattorizzata come A = B T B {\displaystyle A=B^{T}B} allora tutti gli autovalori di A {\displaystyle A} sono non negativi perché per ogni coppia ( λ , x ) {\displaystyle (\lambda ,x)} si ha:
λ = x T A x x T x = x T B T B x x T x = | | B x | | 2 | | x | | 2 0 {\displaystyle \lambda ={\frac {x^{T}Ax}{x^{T}x}}={\frac {x^{T}B^{T}Bx}{x^{T}x}}={\frac {||Bx||^{2}}{||x||^{2}}}\geq 0}
  • Teorema 2 (decomposizione di Cholesky): La matrice simmetrica A {\displaystyle A} possiede pivot positivi se e solo se può essere fattorizzata come A = R T R {\displaystyle A=R^{T}R} , dove R {\displaystyle R} è una matrice triangolare superiore con gli elementi della diagonale positivi. Si tratta della decomposizione di Cholesky di A {\displaystyle A} , e R {\displaystyle R} è il fattore di Cholesky di A {\displaystyle A} .
Per dimostrare l'implicazione diretta, se A {\displaystyle A} possiede pivot positivi (quindi è possibile una decomposizione LU) allora è possibile una fattorizzazione del tipo A = L D U = L D L T {\displaystyle A=LDU=LDL^{T}} in cui D = d i a g ( u 11 , u 22 , , u n n ) {\displaystyle D=\mathrm {diag} (u_{11},u_{22},\dots ,u_{nn})} è la matrice diagonale contenente i pivot u i i > 0 {\displaystyle u_{ii}>0} :
A = L U = [ 1 0 . 0 l 12 1 . 0 . . . . l 1 n l 2 n . 1 ] {\displaystyle A=LU'={\begin{bmatrix}1&0&.&0\\l_{12}&1&.&0\\.&.&.&.\\l_{1n}&l_{2n}&.&1\end{bmatrix}}} x [ u 11 u 12 . u 1 n 0 u 22 . u 2 n . . . . 0 0 . u n n ] = L D U = [ 1 0 . 0 l 12 1 . 0 . . . . l 1 n l 2 n . 1 ] {\displaystyle {\begin{bmatrix}u_{11}&u_{12}&.&u_{1n}\\0&u_{22}&.&u_{2n}\\.&.&.&.\\0&0&.&u_{nn}\end{bmatrix}}=LDU={\begin{bmatrix}1&0&.&0\\l_{12}&1&.&0\\.&.&.&.\\l_{1n}&l_{2n}&.&1\end{bmatrix}}} x [ u 11 0 . 0 0 u 22 . 0 . . . . 0 0 . u n n ] {\displaystyle {\begin{bmatrix}u_{11}&0&.&0\\0&u_{22}&.&0\\.&.&.&.\\0&0&.&u_{nn}\end{bmatrix}}} x [ 1 u 12 / u 11 . u 1 n / u 11 0 1 . u 2 n / u 22 . . . . 0 0 . 1 ] {\displaystyle {\begin{bmatrix}1&u_{12}/u_{11}&.&u_{1n}/u_{11}\\0&1&.&u_{2n}/u_{22}\\.&.&.&.\\0&0&.&1\end{bmatrix}}}
Per l'unicità della decomposizione L D U {\displaystyle LDU} così effettuata, la simmetria di A {\displaystyle A} produce il fatto che U = L T {\displaystyle U=L^{T}} , di conseguenza A = L D U = L D L T {\displaystyle A=LDU=LDL^{T}} . Ponendo R = D 1 / 2 {\displaystyle R=D^{1/2}} , dove D 1 / 2 = d i a g ( u 11 , u 22 , , u 11 ) {\displaystyle D^{1/2}=\mathrm {diag} (\scriptstyle {\sqrt {u_{11}}},\scriptstyle {\sqrt {u_{22}}},\dots ,\scriptstyle {\sqrt {u_{11}}})} , la simmetria di A {\displaystyle A} conduce alla fattorizzazione desiderata in quanto:
A = L D 1 / 2 D 1 / 2 L T = R T R {\displaystyle A=LD^{1/2}D^{1/2}L^{T}=R^{T}R}
e R {\displaystyle R} è una matrice triangolare superiore con gli elementi della diagonale positivi.
Per ottenere l'implicazione inversa, se A = R R T {\displaystyle A=RR^{T}} con R {\displaystyle R} una matrice triangolare inferiore, allora la fattorizzazione è:
R = L D = [ 1 0 . 0 r 12 / r 11 1 . 0 . . . . r 1 n / r 11 r 2 n / r 22 . 1 ] {\displaystyle R=LD={\begin{bmatrix}1&0&.&0\\r_{12}/r_{11}&1&.&0\\.&.&.&.\\r_{1n}/r_{11}&r_{2n}/r_{22}&.&1\end{bmatrix}}} x [ r 11 0 . 0 0 r 22 . 0 . . . . 0 0 . r n n ] {\displaystyle {\begin{bmatrix}r_{11}&0&.&0\\0&r_{22}&.&0\\.&.&.&.\\0&0&.&r_{nn}\end{bmatrix}}}
dove L {\displaystyle L} è triangolare inferiore con una diagonale di tutti 1 e D {\displaystyle D} è una matrice diagonale la cui diagonale è composta dagli elementi r i i {\displaystyle r_{ii}} . Di conseguenza, A = L D 2 L T {\displaystyle A=LD^{2}L^{T}} è la fattorizzazione L D U {\displaystyle LDU} di A {\displaystyle A} , e così i pivot devono essere positivi perché sono la diagonale di D 2 {\displaystyle D^{2}} .
  • Teorema 3: Sia A k {\displaystyle A_{k}} la principale sottomatrice di guida di dimensione k × k {\displaystyle k\times k} di A n × n {\displaystyle A_{n\times n}} . Se A {\displaystyle A} posside una fattorizzazione LU allora det ( A k ) = u 11 u 22 u k k {\displaystyle \det(A_{k})=u_{11}\cdot u_{22}\cdot \dots u_{kk}} e il k-esimo pivot è u k k = det ( A 1 ) = a 11 {\displaystyle u_{kk}=\det(A_{1})=a_{11}} per k = 1 {\displaystyle k=1} , mentre è u k k = det ( A k ) / det ( A k 1 ) = a 11 {\displaystyle u_{kk}=\det(A_{k})/\det(A_{k-1})=a_{11}} per k = 2 , 3 , , n {\displaystyle k=2,3,\dots ,n} .

Combinando i teoremi 1, 2 e 3 si conclude che:

  • Se la matrice simmetrica A {\displaystyle A} può essere fattorizzata come A = R T R {\displaystyle A=R^{T}R} , dove R {\displaystyle R} è triangolare superiore la cui diagonale è composta da elementi positivi, allora tutti i pivot di A {\displaystyle A} sono positivi per il teorema 2, e quindi tutti i minori principali di guida di A {\displaystyle A} sono positivi per il teorema 3.
  • Se la matrice simmetrica non singolare A {\displaystyle A} può essere fattorizzata come A = B T B {\displaystyle A=B^{T}B} allora la decomposizione QR B = Q R {\displaystyle B=QR} (legata al procedimento di Gram-Schmidt) di B {\displaystyle B} produce A = B T B = R T Q T Q R = R T R {\displaystyle A=B^{T}B=R^{T}Q^{T}QR=R^{T}R} , dove Q {\displaystyle Q} è una matrice ortogonale e R {\displaystyle R} è triangolare superiore. Si nota che questo enunciato richiede la non singolarità di A {\displaystyle A} .

Dai risultati ottenuti, in particolare dalle due precedenti osservazioni e dal teorema 1, segue che se una matrice reale simmetrica A {\displaystyle A} è definita positiva allora possiede una fattorizzazione della forma A = B T B {\displaystyle A=B^{T}B} , dove B {\displaystyle B} è non singolare. L'espressione A = B T B {\displaystyle A=B^{T}B} implica che A {\displaystyle A} può essere fattorizzata come A = R T R {\displaystyle A=R^{T}R} , dove R {\displaystyle R} è una matrice triangolare superiore la cui diagonale è composta da elementi maggiori di zero. In altre parole, una matrice simmetrica è definita positiva se e solo se tutti i suoi minori principali di guida sono positivi. La validità della condizione necessaria e sufficiente è automatica in quanto è stata mostrata per ognuno dei teoremi enunciati.

Esempio

La matrice:

( 2 2 1 2 5 0 1 0 1 ) {\displaystyle {\begin{pmatrix}2&2&1\\2&5&0\\1&0&1\end{pmatrix}}}

è definita positiva, in quanto i determinanti:

det ( 2 ) = 2 det ( 2 2 2 5 ) = 6 det ( 2 2 1 2 5 0 1 0 1 ) = 1 {\displaystyle \det(2)=2\qquad \det {\begin{pmatrix}2&2\\2&5\end{pmatrix}}=6\qquad \det {\begin{pmatrix}2&2&1\\2&5&0\\1&0&1\end{pmatrix}}=1}

sono tutti positivi.

Note

  1. ^ "Matematica Numerica", Quarteroni, Sacco, Saleri, edizioni Springer, seconda edizione, §1.12

Bibliografia

  • (EN) Ayres, F. Jr. Schaum's Outline of Theory and Problems of Matrices. New York: Schaum, p. 134, 1962.
  • (EN) Golub, G. H. and Van Loan, C. F. "Positive Definite Systems." §4.2 in Matrix Computations, 3rd ed. Baltimore, MD: Johns Hopkins University Press, pp. 140–141, 1996.

Voci correlate

  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica