Matrice definita positiva

In matematica, e più precisamente in algebra lineare, una matrice definita positiva è una matrice quadrata A {\displaystyle A} tale che, detto x {\displaystyle \mathbf {x} ^{*}} il trasposto complesso coniugato di x {\displaystyle \mathbf {x} } , si verifica che la parte reale di x A x {\displaystyle \mathbf {x} ^{*}A\mathbf {x} } è positiva per ogni vettore complesso x 0 {\displaystyle \mathbf {x} \neq \mathbf {0} } .

Definizione

Nonostante la definizione si utilizzi solitamente nel caso di matrici hermitiane e simmetriche reali, in generale una matrice A {\displaystyle A} quadrata (di dimensioni n × n {\displaystyle n\times n} ) si dice definita positiva quando:[1]

R e ( x A x ) > 0 , x C n { 0 } , {\displaystyle \mathrm {Re} (\mathbf {x} ^{*}A\mathbf {x} )>0,\qquad \forall \mathbf {x} \in \mathbb {C} ^{n}-\{\mathbf {0} \},}

ossia quando il prodotto x A x {\displaystyle \mathbf {x} ^{*}A\mathbf {x} } , che è sempre un numero complesso, ha parte reale strettamente positiva per ogni vettore non nullo x C n {\displaystyle \mathbf {x} \in \mathbb {C} ^{n}} (indicando con x {\displaystyle \mathbf {x} ^{*}} il vettore complesso coniugato trasposto del vettore x {\displaystyle \mathbf {x} } ).

In modo equivalente, una generica matrice quadrata complessa è definita positiva se la propria parte Hermitiana:

A H = ( A + A ) 2 {\displaystyle A_{H}={\frac {(A+A^{*})}{2}}}

è definita positiva, ossia R e ( x A H x ) > 0 , {\displaystyle \mathrm {Re} (\mathbf {x} ^{*}A_{H}\mathbf {x} )>0,} per x C n { 0 } {\displaystyle \mathbf {x} \in \mathbb {C} ^{n}-\{\mathbf {0} \}} .

Un'altra definizione è la seguente: una generica matrice quadrata complessa è definita positiva se tutti gli autovalori della propria parte Hermitiana A H {\displaystyle A_{H}} sono strettamente positivi.[1]

Matrici hermitiane

Una matrice simmetrica reale è anche hermitiana, ed una matrice hermitiana M {\displaystyle M} di dimensione n × n {\displaystyle n\times n} è una matrice definita positiva se ha una delle seguenti proprietà equivalenti (e quindi le possiede tutte):

  • Per tutti i vettori non nulli z {\displaystyle \mathbf {z} } in C n {\displaystyle \mathbb {C} ^{n}} si ha z M z > 0 {\displaystyle \mathbf {z} ^{*}M\mathbf {z} >0} , dove z {\displaystyle \mathbf {z} } è visto come un vettore colonna con n {\displaystyle n} componenti complesse e z {\displaystyle \mathbf {z} ^{*}} come la complessa coniugata della sua trasposta. Se M {\displaystyle M} è hermitiana, z M z {\displaystyle \mathbf {z} ^{*}M\mathbf {z} } è sempre reale, ed ha quindi senso chiedere che sia positivo.
  • Per tutti i vettori non nulli x {\displaystyle \mathbf {x} } in R n {\displaystyle \mathbb {R} ^{n}} si ha x T M x > 0 {\displaystyle \mathbf {x} ^{T}M\mathbf {x} >0} , dove x T {\displaystyle \mathbf {x} ^{T}} denota la trasposta del vettore colonna x {\displaystyle \mathbf {x} } .
  • Per tutti i vettori non nulli u {\displaystyle \mathbf {u} } in Z n {\displaystyle \mathbb {Z} ^{n}} (tutte le componenti sono intere), si ha u T M u > 0 {\displaystyle \mathbf {u} ^{T}M\mathbf {u} >0} .
  • Tutti gli autovalori di M {\displaystyle M} sono numeri reali positivi.
  • La forma hermitiana x , y = x M y {\displaystyle \langle \mathbf {x} ,\mathbf {y} \rangle =\mathbf {x} ^{*}M\mathbf {y} } definisce un prodotto hermitiano definito positivo su C n {\displaystyle \mathbb {C} ^{n}} .
  • Criterio di Sylvester: tutte le sottomatrici quadrate superiori sinistre hanno determinante positivo (i minori principali secondo l'ordine da 1 {\displaystyle 1} a n {\displaystyle n} ). Altrimenti detto, tutti i determinanti delle matrici Nord-Ovest sono positivi non nulli.

Proprietà

Le matrici definite positive hanno un comportamento simile ai numeri reali positivi.

  • Ogni matrice simmetrica definita positiva ha tutti gli autovalori strettamente positivi.
  • Ogni matrice simmetrica semidefinita positiva ha tutti gli autovalori non negativi.
  • Ogni matrice simmetrica definita negativa ha tutti gli autovalori strettamente negativi.
  • Ogni matrice simmetrica semidefinita negativa ha tutti gli autovalori non positivi.
  • Ogni matrice definita positiva è invertibile e la sua inversa è anch'essa definita positiva.
  • Se M {\displaystyle M} è definita positiva e r > 0 {\displaystyle r>0} è un numero reale, allora r M {\displaystyle rM} è definita positiva.
  • Se M {\displaystyle M} e N {\displaystyle N} sono definite positive, allora M + N {\displaystyle M+N} è anch'essa definita positiva; se inoltre M N = N M {\displaystyle MN=NM} , cioè le matrici commutano, allora M N {\displaystyle MN} è anch'essa definita positiva.
  • Ogni matrice definita positiva M {\displaystyle M} ha una radice quadrata, cioè una matrice N {\displaystyle N} tale che N N = M {\displaystyle NN=M} . Una matrice definita positiva può avere un gran numero di radici quadrate, ma una e una sola radice quadrata definita positiva.
  • Se la matrice che stiamo considerando è simmetrica reale essa è definita positiva se la sua segnatura è ( n , 0 ) {\displaystyle (n,0)} dove n {\displaystyle n} è il rango della matrice.
  • Per il criterio di Sylvester, una matrice simmetrica è definita positiva se e solo se i suoi minori principali di guida sono tutti positivi.

Matrici definite negative, semidefinite e indefinite

La matrice hermitiana M {\displaystyle M} si dice definita negativa se:

x M x < 0 , {\displaystyle \mathbf {x} ^{*}M\mathbf {x} <0,}

per tutti gli elementi non nulli x {\displaystyle \mathbf {x} } in R n {\displaystyle \mathbb {R} ^{n}} (o, equivalentemente, tutti elementi non nulli x {\displaystyle \mathbf {x} } in C n {\displaystyle \mathbb {C} ^{n}} ).

La matrice M {\displaystyle M} è chiamata semidefinita positiva se:

x M x 0. {\displaystyle \mathbf {x} ^{*}M\mathbf {x} \geq 0.}

Per tutti gli x {\displaystyle \mathbf {x} } in R n {\displaystyle \mathbb {R} ^{n}} (o C n {\displaystyle \mathbb {C} ^{n}} ) si dice invece semidefinita negativa se:

x M x 0 , {\displaystyle \mathbf {x} ^{*}M\mathbf {x} \leq 0,}

per tutti gli x {\displaystyle \mathbf {x} } in R n {\displaystyle \mathbb {R} ^{n}} (o C n {\displaystyle \mathbb {C} ^{n}} ). Come sopra, x {\displaystyle \mathbf {x} ^{*}} indica la complessa coniugata della sua trasposta. Nel caso in cui x {\displaystyle \mathbf {x} } sia un vettore in R n {\displaystyle \mathbb {R} ^{n}} , questa operazione coincide con la trasposizione e si può scrivere x T {\displaystyle \mathbf {x} ^{T}} al posto di x {\displaystyle \mathbf {x} ^{*}} .

Una matrice hermitiana che non è né positiva né semidefinita negativa è chiamata indefinita. In maniera equivalente una matrice è chiamata indefinita se ha due autovalori di segno opposto.

Prodotti scalari e forme hermitiane

Lo stesso argomento in dettaglio: Prodotto scalare e Forma sesquilineare.

Le matrici definite positive sono utili per definire una geometria su uno spazio vettoriale, che possa usare i concetti di angolo e lunghezza. Sia K {\displaystyle K} un campo R {\displaystyle \mathbb {R} } o C {\displaystyle \mathbb {C} } , V {\displaystyle V} uno spazio vettoriale su K {\displaystyle K} , e B : V × V K {\displaystyle B\colon V\times V\to K} una forma hermitiana se K = C {\displaystyle K=\mathbb {C} } o un prodotto scalare se K = R {\displaystyle K=\mathbb {R} } . La forma B {\displaystyle B} è chiamata definita positiva se B ( x , x ) > 0 {\displaystyle B(\mathbf {x} ,\mathbf {x} )>0} per ogni x {\displaystyle \mathbf {x} } in V {\displaystyle V} diverso dal vettore zero: questa proprietà garantisce che i vettori hanno "lunghezza positiva" e danno a V {\displaystyle V} una struttura simile a quella dello spazio euclideo.

Forme quadratiche

Lo stesso argomento in dettaglio: Forma quadratica.

La forma quadratica associata ad una matrice reale M {\displaystyle M} è la funzione Q : R n R {\displaystyle Q\colon \mathbb {R} ^{n}\to \mathbb {R} } tale che Q ( x ) = x T M x {\displaystyle Q(\mathbf {x} )=\mathbf {x} ^{T}M\mathbf {x} } per tutti gli x {\displaystyle \mathbf {x} } . La matrice M {\displaystyle M} è definita positiva se e solo se è simmetrica e la sua forma quadratica è una funzione strettamente convessa.

Più in generale, ogni polinomio di secondo grado P : R n R {\displaystyle P\colon \mathbb {R} ^{n}\to \mathbb {R} } può essere scritto come x T M x + x T b + c {\displaystyle \mathbf {x} ^{T}M\mathbf {x} +\mathbf {x} ^{T}\mathbf {b} +c} , dove M {\displaystyle M} è una matrice simmetrica n × n {\displaystyle n\times n} , b {\displaystyle \mathbf {b} } è un vettore reale e c {\displaystyle c} una costante. La funzione P {\displaystyle P} è strettamente convessa se M {\displaystyle M} è definita positiva.

Diagonalizzazione simultanea

Una matrice simmetrica e una matrice simmetrica definita positiva possono essere simultaneamente diagonalizzate, anche se non necessariamente per mezzo di una trasformazione per similitudine, ed il risultato non si estende al caso di tre o più matrici. Nello specifico, se M {\displaystyle M} è simmetrica e N {\displaystyle N} è simmetrica e definita positiva, la generica equazione agli autovalori è:

( M λ N ) x = 0 . {\displaystyle (M-\lambda N)\mathbf {x} =\mathbf {0} .}

Tramite la decomposizione di Cholesky è possibile scrivere l'inversa di N {\displaystyle N} come Q T Q {\displaystyle Q^{T}Q} , con Q {\displaystyle Q} che in particolare è invertibile in quanto lo è N {\displaystyle N} . Moltiplicando per Q {\displaystyle Q} e ponendo x = Q T y {\displaystyle \mathbf {x} =Q^{T}\mathbf {y} } si ottiene:

Q ( M λ N ) Q T y = 0 {\displaystyle Q(M-\lambda N)Q^{T}\mathbf {y} =\mathbf {0} }

che, siccome Q N Q T = I {\displaystyle QNQ^{T}=I} , può essere riscritta come:

( Q M Q T ) y = λ y . {\displaystyle (QMQ^{T})\mathbf {y} =\lambda \mathbf {y} .}

Essendo Q M Q T {\displaystyle QMQ^{T}} simmetrica, dal teorema spettrale esiste una matrice Y {\displaystyle Y} tale che ( Q M Q T ) Y = Y Λ {\displaystyle (QMQ^{T})Y=Y\Lambda } e Y T Y = I {\displaystyle Y^{T}Y=I} , dove Λ {\displaystyle \Lambda } è una matrice diagonale i cui elementi sono gli autovalori generalizzati e le colonne di Y {\displaystyle Y} sono una base ortonormale di autovettori di Q M Q T {\displaystyle QMQ^{T}} . Per la sostituzione fatta in precedenza si ha quindi che, ponendo X = Q T Y {\displaystyle X=Q^{T}Y} , le colonne di X {\displaystyle X} soddisfano l'equazione ( M λ N ) x = 0 {\displaystyle (M-\lambda N)\mathbf {x} =\mathbf {0} } (cioè sono gli autovalori generalizzati) e Y = Q N X {\displaystyle Y=QNX} . Si trova allora che X T N X = I {\displaystyle X^{T}NX=I} e Q M X = ( Q M Q T ) ( Q N X ) = ( Q N X ) Λ {\displaystyle QMX=(QMQ^{T})(QNX)=(QNX)\Lambda } . Dall'ultima relazione si deduce che:

M X = N X Λ , X T N X = I . {\displaystyle MX=NX\Lambda ,\qquad X^{T}NX=I.}

Moltiplicando per X T {\displaystyle X^{T}} si ottiene:

X T M X = Λ , X T N X = I , {\displaystyle X^{T}MX=\Lambda ,\qquad X^{T}NX=I,}

anche se non si tratta più di una diagonalizzazione ortogonale rispetto al prodotto scalare canonico (infatti X {\displaystyle X} non è in generale una matrice ortogonale).

Note

Bibliografia

  • Marius Stoka, Corso di geometria, CEDAM, 1995, ISBN 88-13-19192-8.
  • (EN) Rajendra Bhatia. Positive definite matrices. Princeton Series in Applied Mathematics, 2007. ISBN 978-0-691-12918-1.
  • (EN) Ayres, F. Jr. Schaum's Outline of Theory and Problems of Matrices. New York: Schaum, p. 134, 1962.
  • (EN) Golub, G. H. and Van Loan, C. F. "Positive Definite Systems." §4.2 in Matrix Computations, 3rd ed. Baltimore, MD: Johns Hopkins University Press, pp. 140-141, 1996.
  • (EN) Gradshteyn, I. S. and Ryzhik, I. M. Tables of Integrals, Series, and Products, 6th ed. San Diego, CA: Academic Press, p. 1106, 2000.

Voci correlate

Collegamenti esterni

  • (EN) Eric W. Weisstein, Matrice definita positiva, su MathWorld, Wolfram Research. Modifica su Wikidata
  • (EN) AA. VV., Positive-definite form, in Encyclopaedia of Mathematics, Springer e European Mathematical Society, 2002.
  • (EN) V.S. Shul'man, Positive-definite kernel, in Encyclopaedia of Mathematics, Springer e European Mathematical Society, 2002.
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica