Decomposizione matriciale

Decomposizione matriciale: tutto sull’argomento

Decomposizione di una matrice

In matematica, in particolare in algebra lineare, la decomposizione di una matrice o fattorizzazione di una matrice è la fattorizzazione di una matrice nel prodotto di più matrici. Vi sono diverse decomposizioni matriciali in letteratura, ognuna delle quali associata ad una certa classe di problemi.

Analisi delle componenti principali

L’analisi delle componenti principali, anche nota come trasformata di Karhunen-Loève, è una tecnica per la semplificazione dei dati utilizzata nell’ambito della statistica multivariata. Questo metodo fu proposto per la prima volta nel 1901 da Karl Pearson e sviluppato poi da Harold Hotelling nel 1933, e fa parte dell’analisi fattoriale. La tecnica, esempio di riduzione della dimensionalità, ha lo scopo di ridurre il numero più o meno elevato di variabili che descrivono un insieme di dati a un numero minore di variabili latenti, limitando il più possibile la perdita di informazioni.

Autodecomposizione

In algebra lineare, l’autodecomposizione è la fattorizzazione di una matrice in una forma canonica, per cui la matrice è rappresentata in funzione dei suoi autovalori e autovettori. Solo le matrici diagonalizzabili possono essere fattorizzate in questo modo. Quando la matrice da fattorizzare è una matrice normale o reale simmetrica, l’autodecomposizione è detta “decomposizione spettrale”,.

Decomposizione ai valori singolari

In algebra lineare, la decomposizione ai valori singolari, detta anche SVD, è una particolare fattorizzazione di una matrice basata sull’uso di autovalori e autovettori. Data una matrice  reale o complessa di dimensione , si tratta di una scrittura del tipo:

Decomposizione di Cholesky

In algebra lineare la decomposizione di Cholesky è la fattorizzazione di una matrice hermitiana e definita positiva in una matrice triangolare inferiore e nella sua trasposta coniugata. Essa si può considerare come un caso speciale della più generale decomposizione LU. Il nome di questa decomposizione ricorda il matematico francese André-Louis Cholesky (1875-1918).

Decomposizione di Schur

In algebra lineare, la decomposizione di Schur o triangolazione di Schur è un importante procedimento di fattorizzazione di una matrice. Esso prende il nome dal matematico tedesco Issai Schur.

Decomposizione LU

In algebra lineare una decomposizione LU, o decomposizione LUP o decomposizione di Doolittle è una fattorizzazione di una matrice in una matrice triangolare inferiore , una matrice triangolare superiore  e una matrice di permutazione . Questa decomposizione è usata in analisi numerica per risolvere un sistema di equazioni lineari, per calcolare l’inversa di una matrice o per calcolare il determinante di una matrice.

Decomposizione polare

In matematica, in particolare in algebra lineare e analisi funzionale, la decomposizione polare di una matrice o di un operatore lineare continuo è una fattorizzazione analoga alla forma polare di un numero complesso.

Decomposizione QR

In matematica, in particolare in algebra lineare, la decomposizione QR o fattorizzazione QR di una matrice quadrata a coefficienti reali o complessi  è una scomposizione del tipo

Forma canonica di Jordan

In matematica, più precisamente in algebra lineare, la forma canonica di Jordan di una matrice quadrata  è una matrice triangolare J simile ad A che ha una struttura il più possibile vicina ad una matrice diagonale. La matrice è diagonale se e solo se  è diagonalizzabile, altrimenti

Metodo QR

Il metodo QR è il metodo più utilizzato per il calcolo degli autovalori e degli autovettori di una matrice diagonalizzabile. Il metodo è molto complesso sia nella descrizione che nell’implementazione, ma il principio su cui si basa, ovvero la fattorizzazione QR, è molto semplice.

Regolarizzazione di Tichonov

In matematica, la regolarizzazione di Tichonov, così denominata da nome di Andrej Tichonov, è il metodo più comunemente usato di regolarizzazione di problemi mal posti. In statistica il metodo è conosciuto come regressione ridge e, ripetutamente ed indipendentemente riscoperto, è anche variamente noto come il metodo di Tichonov-Millermetodo di Phillips-Twomey, metodo dell’inversione lineare vincolata o anche metodo di regolarizzazione lineare.

Teorema di Schur-Horn

In matematica, in particolare in algebra lineare, il teorema di Schur-Horn caratterizza la diagonale di una matrice hermitiana con autovalori dati.

Teorema spettrale

In algebra lineare e analisi funzionale il teorema spettrale si riferisce a una serie di risultati relativi agli operatori lineari oppure alle matrici. In termini generali il teorema spettrale fornisce condizioni sotto le quali un operatore o una matrice possono essere diagonalizzati, cioè rappresentati da una matrice diagonale in una base.


Tratto da Wikipedia:

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: