Algebra lineare

Algebra lineare: cos’è, tutto sull’argomento..

Algebra lineare

L’algebra lineare è la branca della matematica che si occupa dello studio dei vettori, spazi vettoriali, trasformazioni lineari e sistemi di equazioni lineari. Gli spazi vettoriali sono un tema centrale nella matematica moderna; l’algebra lineare è usata ampiamente nell’algebra astratta, nella geometria e nell’analisi

Algoritmo di Lagrange

In matematica, e più precisamente in algebra lineare, l’algoritmo di Lagrange è un algoritmo utile a trovare una base ortogonale in uno spazio vettoriale di dimensione finita munito di un prodotto scalare. Si tratta di una variante del processo di ortogonalizzazione di Gram-Schmidt utilizzata nel caso in cui il prodotto scalare non sia definito positivo.

Bandiera (spazio vettoriale)

In matematica, in particolare in algebra lineare, una bandiera è una successione di sottospazi vettoriali con determinate proprietà di uno spazio vettoriale dato.

Base (algebra lineare)

In matematica, e più precisamente in algebra lineare, la base di uno spazio vettoriale è un insieme di vettori linearmente indipendenti che generano lo spazio. In modo equivalente, ogni elemento dello spazio vettoriale può essere scritto in modo unico come combinazione lineare dei vettori appartenenti alla base.

Base duale

In matematica, e più precisamente in algebra lineare, la base duale è una particolare base costruita a partire da una base data. Il concetto di base duale è utile nello studio dello spazio duale e dei tensori.

Base ortonormale

In matematica, e più precisamente in algebra lineare, una base ortonormale di uno spazio vettoriale munito di prodotto scalare definito positivo è una base composta da vettori di norma unitaria e ortogonali tra loro, ossia una base ortogonale di vettori di norma uno.

Combinazione lineare

In matematica, una combinazione lineare è un’operazione principalmente usata nell’ambito dell’algebra lineare. Una combinazione lineare di alcuni elementi di uno spazio vettoriale è un’espressione del tipo:

Completamento a base

In matematica, in particolare in algebra lineare, il completamento a base è un algoritmo utile a completare un insieme di vettori linearmente indipendenti di uno spazio vettoriale ad una base dello spazio.

Compressed sensing

Compressed sensing indica una tecnica per trovare soluzioni sparse di un sistema di equazioni lineari sottodeterminato. In elettrotecnica, in particolare nella teoria dei segnali, la tecnica di compressed sensing implica un processo di acquisizione e di ricostruzione di un segnale elettrico che è supposto essere sparso o comprimibile.

Cono (algebra lineare)

In algebra lineare, un cono è un sottoinsieme C di uno spazio vettoriale V chiuso rispetto alla moltiplicazione per scalari positivi, cioè

Coordinate di un vettore

In matematica, in particolare in algebra lineare, l’insieme delle coordinate di un vettore rispetto ad una base di uno spazio vettoriale è il vettore che ha come componenti i coefficienti della combinazione lineare di vettori di base attraverso la quale si può scrivere il vettore stesso.

Copertura lineare

In matematica, e più precisamente in algebra lineare, la copertura lineare o span lineare di un insieme di vettori di uno spazio vettoriale è il sottospazio vettoriale ottenuto dall’intersezione di tutti i sottospazi contenenti tale insieme. La copertura lineare è l’insieme costituito da tutte le possibili combinazioni lineari di un insieme di vettori di uno spazio vettoriale, ed è pertanto chiamato “sottospazio vettoriale generato” da essi. Si dice che tali vettori costituiscono un insieme di generatori per tale spazio.

Dimensione (spazio vettoriale)

In matematica, la dimensione di uno spazio vettoriale è la cardinalità di una sua base. Se tale cardinalità è finita, la dimensione coincide con il numero di vettori che compongono la base considerata. È talvolta chiamata dimensione di Hamel o dimensione algebrica, per distinguerla da altri tipi di dimensione. Tutte le basi di uno stesso spazio vettoriale hanno la stessa cardinalità, come stabilisce il teorema della dimensione per spazi vettoriali, e dunque la dimensione di uno spazio vettoriale è univocamente definita. La dimensione di uno spazio vettoriale  sul campo  è indicata con . Si dice che  è finito-dimensionale o infinito-dimensionale se la dimensione di  è rispettivamente finita o infinita.

Disuguaglianza di Cauchy-Schwarz

In matematica, la disuguaglianza di Cauchy-Schwarz, nota anche come disuguaglianza di Schwarz o disuguaglianza di Bunyakovskii, è una disuguaglianza che compare in algebra lineare e si applica in molti altri settori, quali ad esempio l’analisi funzionale e la probabilità.

Estrazione di una base

In matematica, in particolare in algebra lineare, l’estrazione di una base è un algoritmo che permette di estrarre una base di uno spazio vettoriale a partire da un insieme finito di generatori dello spazio.

Formula di Grassmann

In matematica, la formula di Grassmann è una relazione che riguarda le dimensioni dei sottospazi vettoriali di uno spazio vettoriale o dei sottospazi proiettivi di uno spazio proiettivo.

Funzione sublineare

In matematica, in particolare in algebra lineare, una funzione sublineare è una funzione  definita su uno spazio vettoriale  a valori in campo ordinato  che gode della proprietà di omogeneità positiva:

Grassmanniana

In matematica, la grassmanniana di uno spazio vettoriale  è l’insieme di tutti i suoi sottospazi aventi dimensione fissata . Questo insieme è indicato generalmente con il simbolo

Identità di Newton

In matematica, le identità di Newton, dette anche formule di Newton–Girard, descrivono le relazioni che legano i polinomi simmetrici elementari con altri polinomi simmetrici ottenuti mediante somme di potenze. Possono essere anche interpretate come relazioni che legano i coefficienti di un polinomio monico con le sue radici, più precisamente, con la somma delle radici, la somma dei quadrati delle radici etc. Furono scoperte da Isaac Newton nel 1666 circa; egli probabilmente non era a conoscenza di un precedente lavoro di Albert Girard del 1629. Queste identità hanno applicazioni immediate in molti campi della matematica, fra cui la teoria di Galois, la teoria degli invarianti, la teoria dei gruppi, il calcolo combinatorio, e anche al di fuori di essa, come per esempio nella relatività generale.

Indipendenza lineare

In matematica, e più precisamente in algebra lineare, l’indipendenza lineare di un insieme di vettori appartenenti ad uno spazio vettoriale si verifica se nessuno di questi può essere espresso come una combinazione lineare degli altri. In caso contrario si dice che l’insieme di vettori è linearmente dipendente.

Insieme di generatori

In algebra lineare, un insieme di generatori è un sottoinsieme di un insieme dotato di struttura algebrica tale che tutti gli elementi dell’insieme possono essere ottenuti dagli elementi del sottoinsieme, tramite combinazioni di operazioni definite sull’insieme.

Lemma di Steinitz

Il lemma di Steinitz descrive una delle proprietà fondamentali degli spazi vettoriali di dimensione finita, ovvero che preso un numero di vettori superiore al numero di elementi di una base dello spazio, questi devono essere linearmente dipendenti fra di loro. Il lemma prende il nome dal matematico tedesco Ernst Steinitz.

Matrice nilpotente

In algebra lineare una matrice quadrata  si dice nilpotente se esiste un intero non negativo  tale che

Metodo di eliminazione di Gauss

In matematica, il metodo di eliminazione di Gauss, spesso abbreviato in MEG, è un algoritmo, che prende il nome dal matematico tedesco Carl Friedrich Gauss, usato in algebra lineare per determinare le soluzioni di un sistema di equazioni lineari, per calcolare il rango o l’inversa di una matrice.

Momento di un vettore

In algebra lineare, il momento di un vettore è uno pseudovettore definito come prodotto vettoriale della posizione del vettore, relativa a un punto detto polo, per il vettore stesso. Il termine viene talvolta adoperato con un’accezione scalare: è il caso ad esempio delle grandezze come il momento statico e il momento di inerzia.

Norma (matematica)

In algebra lineare, analisi funzionale e aree correlate della matematica, una norma è una funzione che assegna ad ogni vettore di uno spazio vettoriale, tranne lo zero, una lunghezza positiva.

Normalizzazione (matematica)

In matematica per normalizzazione si intende il procedimento di dividere tutti i termini di un’espressione per uno stesso fattore in modo che l’espressione risultante abbia una certa norma uguale a 1.

Nucleo (matematica)

In matematica, in particolare nell’algebra, il nucleo di un omomorfismo è l’insieme dei punti che vengono annullati dalla funzione. Viene definito in modi diversi a seconda del contesto in cui è utilizzato; in generale è legato al concetto di funzione iniettiva. Uno dei casi più significativi è quello di mappe lineari tra gruppi o spazi vettoriali: il nucleo è l’insieme degli elementi del dominio aventi immagine nulla, cioè l’insieme degli elementi che vengono mandati in zero dall’applicazione.

Orientazione

In geometria un’orientazione di uno spazio è una scelta con cui si identificano come “positive” alcune configurazioni di vettori e “negative” altre. Queste configurazioni positive e negative sono ottenute l’una dall’altra tramite riflessione, come in uno specchio.

Ortogonalizzazione di Gram-Schmidt

In matematica, e in particolare in algebra lineare, l’ortogonalizzazione Gram-Schmidt è un algoritmo che permette di ottenere un insieme di vettori ortogonali a partire da un generico insieme di vettori linearmente indipendenti in uno spazio vettoriale dotato di un prodotto scalare definito positivo.

Principio di sovrapposizione

In matematica e in fisica, il principio di sovrapposizione stabilisce che per un sistema dinamico lineare l’effetto di una somma di perturbazioni in ingresso è uguale alla somma degli effetti prodotti da ogni singola perturbazione.

Problema di Procuste ortogonale

Il problema di Procuste ortogonale è un problema di approssimazione matriciale che consiste nel trovare la migliore trasformazione ortogonale tra due insiemi di elementi in uno spazio vettoriale. Nella sua formulazione classica, date due matrici  e  a valori reali di dimensione , il problema consiste nel trovare una matrice ortogonale  che, quando applicata ad , meglio approssimi , minimizzando il residuo nel seguente problema

Procedura-S

La procedura-S è un teorema che stabilisce le condizioni rispetto alle quali una particolare diseguaglianza quadratica è conseguenza di un’altra diseguaglianza quadratica. Tale risultato è stato sviluppato in modo indipendente in diversi contesti e trova applicazione nella teoria del controllo, nell’algebra lineare e nell’ottimizzazione.

Pseudovettore

Uno pseudovettore, o vettore assiale, è un vettore che dipende dal sistema di riferimento adottato, ossia il verso di uno pseudovettore cambia al cambiare dei versi degli assi cartesiani. Nello specifico, se applichiamo una rotazione impropria avremo la comparsa di un segno meno che compensa la trasformazione.

Quasi-norma

In matematica, in particolare in algebra lineare e analisi funzionale, una quasi-norma soddisfa gli stessi assiomi della norma ad eccezione della disuguaglianza triangolare, che è rimpiazzata dalla relazione:

Scalare (matematica)

In matematica, uno scalare è un elemento di un campo che è stato usato per definire uno spazio vettoriale. Una quantità descritta da molti scalari, è detta vettore.

Segnatura (algebra lineare)

In matematica, e più precisamente in algebra lineare, la segnatura è una terna di numeri che corrispondono al numero di autovalori di una matrice simmetrica.

Seminorma

In algebra lineare, una seminorma è una generalizzazione del concetto di norma che, a differenza di quest’ultima, può assegnare lunghezza zero anche ad un vettore diverso da zero.

Sistema di equazioni lineari

In matematica, e in particolare in algebra lineare, un sistema di equazioni lineari, anche detto sistema lineare, è un sistema composto da più equazioni lineari che devono essere verificate tutte contemporaneamente. Una soluzione del sistema è un vettore i cui elementi sono le soluzioni delle equazioni che compongono il sistema, ovvero tali che se sostituiti alle incognite rendono le equazioni delle identità.

Somma di Minkowski

In geometria la somma di Minkowski di due insiemi di punti  e  in uno spazio vettoriale è l’insieme dei punti ottenuti addizionando gli elementi di  con quelli di . Se lo spazio vettoriale è il piano o lo spazio euclideo, la somma è un’operazione binaria tra due forme geometriche.

Somma diretta

In algebra lineare, la somma diretta è una costruzione tra moduli che restituisce un modulo più grande. Ad esempio, la somma diretta di due gruppi abeliani  e  è un gruppo abeliano  formato da tutte le coppie ordinate  con  e . In particolare, il prodotto cartesiano di  e  è caratterizzato con una struttura di gruppo abeliano definendo la somma tra coppie ordinate  come  e la moltiplicazione come  per  intero. Costruzioni simili consentono di caratterizzare la somma diretta tra varie strutture algebriche come moduli, anelli o sottospazi vettoriali. La somma diretta può essere anche definita tra più addendi, ad esempio .

Sottospazio affine

In matematica, un sottospazio affine è un sottoinsieme di uno spazio affine avente proprietà tali da farne a sua volta un altro spazio affine. Esempi di sottospazi affini sono i punti, le rette e i piani nell’ordinario spazio euclideo tridimensionale.

Sottospazio invariante

In algebra lineare un sottospazio invariante di un operatore lineare , dove  è uno spazio vettoriale, è un sottospazio vettoriale  di  tale che , ovvero tale che l’immagine rispetto a  di ciascun elemento di  è contenuta in  stesso. Si dice anche che  è -invariante.

Sottospazio ortogonale

In algebra lineare, il sottospazio ortogonale realizza il concetto di ortogonalità per sottospazi di uno spazio vettoriale munito di un prodotto scalare. Quando il prodotto scalare è definito positivo, il sottospazio ortogonale è spesso chiamato anche complemento ortogonale.

Sottospazio vettoriale

In matematica, e in particolare in algebra lineare, un sottospazio vettoriale è un sottoinsieme di uno spazio vettoriale, avente proprietà tali da farne a sua volta un altro spazio vettoriale. Esempi di sottospazi vettoriali sono le rette ed i piani nello spazio euclideo tridimensionale

Spazio affine

Nell’approccio algebrico, lo spazio affine è una struttura matematica strettamente collegata a quella di spazio vettoriale. Intuitivamente, uno spazio affine si ottiene da uno spazio vettoriale facendo in modo che tra i suoi punti non ve ne sia uno, l’origine, “centrale” e “privilegiato” rispetto agli altri.

Spazio duale

In matematica, lo spazio duale o spazio duale algebrico di uno spazio vettoriale è un particolare spazio vettoriale che ricorre in molte applicazioni della matematica e della fisica essendo a fondamento della nozione di tensore.

Spazio euclideo

In matematica, uno spazio euclideo è uno spazio affine in cui valgono gli assiomi e i postulati della geometria euclidea. Si tratta dello spazio di tutte le n-uple di numeri reali, che viene munito di un prodotto interno reale per definire i concetti di distanza, lunghezza e angolo. È un particolare esempio di spazio affine reale che fornisce una generalizzazione degli spazi a due e a tre dimensioni studiati dalla geometria euclidea. Lo spazio euclideo è uno spazio di Hilbert reale a dimensione finita.

Spazio vettoriale

In matematica, uno spazio vettoriale, anche detto spazio lineare, è una struttura algebrica composta da:

  • un campo, i cui elementi sono detti scalari;
  • un insieme, i cui elementi sono detti vettori;
  • due operazioni binarie, dette somma e moltiplicazione per scalare, caratterizzate da determinate proprietà.

Spazio vettoriale quoziente

In matematica, e più precisamente in algebra lineare, lo spazio vettoriale quoziente o spazio quoziente è uno spazio vettoriale ottenuto da una coppia di spazi vettoriali  uno contenuto nell’altro. Lo spazio quoziente si ottiene “collassando”  allo zero. Si indica con , che si legge  mod .

Teoremi newtoniani

In matematica, i teoremi newtoniani sono delle formule che permettono di calcolare, note le funzioni simmetriche elementari di  variabili, la sommatoria delle potenze -esime delle stesse. Consideriamo l’equazione

Trasformazione affine

In geometria, si definisce trasformazione affine dello spazio euclideo qualunque composizione di una trasformazione lineare  con una traslazione; in simboli, la più generale trasformazione affine può essere scritta come

Trasformazione antilineare

In matematica si dice trasformazione antilineareapplicazione antilinearefunzione antilinearemappa antilineare o operatore antilineare una trasformazione  da uno spazio vettoriale sui complessi in un secondo spazio dello stesso genere se:

Trasformazione ortogonale

In matematica, più precisamente in algebra lineare, una trasformazione ortogonale è una trasformazione lineare di uno spazio euclideo che preserva il prodotto scalare.

Vettore (matematica)

In matematica, un vettore è un elemento di uno spazio vettoriale. I vettori sono quindi elementi che possono essere sommati fra loro e moltiplicati per dei numeri, detti scalari.

Vettore nullo

In algebra lineare, il vettore nullo di uno spazio vettoriale è l’elemento neutro dell’operazione di addizione definita nello spazio, cioè quel vettore che lascia invariato qualunque vettore dello spazio a cui venga sommato. Tale vettore esiste sempre in qualunque spazio vettoriale, ed è possibile dimostrare che è anche unico.


Tratto da Wikipedia:

https://it.wikipedia.org/wiki/Categoria:Algebra_lineare

 

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: