Come configurare smartphone e PC. Portale informativo

§4.8. Dipendenza lineare di righe e colonne di una matrice

Il concetto di rango di una matrice è strettamente correlato al concetto di dipendenza lineare (indipendenza) delle sue righe o colonne. In futuro presenteremo il materiale per le righe, per le colonne la presentazione è simile.

Nella matrice UN indichiamo le sue linee come segue:

, , …. ,

Due righe di una matrice si dicono uguali, se i loro elementi corrispondenti sono uguali:, if,.

Le operazioni aritmetiche sulle righe della matrice (moltiplicazione di una riga per un numero, addizione di righe) sono introdotte come operazioni eseguite elemento per elemento:

Linea e chiamata combinazione lineare di stringhe..., una matrice se è uguale alla somma dei prodotti di queste stringhe per numeri reali arbitrari:

Le righe della matrice sono chiamate linearmente dipendente se ci sono numeri che non sono contemporaneamente uguali a zero tali che la combinazione lineare delle righe della matrice è uguale alla riga zero:

, =(0,0,...,0). (3.3)

Teorema 3.3Le righe della matrice sono linearmente dipendenti se almeno una riga della matrice è una combinazione lineare delle altre.

□ Infatti, per definizione, nella formula (3.3) , poi

Pertanto, la stringa è una combinazione lineare del resto delle stringhe. ■

Se una combinazione lineare di righe (3.3) è uguale a zero se e solo se tutti i coefficienti sono uguali a zero, allora le righe si dicono linearmente indipendenti.

Teorema 3.4.(sul rango della matrice) Il rango di una matrice è uguale al numero massimo delle sue righe o colonne linearmente indipendenti attraverso le quali tutte le sue altre righe (colonne) sono espresse linearmente.

Lascia che la matrice UN la taglia m n ha rango R(R min). Questo significa che c'è un minore diverso da zero R esimo ordine. Qualsiasi minore diverso da zero R-esimo ordine sarà chiamato il minore di base.

Sia, per definizione, la minore fondamentale minore d'angolo o d'angolo. Allora le righe della matrice sono linearmente indipendenti. Supponiamo l'opposto, cioè una di queste linee, per esempio, sia una combinazione lineare delle altre. Sottrai dagli elementi R- a riga, gli elementi della 1a riga, moltiplicati per, quindi gli elementi della 2a riga, moltiplicati per, ... e gli elementi ( R - 1) - th linee moltiplicate per. In base alla proprietà 8, sotto tali trasformazioni della matrice, il suo determinante D non cambierà, ma poiché R- la stringa ora consisterà di soli zeri, quindi D = 0 - una contraddizione. Pertanto, la nostra ipotesi che le righe della matrice siano linearmente dipendenti non è vera.

Le stringhe saranno chiamate di base... Mostriamo che qualsiasi riga (r + 1) della matrice è linearmente dipendente, cioè qualsiasi stringa è espressa in termini di base.

Si consideri il minore di (r + 1) -esimo ordine, che si ottiene integrando il minore in esame con elementi di un rigo in più io e colonna J... Questo minore è zero, poiché il rango della matrice è R, quindi qualsiasi minore di ordine superiore è zero.

Espandendolo secondo gli elementi dell'ultima colonna (aggiunta), otteniamo

Dove il modulo dell'ultimo complemento algebrico è uguale al minore di base D e quindi è diverso da zero, cioè 0.

Permettere

Colonne della matrice delle dimensioni. Combinazione lineare di colonne di matrice si chiama colonna-matrice, mentre alcuni numeri reali o complessi, chiamati coefficienti di combinazione lineare... Se in una combinazione lineare prendiamo tutti i coefficienti uguali a zero, allora la combinazione lineare è uguale alla matrice colonna zero.

Le colonne della matrice sono chiamate linearmente indipendente se la loro combinazione lineare è uguale a zero solo quando tutti i coefficienti della combinazione lineare sono uguali a zero. Le colonne della matrice sono chiamate linearmente dipendente , se esiste un insieme di numeri, tra i quali almeno uno è diverso da zero, e la combinazione lineare di colonne con questi coefficienti è uguale a zero

Allo stesso modo, possono essere date definizioni di dipendenza lineare e indipendenza lineare delle righe della matrice. Di seguito vengono formulati tutti i teoremi per le colonne della matrice.

Teorema 5

Se c'è zero tra le colonne della matrice, allora le colonne della matrice sono linearmente dipendenti.

Prova. Considera una combinazione lineare in cui tutti i coefficienti sono zero per tutte le colonne diverse da zero e uno per le colonne zero. È uguale a zero e tra i coefficienti della combinazione lineare ce n'è uno diverso da zero. Di conseguenza, le colonne della matrice sono linearmente dipendenti.

Teorema 6

Se matrice di colonne linearmente dipendente, allora è tutto le colonne della matrice sono linearmente dipendenti.

Prova. Per definizione, assumiamo che le prime colonne della matrice sono linearmente dipendenti. Quindi, per definizione di dipendenza lineare, esiste un insieme di numeri, tra i quali almeno uno è diverso da zero e la combinazione lineare di colonne con questi coefficienti è zero

Componiamo una combinazione lineare di tutte le colonne della matrice, comprese le restanti colonne a coefficienti zero

Ma . Pertanto, tutte le colonne della matrice sono linearmente dipendenti.

Conseguenza... Tra le colonne linearmente indipendenti della matrice, qualsiasi linearmente indipendente. (Questa affermazione è facilmente dimostrabile per assurdo.)

Teorema 7

Affinché le colonne della matrice siano linearmente dipendenti è necessario e sufficiente che almeno una colonna della matrice sia una combinazione lineare delle altre.

Prova.

Necessitano. Lascia che le colonne della matrice siano linearmente dipendenti, cioè c'è un insieme di numeri, tra cui almeno uno è diverso da zero, e la combinazione lineare di colonne con questi coefficienti è zero

Per chiarezza, supponilo. Quindi la prima colonna è una combinazione lineare delle altre.

Adeguatezza... Sia almeno una colonna della matrice una combinazione lineare delle altre, per esempio, dove sono alcuni numeri.

Quindi, cioè, la combinazione lineare di colonne è uguale a zero e tra i numeri della combinazione lineare almeno uno (at) è diverso da zero.

Sia il rango della matrice. Viene chiamato qualsiasi ordine minore-esimo diverso da zero di base ... Le righe e le colonne, all'intersezione delle quali c'è una base minore, sono chiamate di base .

Ogni riga della matrice A è indicata con e i = (a i 1 a i 2 ..., a in) (ad esempio,
e 1 = (a 11 a 12 ..., a 1 n), e 2 = (a 21 a 22 ..., a 2 n), ecc.). Ognuna di esse è una matrice di righe che può essere moltiplicata per un numero o aggiunta a un'altra riga secondo le regole generali per trattare le matrici.

Combinazione lineare le stringhe e l, e 2, ... e k chiamano la somma dei prodotti di queste stringhe con numeri reali arbitrari:
e = l l e l + l 2 e 2 + ... + l k e k, dove l l, l 2, ..., l k sono numeri arbitrari (coefficienti di una combinazione lineare).

Le righe della matrice e l, e 2, ... e m sono chiamate linearmente dipendente, se ci sono numeri l l, l 2, ..., l m che allo stesso tempo non sono uguali a zero, in modo tale che la combinazione lineare delle righe della matrice sia uguale alla riga zero:
l l e l + l 2 e 2 + ... + l m e m = 0, dove 0 = (0 0 ... 0).

La dipendenza lineare delle righe di una matrice significa che almeno una riga della matrice è una combinazione lineare delle altre. Infatti, sia per definizione l'ultimo coefficiente l m ¹ 0. Quindi, dividendo entrambi i lati dell'uguaglianza per l m, otteniamo un'espressione per l'ultima riga come combinazione lineare delle righe rimanenti:
e m = (l l / l m) e l + (l 2 / l m) e 2 + ... + (l m-1 / l m) e m-1.

Se una combinazione lineare di stringhe è zero se e solo se tutti i coefficienti sono zero, ad es. l l e l + l 2 e 2 + ... + l m e m = 0 Û l k = 0 "k, quindi le linee sono chiamate linearmente indipendente.

Teorema del rango di matrice... Il rango di una matrice è uguale al numero massimo delle sue righe o colonne linearmente indipendenti attraverso le quali tutte le sue altre righe o colonne possono essere espresse linearmente.

Dimostriamo questo teorema. Sia una matrice A m × n di rango r (r (A) £ min (m; n)). Esiste quindi un minore di ordine rth diverso da zero. Qualsiasi minore di questo tipo lo chiameremo di base... Lascia che sia un minore per definizione.

Si chiameranno anche i versi di questo minore di base.

Dimostriamo che allora le righe della matrice e l, e 2, ... e r sono linearmente indipendenti. Supponiamo il contrario, ad es. una di queste linee, per esempio la r-esima, è una combinazione lineare delle altre: er = llel + l 2 e 2 + ... + l r-1 e r-1 = 0. Quindi, se sottrai da gli elementi della r-esima riga gli elementi della 1a riga moltiplicati per ll, gli elementi della 2a riga moltiplicati per l 2, ecc., infine, gli elementi della (r-1) esima riga moltiplicati per l r-1, quindi rth riga diventerà zero. In questo caso, secondo le proprietà del determinante, il determinante di cui sopra non dovrebbe cambiare e allo stesso tempo dovrebbe essere uguale a zero. Si ottiene una contraddizione e si dimostra l'indipendenza lineare delle righe.

Dimostriamo ora che qualsiasi riga (r + 1) della matrice è linearmente dipendente, ad es. qualsiasi stringa può essere espressa in termini di base.

Integriamo il minore precedentemente considerato con un'altra riga (i-esima) e un'altra colonna (j-esima). Di conseguenza, otteniamo un minore dell'ordine (r + 1), che è uguale a zero per la definizione di rango.

dove sono alcuni numeri (alcuni o anche tutti questi numeri possono essere zero). Ciò significa che esistono le seguenti uguaglianze tra gli elementi delle colonne:

Dalla (3.3.1) segue che

Se l'uguaglianza (3.3.3) è vera se e solo se, allora le righe si dicono linearmente indipendenti. La relazione (3.3.2) mostra che se una delle righe è espressa linearmente rispetto alle altre, allora le righe sono linearmente dipendenti.

È facile vedere il contrario: se le linee sono linearmente dipendenti, allora c'è una linea che sarà una combinazione lineare del resto delle linee.

Sia, per esempio, in (3.3.3), allora .

Definizione. Si scelga nella matrice A qualche minore dell'r-esimo ordine e che il minore di (r + 1)-esimo ordine della matrice stessa contenga il minore nella sua interezza. Diremo che in questo caso il minore confina con il minore (o è il confine per).

Dimostriamo ora un lemma importante.

Lemma sui minori confinanti. Se il minore di ordine r della matrice A = è diverso da zero, e tutti i minori confinanti con esso sono uguali a zero, allora ogni riga (colonna) della matrice A è una combinazione lineare delle sue righe (colonne) che la compongono.

Prova. Senza perdere la generalità del ragionamento, assumeremo che nell'angolo superiore sinistro della matrice A =:



.

Per le prime k righe della matrice A, l'affermazione del lemma è ovvia: è sufficiente includere la stessa riga con il coefficiente uguale a uno nella combinazione lineare e il resto - con i coefficienti uguali a zero.

Dimostriamo ora che il resto delle righe della matrice A sono espresse linearmente in termini delle prime k righe. Per fare ciò, costruisci un minore di (r + 1) esimo ordine aggiungendo la k-esima riga () al minore e io esima colonna ():

.

Il minore risultante è zero per ogni k e l. Se, allora è uguale a zero in quanto contiene due colonne identiche. Se, allora il minore risultante è un minore confinante per e, quindi, è uguale a zero per l'ipotesi del lemma.

Espandiamo il minore in termini di elementi di quest'ultimo io a colonna:

Supponendo di ottenere:

(3.3.6)

L'espressione (3.3.6) significa che la kesima riga della matrice A è espressa linearmente rispetto alle prime r righe.

Poiché quando viene trasposta una matrice, i valori dei suoi minori non cambiano (a causa delle proprietà dei determinanti), allora tutto ciò che è stato dimostrato è vero anche per le colonne. Il teorema è dimostrato.

Corollario I. Qualsiasi riga (colonna) di una matrice è una combinazione lineare delle sue righe di base (colonne). Infatti, il minore di base della matrice è diverso da zero e tutti i minori confinanti con esso sono uguali a zero.

Corollario II. Determinante dell'ordine n-esimo se e solo se è uguale a zero, quando contiene righe (colonne) linearmente dipendenti. La sufficienza della dipendenza lineare delle righe (colonne) per l'uguaglianza del determinante a zero è stata dimostrata in precedenza come proprietà dei determinanti.

Dimostriamo la necessità. Sia data una matrice quadrata dell'ordine n-esimo, il cui unico minore sia uguale a zero. Quindi ne consegue che il rango di questa matrice è minore di n, cioè esiste almeno una riga che è una combinazione lineare delle righe di base di questa matrice.

Dimostriamo un altro teorema sul rango di una matrice.

Teorema. Il numero massimo di righe linearmente indipendenti di una matrice è uguale al numero massimo delle sue colonne linearmente indipendenti ed è uguale al rango di questa matrice.

Prova. Sia il rango della matrice А = uguale a r. Allora una qualsiasi delle sue k linee di base è linearmente indipendente, altrimenti il ​​minore di base sarebbe uguale a zero. D'altra parte, qualsiasi r + 1 o più stringhe sono linearmente dipendenti. Assumendo il contrario, potremmo trovare un minore di ordine maggiore di r diverso da zero per il Corollario 2 del lemma precedente. Quest'ultimo contraddice il fatto che l'ordine massimo dei minori diversi da zero è r. Tutto ciò che abbiamo dimostrato per le righe è vero anche per le colonne.

In conclusione, presentiamo un altro metodo per trovare il rango di una matrice. Il rango di una matrice può essere determinato trovando un minore di ordine massimo diverso da zero.

A prima vista, ciò richiede il calcolo, sebbene finito, ma forse molto elevato, di minori di questa matrice.

Il seguente teorema, tuttavia, permette di fare notevoli semplificazioni in proposito.

Teorema. Se il minore della matrice A è diverso da zero e tutti i minori confinanti con esso sono uguali a zero, il rango della matrice è r.

Prova. Basta mostrare che qualsiasi sottosistema di righe di matrice per S> r sarà linearmente dipendente dalle condizioni del teorema (ne segue che r è il numero massimo di righe di matrice linearmente indipendenti o uno qualsiasi dei suoi minori di ordine maggiore di k sono uguali a zero).

Supponiamo il contrario. Lascia che le righe siano linearmente indipendenti. Con il lemma sui minori confinanti, ciascuno di essi sarà espresso linearmente nei termini delle linee in cui c'è un minore e che, essendo diverse da zero, sono linearmente indipendenti:

Consideriamo ora la seguente combinazione lineare:

o

Usando (3.3.7) e (3.3.8), si ottiene

,

che contraddice l'indipendenza lineare delle righe.

Di conseguenza, la nostra ipotesi è errata e, quindi, qualsiasi riga S> r nelle condizioni del teorema è linearmente dipendente. Il teorema è dimostrato.

Considera la regola per calcolare il rango di una matrice: il metodo dei minori confinanti basato su questo teorema.

Nel calcolo del rango di una matrice si dovrebbe passare dai minori di ordine inferiore ai minori di ordine superiore. Se è già stato trovato un minore di ordine diverso da zero, allora è necessario calcolare solo i minori di (r + 1)-esimo ordine confinanti con il minore. Se sono uguali a zero, il rango della matrice è r. Questo metodo viene applicato anche se non solo calcoliamo il rango della matrice, ma determiniamo anche quali colonne (righe) costituiscono il minore di base della matrice.

Esempio. Calcolare il rango di una matrice con il metodo dei minori confinanti

.

Soluzione. Il minore del secondo ordine nell'angolo in alto a sinistra della matrice A è diverso da zero:

.

Tuttavia, tutti i minori di terzo ordine confinanti sono uguali a zero:

; ;
; ;
; .

Di conseguenza, il rango della matrice A è uguale a due:.

La prima e la seconda riga, la prima e la seconda colonna di questa matrice sono di base. Il resto delle righe e delle colonne sono le loro combinazioni lineari. Infatti, le seguenti uguaglianze valgono per le stringhe:

In conclusione, notiamo la validità delle seguenti proprietà:

1) il rango del prodotto di matrici non è maggiore del rango di ciascuno dei fattori;

2) il rango del prodotto di una matrice arbitraria A a destra o a sinistra di una matrice quadrata Q non degenere è uguale al rango della matrice A.

Matrici polinomiali

Definizione. Una matrice polinomiale o -matrix è una matrice rettangolare, i cui elementi sono polinomi in una variabile con coefficienti numerici.

Le trasformazioni elementari possono essere eseguite su matrici. Questi includono:

Permutazione di due righe (colonne);

Moltiplicare una riga (colonna) per un numero diverso da zero;

Sommando a una riga (colonna) un'altra riga (colonna) moltiplicata per qualsiasi polinomio.

Due -matrici e della stessa dimensione si dicono equivalenti: se si può passare dalla matrice ad utilizzare un numero finito di trasformazioni elementari.

Esempio. Dimostrare l'equivalenza delle matrici

, .

1. Scambiamo la prima e la seconda colonna nella matrice:

.

2. Sottrai la prima riga dalla seconda, moltiplicata per ():

.

3. Moltiplica la seconda riga per (–1) e nota che

.

4. Sottrai dalla seconda colonna la prima, moltiplicata per, otteniamo

.

L'insieme di tutte le matrici di dimensioni date è suddiviso in classi disgiunte di matrici equivalenti. Le matrici che sono equivalenti tra loro formano una classe, non equivalente, un'altra.

Ogni classe di matrici equivalenti è caratterizzata da una matrice canonica, o normale, di date dimensioni.

Definizione. Una -matrice canonica, o normale, di dimensioni è detta -matrice la cui diagonale principale contiene polinomi, dove p è il più piccolo dei numeri m e n ( ), inoltre, i polinomi diversi da zero hanno coefficienti iniziali uguali a 1, e ogni polinomio successivo è divisibile per il precedente. Tutti gli elementi al di fuori della diagonale principale sono 0.

Dalla definizione segue che se tra i polinomi ci sono polinomi di grado zero, allora si trovano all'inizio della diagonale principale. Se ci sono zeri, allora sono alla fine della diagonale principale.

La matrice dell'esempio precedente è canonica. Matrice

anche canonico.

Ogni classe di -matrici contiene una singola -matrice canonica, cioè ogni -matrice è equivalente a una singola matrice canonica, che è chiamata forma canonica o forma normale della matrice data.

I polinomi sulla diagonale principale della forma canonica di una data matrice sono chiamati fattori invarianti di questa matrice.

Uno dei metodi per calcolare i fattori invarianti consiste nel ridurre la matrice data alla forma canonica.

Quindi, per la matrice dell'esempio precedente, i fattori invarianti sono

, , , .

Da quanto detto segue che la presenza dello stesso insieme di fattori invarianti è condizione necessaria e sufficiente per l'equivalenza di -matrici.

Ridurre le -matrici alla forma canonica si riduce alla determinazione dei fattori invarianti

, ; ,

dove r è il rango della matrice; - il massimo comun divisore dei minori di ordine k-esimo, preso con il coefficiente principale pari a 1.

Esempio. Data una matrice

.

Soluzione. Ovviamente, il massimo comun divisore del primo ordine, es. ...

Definiamo i minori di secondo ordine:

, eccetera.

Già questi dati bastano per trarre una conclusione: dunque,.

noi definiamo

,

Quindi, .

Pertanto, la forma canonica di questa matrice è la seguente matrice:

.

Un polinomio di matrice è un'espressione della forma

dove è la variabile; - matrici quadrate di ordine n con elementi numerici.

Se, allora S è chiamato il grado del polinomio matrice, n è l'ordine del polinomio matrice.

Qualsiasi matrice quadratica può essere rappresentata come un polinomio di matrice. Ovviamente è vero anche il contrario, ad es. qualsiasi polinomio di matrice può essere rappresentato come una certa matrice quadrata.

La validità di queste affermazioni deriva chiaramente dalle proprietà delle operazioni su matrici. Soffermiamoci sui seguenti esempi:

Esempio. Rappresenta una matrice polinomiale

sotto forma di un polinomio matrice come segue

.

Esempio. Polinomio matrice

può essere rappresentato come la seguente matrice polinomiale (-matrice)

.

Questa intercambiabilità tra polinomi matriciali e matrici polinomiali gioca un ruolo essenziale nell'apparato matematico dei metodi di analisi fattoriale e per componenti.

I polinomi di matrice dello stesso ordine possono essere aggiunti, sottratti e moltiplicati allo stesso modo dei polinomi ordinari con coefficienti numerici. Tuttavia, va ricordato che la moltiplicazione dei polinomi di matrice, in generale, non è commutativa, poiché la moltiplicazione matriciale non è commutativa.

Due polinomi di matrice si dicono uguali se i loro coefficienti sono uguali, cioè matrici corrispondenti per gli stessi gradi della variabile.

La somma (differenza) di due polinomi di matrice è chiamata tale polinomio di matrice, per cui il coefficiente per ciascun grado della variabile è uguale alla somma (differenza) dei coefficienti per lo stesso grado nei polinomi e.

Per moltiplicare un polinomio di matrice per un polinomio di matrice, è necessario moltiplicare ogni termine del polinomio di matrice per ogni termine del polinomio di matrice, aggiungere i prodotti risultanti e portare termini simili.

Grado di un polinomio di matrice: il prodotto è minore o uguale alla somma delle potenze dei fattori.

Le operazioni sui polinomi di matrice possono essere eseguite utilizzando operazioni sulle corrispondenti -matrici.

Per sommare (sottrarre) polinomi matriciali è sufficiente sommare (sottrarre) le matrici corrispondenti. Lo stesso vale per la moltiplicazione. -matrice del prodotto di polinomi matriciali è uguale al prodotto di -matrici di fattori.

D'altra parte, e può essere scritto nella forma

dove В 0 è una matrice non degenere.

Quando diviso per, c'è un unico quoziente destro e un resto destro

dove il grado di R 1 è minore del grado, o (divisione senza resto), nonché il quoziente sinistro e il resto sinistro se e solo se, di dove d'ordine

Un sistema di vettori dello stesso ordine si dice lineare-dipendente se da questi vettori si può ottenere un vettore nullo mediante un'opportuna combinazione lineare. (In questo caso, non è consentito che tutti i coefficienti della combinazione lineare siano uguali a zero, poiché ciò sarebbe banale.) Altrimenti, i vettori sono chiamati linearmente indipendenti. Ad esempio, i seguenti tre vettori:

sono linearmente dipendenti, poiché è facile da controllare. Nel caso di una dipendenza lineare, qualsiasi vettore può sempre essere espresso in termini di una combinazione lineare dei restanti vettori. Nel nostro esempio: o o È facile verificare con calcoli appropriati. Ciò implica la seguente definizione: un vettore è linearmente indipendente da altri vettori se non può essere rappresentato come una combinazione lineare di questi vettori.

Consideriamo un sistema di vettori senza specificare se è linearmente dipendente o linearmente indipendente. Per ogni sistema costituito da vettori colonna a è possibile individuare il numero massimo possibile di vettori linearmente indipendenti. Questo numero, indicato da una lettera, è il rango del dato sistema vettoriale. Poiché ogni matrice può essere vista come un sistema di vettori colonna, il rango di una matrice è definito come il numero massimo di vettori colonna linearmente indipendenti che contiene. I vettori riga vengono utilizzati anche per determinare il rango di una matrice. Entrambi i metodi danno lo stesso risultato per la stessa matrice e non possono superare il più piccolo di o Il rango di una matrice quadrata di ordine varia da 0 a. Se tutti i vettori sono zero, il rango di tale matrice è zero. Se tutti i vettori sono linearmente indipendenti l'uno dall'altro, allora il rango della matrice è. Se si forma una matrice dai vettori sopra, il rango di questa matrice è 2. Poiché ogni due vettori può essere ridotto al terzo da una combinazione lineare, il rango è inferiore a 3.

Ma ci si può assicurare che due vettori qualsiasi di essi siano linearmente indipendenti, da cui il rango

Una matrice quadrata è detta degenere se i suoi vettori colonna o vettori riga sono linearmente dipendenti. Il determinante di tale matrice è uguale a zero e la sua matrice inversa non esiste, come notato sopra. Questi risultati sono equivalenti tra loro. Di conseguenza, una matrice quadrata è chiamata non degenere o non singolare se i suoi vettori colonna o vettori riga sono indipendenti l'uno dall'altro. Il determinante di tale matrice non è uguale a zero ed esiste la sua matrice inversa (confronta con p. 43)

Il rango della matrice ha un'ovvia interpretazione geometrica. Se il rango della matrice è uguale, si dice che lo spazio -dimensionale è attraversato da vettori. Se il rango, i vettori si trovano nel sottospazio -dimensionale, che li include tutti. Quindi, il rango della matrice corrisponde alla dimensione minima richiesta dello spazio "in cui sono contenuti tutti i vettori", il sottospazio -dimensionale nello spazio -dimensionale è chiamato iperpiano -dimensionale. Il rango della matrice corrisponde alla dimensione più piccola dell'iperpiano in cui giacciono ancora tutti i vettori.

Ortogonalità. Due vettori aeb sono detti mutuamente ortogonali se il loro prodotto scalare è uguale a zero. Se per la matrice d'ordine vale l'uguaglianza dove D è una matrice diagonale, allora i vettori colonna della matrice A sono mutuamente ortogonali. Se questi vettori colonna sono normalizzati, cioè ridotti ad una lunghezza pari a 1, allora vale l'uguaglianza e si parla di vettori ortonormali. Se B è una matrice quadrata e vale l'uguaglianza, allora la matrice B è detta ortogonale. In questo caso, dalla formula (1.22) segue che la matrice ortogonale è sempre non degenere. Quindi, dall'ortogonalità della matrice, segue l'indipendenza lineare dei suoi vettori riga o vettori colonna. L'affermazione inversa non è vera: l'indipendenza lineare del sistema di vettori non implica l'ortogonalità a coppie di questi vettori.

Principali articoli correlati