Indipendenza lineare

In matematica, e più precisamente in algebra lineare, l'indipendenza lineare di un insieme di vettori appartenenti a uno spazio vettoriale si verifica se nessuno di questi può essere espresso come una combinazione lineare degli altri. In caso contrario si dice che l'insieme di vettori è linearmente dipendente.

L'indipendenza di n {\displaystyle n} vettori in R n {\displaystyle \mathbb {R} ^{n}} può essere verificata tramite il determinante della matrice ottenuta affiancando le n-uple che esprimono i vettori in una data base: questi sono indipendenti precisamente quando la matrice che formano ha determinante diverso da zero. Questo procedimento di calcolo è però in generale dispendioso, e conviene piuttosto utilizzare l'algoritmo di Gauss-Jordan.

Definizione

Sia V {\displaystyle V} uno spazio vettoriale su un campo K {\displaystyle K} . Dati v 1 , v 2 , , v n {\displaystyle \mathbf {v} _{1},\mathbf {v} _{2},\dots ,\mathbf {v} _{n}} elementi di V {\displaystyle V} , si dice che essi sono linearmente indipendenti su K {\displaystyle K} se in tale campo la relazione:

i = 1 n a i v i = a 1 v 1 + a 2 v 2 + + a n v n = 0 a i K {\displaystyle \sum _{i=1}^{n}a_{i}\mathbf {v} _{i}=a_{1}\mathbf {v} _{1}+a_{2}\mathbf {v} _{2}+\cdots +a_{n}\mathbf {v} _{n}=\mathbf {0} \qquad a_{i}\in K}

è verificata solo se gli elementi a 1 , a 2 , , a n {\displaystyle a_{1},a_{2},\dots ,a_{n}} sono tutti uguali a zero.[1] Se invece tali n-uple di elementi non nulli del campo esistono, allora si dice che v 1 , v 2 , , v n {\displaystyle \mathbf {v} _{1},\mathbf {v} _{2},\dots ,\mathbf {v} _{n}} elementi di V {\displaystyle V} sono linearmente dipendenti.

La definizione si estende anche a un insieme infinito di vettori di V {\displaystyle V} : questi sono linearmente indipendenti se lo sono tutti i sottoinsiemi finiti.

Il concetto di indipendenza lineare è di grande importanza, poiché un insieme di vettori linearmente indipendenti forma una base per il sottospazio da lui generato, e quindi il loro numero risulta essere la dimensione di questo spazio.

Lo spazio proiettivo delle dipendenze lineari

Si consideri l'insieme S {\displaystyle S} costituito dai vettori v 1 , v 2 , , v n {\displaystyle \mathbf {v} _{1},\mathbf {v} _{2},\dots ,\mathbf {v} _{n}} . Si dice dipendenza lineare per S {\displaystyle S} un vettore a = ( a 1 , a 2 , , a n ) {\displaystyle \mathbf {a} =(a_{1},a_{2},\dots ,a_{n})} di K n {\displaystyle K^{n}} diverso da 0 = ( 0 , , 0 ) {\displaystyle \mathbf {0} =(0,\dots ,0)} tale che:

a 1 v 1 + + a n v n = 0 {\displaystyle a_{1}\mathbf {v} _{1}+\cdots +a_{n}\mathbf {v} _{n}=0}

Se una tale dipendenza lineare esiste, allora gli n vettori sono linearmente dipendenti. Data una dipendenza lineare d {\displaystyle \mathbf {d} } per un insieme S {\displaystyle S} di n {\displaystyle n} vettori, ogni vettore α d {\displaystyle \alpha \mathbf {d} } proporzionale a essa, con α 0 {\displaystyle \alpha \neq 0} appartenente a K {\displaystyle K} , è una dipendenza lineare per lo stesso S {\displaystyle S} . Questo rende lecito identificare due dipendenze lineari l'una multipla non nulla dell'altra.

In conseguenza di tale identificazione, l'insieme di tutte le dipendenze lineari per l'insieme costituito dai vettori v 1 , v 2 , , v n {\displaystyle \mathbf {v} _{1},\mathbf {v} _{2},\dots ,\mathbf {v} _{n}} è uno sottospazio dello spazio proiettivo P ( K n ) {\displaystyle P(K^{n})} .

Esempi

Nel piano

I vettori ( 1 , 1 ) {\displaystyle (1,1)} e ( 3 , 2 ) {\displaystyle (-3,2)} in R 2 {\displaystyle R^{2}} sono linearmente indipendenti. Infatti, siano a {\displaystyle a} e b {\displaystyle b} due numeri reali tali che:

a ( 1 , 1 ) + b ( 3 , 2 ) = ( 0 , 0 ) {\displaystyle a(1,1)+b(-3,2)\,=\,(0,0)}

allora:

( a 3 b , a + 2 b ) = ( 0 , 0 ) {\displaystyle (a-3b,a+2b)=(0,0)}

cioè:

a 3 b = 0 a + 2 b = 0 {\displaystyle a-3b=0\qquad a+2b=0}

risolvendo per a {\displaystyle a} e b {\displaystyle b} , si trova a = 0 {\displaystyle a=0} e b = 0 {\displaystyle b=0} .

Base canonica

Sia V = R n {\displaystyle V=\mathbb {R} ^{n}} e si considerino i seguenti elementi in V {\displaystyle V} :

e 1 := ( 1 , 0 , 0 , , 0 ) e 2 := ( 0 , 1 , 0 , , 0 ) e n := ( 0 , 0 , 0 , , 1 ) {\displaystyle {\begin{aligned}\mathbf {e} _{1}&:=(1,0,0,\ldots ,0)\\\mathbf {e} _{2}&:=(0,1,0,\ldots ,0)\\\vdots \\\mathbf {e} _{n}&:=(0,0,0,\ldots ,1)\end{aligned}}}

allora e 1 , e 2 , e n {\displaystyle \mathbf {e} _{1},\mathbf {e} _{2},\dots \mathbf {e} _{n}} sono linearmente indipendenti. Infatti, si supponga che a 1 , a 2 , a n {\displaystyle a_{1},a_{2},\dots a_{n}} siano elementi di R {\displaystyle \mathbb {R} } tali che:

a 1 e 1 + a 2 e 2 + + a n e n = 0 {\displaystyle a_{1}\mathbf {e} _{1}+a_{2}\mathbf {e} _{2}+\cdots +a_{n}\mathbf {e} _{n}\,=\,0}

Poiché:

a 1 e 1 + a 2 e 2 + + a n e n = ( a 1 , a 2 , , a n ) {\displaystyle a_{1}\mathbf {e} _{1}+a_{2}\mathbf {e} _{2}+\cdots +a_{n}\mathbf {e} _{n}=(a_{1},a_{2},\ldots ,a_{n})}

allora a i = 0 {\displaystyle a_{i}=0} per ogni i {\displaystyle i} in { 1 , n } {\displaystyle \{1,\dots n\}} .

Funzioni

Sia V {\displaystyle V} lo spazio vettoriale di tutte le funzioni da R {\displaystyle \mathbb {R} } in R {\displaystyle \mathbb {R} } . Indicando con t {\displaystyle t} la variabile reale, le funzioni e t {\displaystyle e^{t}} ed e 2 t {\displaystyle e^{2t}} in V {\displaystyle V} sono linearmente indipendenti. Infatti, si supponga che a {\displaystyle a} e b {\displaystyle b} siano due numeri reali tali che:

a e t + b e 2 t = 0 {\displaystyle ae^{t}+be^{2t}=0}

per ogni valore di t {\displaystyle t} . Si deve dimostrare che a = 0 {\displaystyle a=0} e b = 0 {\displaystyle b=0} . A questo scopo si differenziano entrambi i membri della precedente relazione per avere:

a e t + 2 b e 2 t = 0 {\displaystyle ae^{t}+2be^{2t}=0}

Sottraendo la prima relazione dalla seconda, si ottiene:

b e 2 t = 0 {\displaystyle be^{2t}=0}

e, considerando il valore particolare t = 0 {\displaystyle t=0} , si ha b = 0 {\displaystyle b=0} .

Dalla prima relazione allora:

a e t = 0 {\displaystyle ae^{t}\,=\,0}

e di nuovo per t = 0 {\displaystyle t=0} si trova a = 0 {\displaystyle a=0} .

Note

  1. ^ Hoffman, Kunze, pag. 40.

Bibliografia

  • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992, ISBN 88-339-5035-2.
  • (EN) Kenneth Hoffman, Ray Kunze, Linear Algebra, 2ª ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971, ISBN 0-13-536821-9.
  • (EN) Stephen Friedberg, Arnold Insel e Lawrence Spence, Linear Algebra, 4ª ed., Pearson, 2003, pp. 48-49, ISBN 0-13-008451-4.

Voci correlate

  • Base (algebra lineare)
  • Combinazione lineare
  • Completamento a base
  • Dimensione (spazio vettoriale)
  • Indipendenza affine
  • Indipendenza algebrica
  • Matrice di cambiamento di base
  • Spazio vettoriale
  • Vettore (matematica)

Collegamenti esterni

  • (EN) Eric W. Weisstein, Indipendenza lineare, su MathWorld, Wolfram Research. Modifica su Wikidata
  • (EN) Indipendenza lineare, su Encyclopaedia of Mathematics, Springer e European Mathematical Society. Modifica su Wikidata
  • (EN) Tutorial and interactive program on Linear Independence.
  • (EN) Introduction to Linear Independence at KhanAcademy.
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica