E-school  di  Arrigo Amadori

Algebra I

Trasformazioni (1' parte)

01 – Introduzione.

In questo capitolo vengono esposte le proprietà algebriche delle trasformazioni sugli spazi 
vettoriali in sé limitatamente  alle trasformazioni  che formano un gruppo e con particolare 
riguardo alle trasformazioni lineari.

Le trasformazioni sugli spazi vettoriali sono di fondamentale importanza anche per le 
applicazioni in fisica. Nella meccanica quantistica le grandezze fisiche (osservabili) sono 
rappresentate da operatori differenziali lineari definiti sullo spazio di Hilbert delle funzioni 
d’onda  Ψ . Questi operatori non sono altro che trasformazioni lineari su un particolare 
spazio vettoriale.

Le trasformazioni qui trattate sono definite su spazi vettoriali a dimensione finita ed in 
particolari su gli spazi euclidei. L’estensione agli spazi vettoriali ad infinte dimensioni 
sarà trattata altrove (sezione relativa agli “Operatori lineari”).

02 – Matrici e trasformazioni lineari.

Sia   (K ; + , ∙)   un campo qualsiasi e   V(K)   uno spazio vettoriale n-dimensionale 
sul campo  K . Allora l’algebra delle matrici  n x n   su  K   e l’algebra delle 
trasformazioni lineari su  V(K)  sono isomorfe (omettiamo la dimostrazione).

Questo è il teorema fondamentale dell’intera algebra lineare.

Non abbiamo definito esattamente cosa si intende per algebra delle … , per algebra 
lineare e per isomorfismo fra algebre ma il loro significato intuitivo risulta chiaro.

Questo fatto fondamentale introduce la corrispondenza biunivoca fra l’insieme delle 
matrici  n x n  e l’insieme delle trasformazioni lineari su uno spazio vettoriale n-dimensionale. 
Ciò significa, in conclusione, che una trasformazione lineare qualunque su di uno 
spazio vettoriale n-dimensionale è rappresentata da una matrice   n x n 
viceversa (naturalmente rispetto ad una base fissata).

Data una trasformazione   T   in   V(K)   la matrice  A   corrispondente a   T   si costruisce 
nel modo seguente :

        - 1 -         esprimiamo un vettore   x  rispetto ad una base     ottenendo 
                        così  

        - 2 -         applichiamo la trasformazione  T  al vettore  x  . Otteniamo  
                       

        - 3 -         applichiamo le proprietà di linearità di  T . Otteniamo 

        - 4 -         esprimiamo i vettori   in funzione dei vettori di base nel seguente modo  
                       

        - 5 -         otteniamo 

                                   ovvero

                               

        - 6 -         da cui  

        - 7 -         la matrice     rappresenta allora la trasformazione  
                        T  rispetto alla base prescelta  in quanto si può scrivere

                

                        dove facciamo corrispondere i vettori di  V(K)   alle matrici colonna   
                        n x 1  contenenti le coordinate rispetto alla base. La matrice così 
                        costruita si chiama matrice della trasformazione rispetto ad 
                        una base

03 – Gruppo lineare.

Sia   V(K)  uno spazio vettoriale n-dimensionale sul campo  K  ed  Ω  l’insieme delle 
sue trasformazioni lineari non singolari (invertibili).

L’insieme  Ω  , dotato dell’operazione di moltiplicazione (composizione fra due 
trasformazioni), è un gruppo (non commutativo) che si chiama gruppo lineare
che verrà indicato con  (Ω ; ∙).

Il gruppo (non commutativo)     (l’insieme delle matrici non singolari (invertibili)  
n x n  sul campo  K ) corrisponde biunivocamente al gruppo  (Ω ; ∙)  in    , ovvero 
ad ogni matrice  non singolare n x n  su  K  corrisponde una trasformazione lineare non 
singolare in     e viceversa.

Il gruppo     sarà chiamato, per questa ragione, ugualmente gruppo lineare.

04 – Matrici simili.

Sia  (K ; + , ∙)  un campo qualsiasi. Sia     l’insieme della matrici   n x n  in  K  ed    
il suo sottoinsieme delle matrici invertibili.

Si dice che la matrice   B   è simile alla matrice  A  se esiste una matrice  P  appartenente 
ad   tale che  B = P A P ¯ ¹   e si scrive   B ≈ A  .

Si dimostra che la similitudine      fra matrici è una relazione di equivalenza che induce in   
 una partizione in classi di equivalenza.

Per le matrici simili valgono i seguenti teoremi (omettiamo le dimostrazioni) :

        - 1 -         sia   V(K)  uno spazio vettoriale n-dimensionale sul campo  K   e  T   una 
                        sua trasformazione lineare. Allora le matrici di  T  rispetto a due basi diverse 
                        sono simili e viceversa (cioè due matrici simili corrispondono ad una stessa 
                        trasformazione su basi diverse).

                        Si noti l’importante risultato che se   A’  e  A’’   sono le due matrici di  T   
                        rispetto alla prima ed alla seconda base e   B   è la matrice relativa al 
                        cambiamento di base fra la prima e la seconda, si ha       A’’ = B A’ B ¯ ¹  

        - 2 -         se  A  e   B   sono due matrici   n  x n  sul campo   K   e   B ≈ A  sia hanno 
                        le seguenti proprietà :

                                -                        

                                -           se   A  è invertibile  anche   B  è invertibile e  

                                 -                      det B = det A 

                                -                      rango B = rango A

05 – Matrici congruenti.

Se   A  e   B   sono due matrici   n x n  su   K  ed esiste una matrice   n x n   invertibile   P 
tale che    allora si dice che   B  è congruente ad  A   e si scrive  .

Si dimostra che la congruenza  fra matrici è una relazione di equivalenza che induce in    
una partizione in classi di equivalenza.

Per le matrici congruenti vale il teorema (omettiamo la dimostrazione) :

        -              se   g(x ; y)  è una forma bilineare su uno spazio euclideo reale n-dimensionale  
                        V(R)  e se   A’  e  A’’  sono le sue matrici rispetto a due basi, allora 

06 – Sottospazio invariante.

Sia   V(K)  uno spazio vettoriale e   V’(K)   un suo sottospazio. Sia   T   una trasformazione 
lineare su  V(K) . Se si verifica che  T(x)  appartiene a  V’  per ogni   x   appartenente a  V’ , 
allora si dice che   V’(K)   è invariante rispetto a  T .

07 – Equazione agli autovalori. Autovalore, autovettore, spettro. Polinomio 
        caratteristico.

Sia   V(K)  uno spazio vettoriale   T   una sua trasformazione lineare. Consideriamo 
l’equazione :

         T(x) = λ x 

dove  λ  appartiene a  K  e  x  appartiene a  V , essendo   x ≠ 0 , perché in quel caso 
l’equazione avrebbe soluzioni per ogni  λ  in quanto è sempre  T(0) = 0   (se   T   è 
lineare).

L’equazione così definita è detta equazione agli autovalori di  T

Un valore  λ  ed un vettore   x   per cui l’equazione è soddisfatta sono un autovalore  
ed un corrispondente autovettore della trasformazione lineare  T .

L’insieme degli autovalori di   T  si chiama spettro di  T  .

L’equazione agli autovalori può essere scritta in forma matriciale nel caso che lo spazio 
vettoriale si n-dimensionale.

Infatti da  T(x) = λ x   si ottiene  T(x) - λ x = 0  , ovvero   T(x) – λ I(x) = 0  (dove  
I(x) = x   è la trasformazione identica) ovvero  (T – λ I) (x) = 0  (essendo le trasformazioni 
delle funzioni). Gli autovalori  λ  sono i valori di   K  per cui la trasformazione   T – λ I   è 
singolare, ovvero i corrispondenti autovettori  x  sono diversi da zero. Gli autovettori 
corrispondenti all’autovalore  λ  sono allora i vettori dello spazio nullo di  T – λ I  , cioè di  
 (escluso il vettore nullo). Se   V(K)  è uno spazio vettoriale n-dimensionale ed  
A   è la matrice della trasformazione lineare T   rispetto ad una fissata base, la trasformazione  
T – λ I   corrisponde alla matrice  A – λ I  (dove   I  rappresenta la matrice unità  n x n). 
L’equazione agli autovalori si scrive allora  (A – λ I) x = 0  dove   x  è la matrice colonna 
corrispondente al vettore   x   su una base fissata.

Perveniamo così alla condizione per l’esistenza di soluzioni diverse da zero :

        det(A – λ I) = 0    ovvero   .

Il calcolo del terminante porta ad un polinomio di grado  n  in  λ . Questo polinomio si 
chiama polinomio caratteristico della matrice  A . Gli autovalori di  T  sono allora le 
radici del polinomio caratteristico di  A  (valori che lo annullano).

Valgono gli importanti teoremi (omettiamo le dimostrazioni) :

        - 1 -         sia   T  una trasformazione lineare dello spazio vettoriale n-dimensionale  
                        V(K) . I polinomi caratteristici delle due matrici di  T  corrispondenti a 
                        due diverse basi sono identici.

                        Questo fondamentale teorema stabilisce che matrici simili hanno lo stesso 
                        polinomio caratteristico e quindi di conseguenza che il polinomio caratteristico 
                        è relativo ad una trasformazione indipendentemente dalla base scelta, 
                        ovvero si può parlare di polinomio caratteristico di una trasformazione lineare.

        - 2 -         sia   T  una trasformazione lineare dello spazio vettoriale  V(K) . Allora 
                        autovettori di  T  corrispondenti ad uatovalori distinti di  T   sono linearmente 
                        indipendenti

        - 3 -         sia   T  una trasformazione lineare dello spazio vettoriale  V(K) . Sia  λ  un 
                        suo autovalore. Allora :

                                -              λ ⁿ  è autovalore della trasformazione lineare   T ⁿ   per ogni   
                                                n   naturale

                                -              se   T   è non singolare allora  λ ‾ ¹   è autovalore della 
                                                trasformazione lineare  T ‾ ¹

        - 4 -         sia   T  una trasformazione lineare dello spazio vettoriale n-dimensionale  
                        V(K) . Sia  T  dotato di   n  autovettori linearmente indipendenti    
                        Allora la matrice di   T  rispetto alla base   è di tipo diagonale e 
                        vale esattamente :

                                

                        dove i   λ   sono i corrispondenti autovalori degli autovettori presi come 
                        base. Il viceversa del teorema è altrettanto vero (cioè se la matrice di una 
                        trasformazione lineare  T  dello spazio vettoriale n-dimensionale   V(K)  
                        rispetto ad una certa base è diagonale, allora i vettori della base sono 
                        autovettori di  T  ed i termini della diagonale della matrice sono gli autovalori 
                        di  T ).

                        Questo teorema è di importanza fondamentale perché esprime le regole 
                        secondo le quali una matrice è diagonalizzabile, ovvero la possibilità di 
                        trasformare una matrice qualunque nella semplice forma diagonale tramite 
                        un cambiamento di base. La possibilità di ottenere una matrice simile 
                        ad una data in forma diagonale è di capitale importanza perché, per 
                        esempio, ci permette di calcolare il determinate della matrice (che è lo 
                        stesso se le matrici sono simili) semplicemente moltiplicandi gli autovalori 
                        della diagonale principale.

                        Purtroppo non tutte le matrici   n x n  sono diagonalizzabili  perché non 
                        tutte le matrici   n x n   possiedono   n   autovettori linearmente indipendenti. 
                        Però tutte le matrici possono essere poste (con una trasformazione di 
                        similitudine) in una forma non esattamente diagonale ma particolarmente 
                        semplice, sotto forma di matrice di Jordan (vedi successivamente).

        - 5 -         sia   T  una trasformazione lineare dello spazio vettoriale n-dimensionale  
                        V(K) . La trasformazione   T  sia dotata di  n  autovalori a due a due distinti   
                          ed   sia un autovettore corrispondente all’autovalore   con   
                        i = 1 , …, n  . Allora la matrice di  T   rispetto alla base   è di 
                        tipo diagonale.

                        Questo teorema è il corrispondente del precedente visto partendo dagli 
                        autovalori.

        - 6 -         sia   T  una trasformazione lineare dello spazio vettoriale n-dimensionale  
                        V(C)  sul campo complesso. Allora   T   possiede un autovalore   λ  e la 
                        dimensione dello spazio nullo di   T - λ I   è maggiore od uguale ad  1  
                        (ovvero )

        - 7 -         sia   T  una trasformazione lineare dello spazio vettoriale n-dimensionale  
                        V(C)  sul campo complesso. Sia   V’(C)  un suo sottospazio invariante 
                        rispetto a   T  . Allora esiste almeno un autovettore di   T   appartenente a  
                        V’

        - 8 -         sia   T  una trasformazione lineare dello spazio vettoriale n-dimensionale  
                        V(R)  sul campo reale. Allora esiste almeno un sottospazio di  V(R)  
                        invariante rispetto a  T  di dimensione  1  oppure  2

08 – Trasformazione ortogonale.

Sia   V(R)  uno spazio euclideo reale n-dimensionale e  T   una sua trasformazione lineare. 
Se si verifica che :

         <T(x) , T(y)> = <x , y>   

per ogni vettore   x   ed   y   di  V  (dove   <>   è il prodotto interno) allora si dice che  T  
è ortogonale.

Per le trasformazioni ortogonali valgono i seguenti teoremi (omettiamo le dimostrazioni) :

        - 1 -         l’insieme delle trasformazioni ortogonali in uno spazio euclideo reale 
                        n-dimensionale è un gruppo che indicheremo con    (H ; ∙)  che è a 
                        sua volta un sottogruppo del gruppo lineare   (Ω; ∙)

        - 2 -         sia   V(R)  uno spazio euclideo reale n-dimensionale e  T   una sua 
                        trasformazione ortogonale. Allora :

                                -              se  A   è la matrice di   T   rispetto ad una base 
                                                qualunque si ha   det A = ± 1 . Nel caso che  
                                                det A = + 1   la trasformazione   T   si dice ortogonale 
                                                propria. Nel caso che   det A = - 1    la trasformazione   
                                                T   si dice ortogonale impropria

                                -              se  A   è la matrice di   T   rispetto ad una base ortonormale 
                                                qualunque si ha   (le matrici che soddisfano 
                                                questa proprietà si chiamano appunto ortogonali)

                                -              se   λ   è un autovalore di  T   si ha   λ = ± 1  (si noti che 
                                                nel campo reale può non esistere nessun autovalore di   T)

        - 3 -         sia   V(R)  uno spazio euclideo reale n-dimensionale e  T   una sua 
                        trasformazione ortogonale. Allora esiste una base ortonormale  
                        rispetto alla quale la matrice di   T  è :

                                

                        dove    ;    

                                ;  

                        con 

                        (si noti che   O  , I , -I   e  X   possono mancare del tutto e possono 
                        essere posti in qualsiasi ordine)

Riguardo a quest’ultimo teorema si possono fare importanti considerazioni :

        - 1 -         V(R)   spazio euclideo reale 1-dimensionale :

                        sia il vettore   e   di modulo  1   il generatore dello spazio  V(R)   e sia   
                        T   una sua trasformazione ortogonale. Allora   T(e) = λe   e, dovendo 
                        essere   λ = ± 1  (se esistono autivalori), si hanno i due casi  T(e) = e  
                        oppure     T(e) = -e   per cui   T = I   oppure   T = -I  (I  è la trasformazione 
                        identica che qui vale  ||1||). Pertanto nello spazio euclideo reale 1-dimensionale 
                        si hanno solo due trasformazioni ortogonali   e    dove 
                        la prima è propria e la seconda è impropria

                        

        - 2 -         V(R)   spazio euclideo reale 2-dimensionale :

                        rispetto alla base ortonormale   una trasformazione ortogonale 
                        in   V(R)   può avere le seguenti matrici     ,   
                          ed     (la prima è una trasformazione 
                        ortogonale propria, le altre due sono improprie) (omettiamo la 
                        dimostrazione).

                        Questo risultato ha una fondamentale interpretazione geometrica :

                                -              la trasformazione ortogonale    corrisponde ad 
                                                una rotazione della base di un angolo  φ  . La 
                                                trasformazione può essere vista anche come la 
                                                rotazione del vettore rispetto alla stessa base

                          

                        

                                -              la trasformazione ortogonale    corrisponde alla 
                                                proiezione speculare di un vettore rispetto all’asse 
                                                della primo vettore di base

                        

                                -              la trasformazione ortogonale   corrisponde alla 
                                                proiezione speculare di un vettore rispetto all’asse 
                                                della secondo vettore di base

                        

        - 3 -         V(R)   spazio euclideo reale 3-dimensionale :

                        questo caso è molto importante perché corrisponde al caso della geometria 
                        elementare tridimensionale. Per un noto teorema sulle trasformazioni 
                        lineari sullo spazio vettoriale reale n-dimensionale  V(R)  esiste almeno un 
                        sottospazio invariante di   V(R)  di dimensione  1  o  2   rispetto alla 
                        trasformazione ortogonale  T . Sia   V’(R)  questo sottospazio. Esso può 
                        essere di dimensione  1   o  2 . Nel caso che   V’(R)  sia di dimensione   
                        1   la trasformazione in questo sottospazio, come già visto, è  I  oppure   -I . 
                        Nel caso che  V’(R)   sia di dimensione   2  la trasformazione in questo 
                        sottospazio, come già visto, è   rispetto ad una base 
                        ortonormale su V’(R)   (escludiamo il caso della trasformazione impropria 
                        perché permetterebbe l’esistenza di un sottospazio 1-dimensionale di  
                        V’(R) ). Consideriamo il sottospazio   V’’(R)  dei vettori ortogonali a   V’(R) . 
                        Nel caso che   V’(R)  abbia dimensione  1   V’’(R)  avrà dimensione  2  
                        e viceversa. In entrambi i casi  V’’(R)  è anch’esso un sottospazio 
                        invariante rispetto a   T .

                        In conclusione, una trasformazione ortogonale in uno spazio euclideo 
                        reale 3-dimensionale può essere una rotazione attorno ad una retta 
                        passante per l’origine o una proiezione speculare rispetto ad un piano 
                        passante per l’origine o una combinazione delle due.

                        Esempi :

                                  ed  

                       

                        

        - 4 -         V(R)   spazio euclideo reale n-dimensionale :

                         il processo mostrato nel caso 3-dimensionale può essere esteso al 
                        caso n-dimensionale.

09 – Complemento ortogonale.

Come mostrato nel precedente caso 3-dimensionale si può giungere alla seguente 
generalizzazione.

Sia   V(R)  uno spazio euclideo reale n-dimensionale e  V’(R)  un suo sottospazio. 
Detto   V’’  l’insieme dei vettori ortogonali a  V’(R)  (è sufficiente che siano ortogonali 
a tutti i vettori di una base di   V’(R) ) risulta che  V’’(R)  è anch’esso un sottospazio 
di  V(R) . Esso si chiama complemento ortogonale di V’(R)  e si ha :

        dim V’(R)  + dim V’’(R)  = n

Continua …

Pagina precedente