Il Filo di Arianna di Diego Vasdeki

GEOMETRIA     MATEMATICA     FISICA                         Home (Progetto Arianna)

                             PREV        NEXT                               Forum      e-school di Arrigo Amadori

 

  (Versione 1.0  del  09-10-2005)

 

M-II  STRUTTURE ALGEBRICHE

1       Strutture Fondamentali

1.1     Strutture Base

1.2     Gruppi

1.3     Anelli e Campi

1.4     Altre Strutture

2       Spazi Vettoriali

2.1     Definizioni Base

2.2     Esempi di Spazi Vettoriali

2.3     Ulteriori Definizioni

2.4     Cambiamenti di Base

2.5     Isomorfismo tra Spazi Vettoriali

3       Applicazioni fra Spazi Vettoriali

3.1     Operatori, Trasformazioni e Forme Lineari

3.2     Operatori Lineari e Matrici

3.3     Operatori e Forme Bilineari

4       Strutture Metriche

4.1     Spazi Metrici

4.2     Spazi Vettoriali Normati

4.3     Spazi Vettoriali con Prodotto Interno

4.4     Spazio Euclideo

5       Spazio Duale

5.1     Spazio Duale e Base Duale

5.2     Trasformazioni nello Spazio Duale

6       Sistemi Lineari di equazioni

6.1     Sistemi Lineari di Equazioni Algebriche

6.2     Sistemi Lineari di Equazioni Differenziali

7       Algebre

7.1     Definizioni

7.2     Algebre di Lie

8       Alcuni Tipi di Spazi

9       Matrici e Determinanti

9.1     Matrici

9.2     Determinanti

9.3     Significato Geometrico del Determinante

9.4     Matrice e Determinante Jacobiani

Bibliografia

Indice Analitico

 

Dall’Aritmetica (studio dei numeri e delle operazioni fra di essi, quindi essenzialmente strumento di calcolo) si svilupparono l’Algebra Elementare (dove i numeri vengono sostituiti con le lettere e si studiano le proprietà delle espressioni e delle equazioni) e successivamente l’Algebra in senso lato, la quale studia insiemi di natura qualsiasi (quindi non solo numerici), dal punto di vista delle operazioni e delle relazioni d’ordine che sono definiti su di essi.

Le particolari operazioni e/o relazioni d’ordine di cui un insieme può venire dotato gli conferiscono una particolare struttura e le proprietà generali che ne derivano sono oggetto di studio dell’Algebra.

La nozione di linearità cattura la proprietà fondamentale delle linee rette e la generalizza nell’ambito degli Spazi Vettoriali e dei sistemi rappresentabili con essi (ad esempio i sistemi di equazioni – algebriche o differenziali – lineari).

L’Algebra Lineare è quella branca della Matematica dedicata alla teoria delle strutture lineari. Il trattamento assiomatico di queste strutture è basato sulle nozioni di Spazio Lineare (più comunemente detto Spazio Vettoriale) e di Applicazione Lineare. Parlando in senso lato, ci sono due questioni fondamentali considerate dall’Algebra Lineare: la soluzione dei sistemi di equazioni lineari e la diagonalizzazione delle matrici (problemi agli autovalori).

Le nozioni dell’Algebra Lineare trovano immediata corrispondenza nella Geometria Affine (e quindi anche in quella Euclidea), tanto che il confine tra le due discipline non è nettamente definito. Dal punto di vista geometrico, “lineare” è sinonimo di “diritto”, e di conseguenza l’Algebra Lineare può essere considerata come quella branca della Matematica che tratta linee e piani, come pure le trasformazioni dello spazio che preservano questa caratteristica (straightness): le rotazioni, le riflessioni e le proiezioni. Le due questioni fondamentali, in termini geometrici, riguardano l’intersezione degli iperpiani e gli assi principali di un ellissoide.

La Geometria Euclidea è collegata ad una branca specializzata dell’Algebra Lineare che tratta della misura lineare. In questo caso le nozioni rilevanti sono quelle di lunghezza e di angolo. Una tipica questione è la determinazione delle linee perpendicolari ad un dato piano. Una branca un po’ meno specializzata tratta le strutture affini, dove la nozione fondamentale è quella di area e di volume. Qui i determinanti giocano un ruolo essenziale.

La linearità è una nozione fondamentale, anche perché – al primo ordine di approssimazione – qualsiasi funzione differenziabile è lineare. L’Algebra Lineare ha applicazioni in numerose aree della Matematica, della Scienza e dell’Ingegneria: discipline differenti, come ad esempio le equazioni differenziali, la geometria differenziale, la teoria della relatività, la meccanica quantistica, i circuiti elettrici, la grafica computerizzata e la teoria dell’informazione, beneficiano delle nozioni e delle tecniche dell’Algebra Lineare.

                                                                    1    Strutture Fondamentali

Una Struttura Algebrica è un insieme totalmente ordinato, i cui elementi sono insiemi, operazioni e relazioni (in particolare applicazioni) fra di essi. Normalmente si richiede che le operazioni soddisfino determinati assiomi.

In generale la natura degli insiemi è irrilevante; a seconda degli specifici assiomi che vengono posti si hanno differenti tipi di strutture algebriche, come pure dotando uno stesso insieme di operazioni differenti si hanno strutture differenti.

[e-school: Algebra I – Insiemi 09 – Sistemi Algebrici].

Figura 11 - Strutture Fondamentali

1.1Strutture Base

[e-school:   Algebra I –  Strutture Algebriche]

Magma o Gruppoide (M,+) : è una struttura costituita da un insieme M dotato di una singola operazione binaria + : MxM →  M

Il Magma è la più semplice struttura algebrica. Un’operazione binaria è per definizione chiusa, ma non sono imposti altri vincoli sull’operazione.

·        Se all’interno di un Magma esiste un elemento 0 t.c.: a M risula: a+0 = 0+a = a, esso è detto Elemento Neutro  (dell’operazione +). Si dimostra facilmente che l’elemento neutro, se esiste, è unico[1].

·        Se all’interno di un Magma dotato di elemento neutro esiste un elemento -a t.c.: a+(-a) = 0, oppure -a+a = 0, allora esso è detto Elemento Inverso (rispettivamente destro e sinistro) di a.

Quasigruppo: è un Magma nel quale l’operazione inversa è sempre possibile:

 [ a,b M ]    [ x,y M ]  t.c.:  x+a = b   e   a+y = b .

Loop: è un Quasigruppo dotato di elemento neutro.

In un Loop ogni elemento ha sia un unico inverso destro che un unico inverso sinistro.

Semigruppo: è un Magma nel quale l’operazione è associativa.

L’insieme dei Numeri Naturali è un Semigruppo sia rispetto all’addizione che alla moltiplicazione.

Monoide: è un Semigruppo dotato di elemento neutro.

L’insieme dei Numeri Naturali è un Monoide rispetto alla moltiplicazione.

L’insieme dei Numeri Interi non negativi è un Monoide rispetto all’addizione.

1.2Gruppi

Definizioni

Un Gruppo (G, ) è un Monoide nel quale ogni elemento ha un unico inverso.

Gli assiomi di Gruppo sono quindi i seguenti:

·         a,b,c G :                          a (bc) = (ab) c                      (associatività)

·         0G  t.c. aG :             a 0 = 0 a = a                             (esistenza dell’elemento neutro)

·         aG a-1G  t.c.:           a a-1 = a-1 a = 0                        (esistenza dell’inverso)

In virtù delle proprietà delle operazioni binarie, i Gruppi sono chiusi rispetto alla loro operazione.

Un Gruppo è quindi un insieme dotato di un’operazione binaria associativa, e di un elemento neutro, nel quale ogni elemento ha il suo inverso.

Un Gruppo può essere definito alternativamente come un Loop associativo.

Se l’operazione è commutativa, allora il Gruppo è detto Abeliano:

·         a,b G :                             a b = b a                                    (commutatività)

L’insieme dei Numeri Interi è un Gruppo Abeliano rispetto all’addizione.

L’insieme – {0} dei Numeri Interi diversi da 0 è un Gruppo Abeliano rispetto alla moltiplicazione.

Un sottoinsieme non vuoto FG di un Gruppo è detto essere un suo Sottogruppo se ha anch’esso struttura di Gruppo.

Ciò avviene se e solo se F è chiuso rispetto all’operazione di gruppo (ossia se a,b F risulta che anche: ab F).

L’intersezione i Fi di più Sottogruppi è ancora un Sottogruppo.

Isomorfismo fra Gruppi

Per i Gruppi:

·        gli omomorfismi  sono costituiti dalle applicazioni che preservano l’operazione di gruppo.

Ovvero: detti (F, ) e (G, *) due Gruppi, un omomorfismo è un’applicazione A: F→G   t.c.:  [ f1, f2 F ]   A(f1f2) = A(f1)*A(f2).

·        gli isomorfismi sono costituiti dalle applicazioni biiettive che preservano l’operazione di gruppo.

Due Gruppi sono detti isomorfi se fra di loro esiste un isomorfismo, ovvero se i rispettivi elementi possono essere messi in corrispondenza biunivoca preservando l’operazione di Gruppo.

Gruppi di Trasformazioni

L’insieme delle Trasformazioni (ossia delle applicazioni biunivoche di un insieme X su se stesso), dotato dell’operazione di composizione funzionale ha struttura di Gruppo, e viene detto Gruppo delle Trasformazioni di X.

Infatti la composizione funzionale di due trasformazioni è associativa ed è ancora una trasformazione; l’applicazione identica, come pure quella inversa, essendo entrambe invertibili, sono anch’esse delle Trasformazioni.

In generale questo Gruppo non è abeliano.

Gruppi Lineari

·        L’insieme delle matrici quadrate non singolari di ordine N a elementi dal campo K, dotato dell’operazione di moltiplicazione righe per colonne ha struttura di gruppo, e viene detto Gruppo Lineare Generale di ordine N su K, e indicato con GLN(K) o con GLN.

Infatti il prodotto di due matrici quadrate è associativo ed ancora una matrice quadrata dello stesso ordine e la matrice identità I = δi,k, come pure quella inversa, essendo entrambe invertibili, appartengono all’insieme in questione.

Per N≥2 GLN non è abeliano.

I sottogruppi di GLN si chiamano Gruppi Lineari di ordine N.

·        Il sottogruppo di GLN(K) che consiste delle matrici con determinante = 1, è detto Gruppo Lineare Speciale, e viene indicato con SLN(K), o con SLN.

Infatti il determinante del prodotto di due matrici con determinante unitario è ancora 1, il determinante della matrice inversa di una matrice con determinante unitario, come puer il determinante della matrice identità sono anch’essi pari a 1.

SLN() può essere caratterizzato come il gruppo delle trasformazioni lineari di N che preservano l’orientamento delle basi ed il volume degli iperparallelepipedi.

·        Il sottogruppo di GLN() che consiste delle matrici ortogonali, è detto Gruppo Ortogonale di Ordine N, e viene indicato con ON.

Infatti il prodotto di due matrici ortogonali è ancora una matrice ortogonale ((AB)T = BTAT = B-1A-1 = (AB)-1), la matrice identità è chiaramente ortogonale, e anche la matrice inversa di una matrice ortogonale ((A-1)T = (AT)-1 = (A-1)-1 = A).

SLN() può essere caratterizzato come il gruppo delle Trasformazioni Lineari di N che preservano le distanze e gli angoli, ed ha particolare importanza nella Geometria Euclidea, oltre che nella Meccanica Classica.

·        Il sottogruppo di ON() che consiste delle matrici ortogonali con determinante = 1, è detto Gruppo Ortogonale Speciale di Ordine N, e viene indicato con SON.

É chiaro che SON = SLN ON .

·        Il sottogruppo di GLN() che consiste delle matrici unitarie, è detto Gruppo Unitario di Ordine N, e viene indicato con UN.

 

Poiché Det(AAH) = Det(A)Det(A*T) = Det(A)(Det(A))* = Det(I) = 1, risulta che |Det(A)| = 1

·        Il sottogruppo di UN() che consiste delle matrici uniterie con determinante = 1, è detto Gruppo Unitario Speciale di Ordine N, e viene indicato con SON.

É chiaro che SON = SLN ON .

·        Dato uno Spazio Vettoriale V sul campo K, l’insieme Aut(X) dei suoi automorfismi, ovvero l’insieme di tutte le trasformazioni lineari biiettive V→V, dotato dell’operazione di composizione funzionale, forma un gruppo, detto Gruppo Lineare Generale dello Spazio Vettoriale V, e viene indicato con GL(V).

Se lo spazio vettoriale ha dimensione finita N, allora GL(VN) e GLN(K) sono isomorfi.

1.3Anelli e Campi

Anelli

Un Anello (A,+,*) è una struttura costituita da un insieme A dotato di due operazioni binarie + (addizione) e * (moltiplicazione), t.c.:

·        la struttura (A,+) è un gruppo abeliano:

-  a, b, c :                                  (a+b) + c = a + (b+c)                 (associatività di + );

-  0, t.c. a:                            a + 0 = a                                     (esistenza dell’elemento neutro di + );

-  a -a  t.c.:                          a + (-a) = 0                                 (esistenza dell’inverso di + )

-  a, b                                       a + b = b + a                               (commutatività di + );

·        la struttura (A,*) è un monoide (l’operazione * è associativa ed esiste l’elemento di neutro):

-  a, b, c :                                  (a*b) * c = a * (b*c)                 (associatività di * );

-  1 t.c. a:                              a * 1 = a                                     (esistenza dell’elemento neutro di * );

·        l’operazione * è distributiva sull’operazione +.

-  a, b, c :                                  a * (b+c) = (a*b) + (a*c)          (distributività di * su + )

-  a, b, c :                                  (a+b) * c = (a*c) + (b*c)         

In virtù delle proprietà delle operazioni binarie, gli Anelli sono chiusi sia rispetto alla moltiplicazione che all’addizione.

Un Anello è quindi un Gruppo al quale è stata aggiunta una seconda operazione (moltiplicazione) associativa, dotata di elemento neutro e distributiva rispetto all’operazione di Gruppo, rispetto alla quale non è richiesta l’esistenza degli elementi inversi. Un Anello ha quindi una somma, una sottrazione e una moltiplicazione, ma non una divisione.

Se sommando ripetutamente l’elemento neutro della moltiplicazione è possibile ottenere l’elemento neutro della somma ( 1 + 1 + … + 1 = 0 ), il più piccolo numero di ripetizioni per cui ciò avviene è detto Caratteristica dell’Anello; altrimenti si dice che l’Anello ha Caratteristica 0.

La Caratteristica è un elemento importante, ad esempio, nell’aritmetica modulare: l’insieme degli interi modulo k ha caratteristica k.

Un Anello Commutativo è un Anello nel quale la moltiplicazione è commutativa:

-  a, b :                                      a * b = b * a                             

L’insieme dei Numeri Interi è un Anello Commutativo.

Un Anello Commutativo potrebbe anche essere definito come un Campo privato della divisione.

Un Anello con Divisione è un Anello nel quale gli elementi neutri delle due operazioni sono differenti (0≠1) e nel quale esiste l’elemento inverso rispetto alla moltiplicazione per tutti gli elementi ≠ 0.

-  a≠0 a-1 t.c.:                     a * (a-1) = (a-1)*a = 1

Negli Anelli con Divisione la struttura ( A – {0} , * ) è un Gruppo.

Talvolta gli Anelli con Divisione sono chiamati anche Corpi.

Il vincolo 0≠1 esclude che gli insiemi con un solo elemento possano essere degli anelli con divisione.

L’insieme dei Quaternioni è un Anello con Divisione.

Campi

Un Campo è un Anello Commutativo con Divisione.

I Campi sono delle strutture algebriche nelle quali è possibile effettuare le operazioni di addizione, sottrazione, moltiplicazione e divisione (eccetto la divisione per 0) e dove valgono le consuete regole dell’Aritmetica (proprietà associativa, commutativa e distributiva).

Un sottoinsieme di un campo K è detto essere un suo Sottocampo se, considerato come un insieme a se stante, ha anch’esso struttura di campo. Affinchè ciò avvenga è sufficiente[2] che esso risulti chiuso rispetto alle operazioni di K.

Gli insiemi , , , rispettivamente dei Numeri Razionali, Reali, Complessi e dei Quaternioni sono tutti Campi. In particolare è un sottocampo di ℍ, è un sottocampo di eè un sottocampo di .

1.4Altre Strutture

Torsore

In attesa di introdurre questo argomento negli Appunti:

·        per un’introduzione al concetto di Torsore cfr.: Baez, J. : Torsors made easy;

·        per una definizione più rigorosa è possibile consultare WikipediA: Principal Homogeneous Space, e poi navigare un po’.

                                                                                      2    Spazi Vettoriali

2.1Definizioni Base

e-school:   Algebra  Spazi Vettoriali.

e-school:   Analisi II – Spazi Vettoriali normati. Spazi di Banach

e-school:   Analisi II – Spazi Vettoriali con Prodotto interno. Spazi di Hilbert (I)

e-school:   Analisi II – Spazi Vettoriali con Prodotto interno. Spazi di Hilbert (II)

e-school:   Analisi I – Spazi Metrici II –

 

·        Uno Spazio Vettoriale (o anche Spazio Lineare) su un campo (K,+,*) (detto anche K-Spazio Vettoriale) è una struttura algebrica ((V, ), K, ) dove (V, ) è un Gruppo Abeliano, (K,+,*) è un Campo e l’operazione : V x K → V (detta moltiplicazione per uno scalare) è distributiva sia rispetto all’operazione che all’operazione +.

Indicheremo con u, v, w gli elementi di V (detti vettori), con a, b, c gli elementi di K (detti scalari) e con 0 l’elemento neutro di V rispetto alla somma vettoriale (detto anche vettore nullo).

Gli assiomi degli Spazi Vettoriali sono quindi i seguenti:

·        La struttura algebrica (V, ) è un Gruppo Abeliano, e quindi:

-       u, v V :                   u v V                                 (chiusura di );

-       u, v, w V :                    u (v w) = (u v) w        (associatività di );

-       0V  t.c. uV :        u 0 = u                                 (esistenza dell’elemento neutro di );

-       uV    uV  t.c.:        u –u = 0                               (esistenza dell’inverso rispetto a );

-       u, v V :                         u v = v u                           (commutatività di ).

·        u, v V   e   a, b K :

-       1 u = u                                    (l’elemento neutro di coincide con l’elemento neutro di  * );

-       a (bu) = (a*b) u                 (“associatività” di );

-       a (uv) = (au) (av)          (distributività di rispetto a  );

-       (a+b) u = (au) (bu)          (“distributività” di rispetto a +);

Proprietà di calcolo della moltiplicazione per uno scalare (Omettiamo la dimostrazione):   uV e a,b K :

·         au = 0 a=0 oppure v=0                         (legge di annullamento);

·         au = bu    a=b ;                                     (proprietà di cancellazione);

·         a (–u) = (-a)u .                                          (proprietà di sostituzione dell’elemento inverso).

Le proprietà di chiusura di e di discendono direttamente dal fatto che si tratta di Operazioni Binarie.

Sottolineiamo come la definizione di Spazio Vettoriale non comporti nessuna nozione:

·         di “punto” (questa è infatti un’entità essenzialmente geometrica, che attiene principalmente agli Spazi Affini, e quindi anche a quelli Euclidei)

·          di “distanza” (o lunghezza) o di “angolo” (queste sono infatti entità che attengono agli Spazi Metrici).

Se K=ℝ (K=), V si dice Spazio Vettoriale Reale (Complesso).

·        Un Modulo su un Anello è una generalizzazione della nozione di Spazio Vettoriale dove la struttura degli scalari è un Anello invece di un Campo.

2.2Esempi di Spazi Vettoriali

KN: N-Spazio Numerico su K

È lo spazio delle N-ple ordinate di elementi di K.

Il caso particolare di K=  (K=) prende il nome di N-Spazio Reale (N-Spazio Complesso).

Dim(KN) = N.

: addizione degli elementi corrispondenti delle due N-ple.

: moltiplicazione di ogni elemento della N-pla per lo scalare.

L’elemento neutro è la N-pla (0, 0, … , 0).

L’elemento inverso di (x1, x2, … , xN) è la N-pla (-x1, -x2, … , -xN).

Per N=1 abbiamo che:

Ogni Campo, con le sue operazioni di somma e di prodotto,
è uno Spazio Vettoriale su se stesso.

In particolare: l’insieme dei Rumeri Reali (Complessi), dotato delle usuali operazioni di addizione e di moltiplicazione, è uno Spazio Vettoriale Reale (Complesso).

In KN l’insieme dei vettori: { e(1) = (1,0, … ,0) ; e(2) = (0,1, … ,0) ; … ; e(N) = (0,0, … ,1) } è detto Base Standard.

N è il prototipo degli Spazi Vettoriali Reali VN a N dimensioni; si dimostra infatti che:

Ogni Spazio Vettoriale Reale di dimensione N è isomorfo a N

tuttavia questo isomorfismo non è canonico, in quanto dipende dalla base.

Risulta evidente che definire i vettori come “le N-ple ordinate di numeri reali” è molto limitativo, in quanto si fa riferimento solo ad un particolare tipo di spazio vettoriale, e non si coglie quindi la piena generalità del concetto di vettore.

MR,S: Lo Spazio delle Matrici RxS

Dim(MR,S) = RS .

: addizione degli elementi corrispondenti delle due matrici.

: moltiplicazione di ogni elemento della matrice per lo scalare.

Una matrice RxS è ovviamente riconducibile ad una N-pla ordinata (con N = RxS).

Spazi Vettoriali Geometrici

Sono Spazi Vettoriali ottenuti, con vari procedimenti, a partire da uno Spazio Euclideo (o più in generale da uno Spazio Affine) sottostante: Segmenti Orientati, Spostamenti, Stack, Gradienti, ecc. L’argomento è trattato dettagliatamente in GEOMETRIA – Vettori Geometrici.

PN: Lo Spazio dei Polinomi di grado N

Dim(PN) = N+1.

: somma dei coefficienti corrispondenti;.

: moltiplicazione di ogni coefficiente per lo scalare.

Ogni polinomio di grado N è univocamente determinato dai suoi N+1 coefficienti, che ne costituiscono le componenti.

Il generico polinomio di grado N è del tipo aixi (i = 0, 1, … , N), dove l’indice in alto questa volta è un esponente, ed è quindi univocamente identificato dgli N+1 coefficienti ai, che sono le sue componenti secondo la base: {e(0) = 1,  e(1) = x, e(2) = x2, … , e(N) = xN}

Lo Spazio di tutti i Polinomi

La situazione è analoga al caso precedente, salvo il fatto che ora non esiste un limite al grado dei polinomi, e quindi questo Spazio Vettoriale non ha dimensione finita.

VxW: Il Prodotto Cartesiano di due K-Spazi Vettoriali

Dim(VxW) = Dim(V) + Dim(W).

Il generico elemento di VxW è la coppia ordinata (v, w) (con vV e wW)

(v1, w1) (v2, w2) := (v1+v2, w1+w2) ;

a(v, w) = (av, aw) .

Lo Spazio delle Successioni di elementi di un Campo

Questo Spazio può essere informalmente pensato come il limite, per N→ ∞, di KN.

Lo Spazio delle funzioni reali di variabile intera f: N →

Si verifica facilmente che la somma di funzioni (f + g)(i) := f(i) + g(i) ed il prodotto di una funzione per un numero reale (xf)(i) = x(f(i) soddisfano gli assiomi degli Spazi Vettoriali.

La generica funzione f: N → è univocamente determinata dai valori fi = f(i), e viene quindi ad essere un vettore f con un infinità numerabile di componenti.

 La dimensione di questo Spazio Vettoriale è uguale alla cardinalità di (ovvero 0)

Lo Spazio delle funzioni reali di variabile reale f:

La situazione è in qualche modo analoga a quella delle funzioni , salvo il fatto che, essendo passati dal discreto al continuo, il generico vettore f ha ora un’infinità non numerabile di componenti, e la dimensione di questo Spazio Vettoriale è ora la potenza del continuo.

Lo Spazio delle applicazioni f: X → VN

Questo spazio consiste nell’insieme di tutte le applicazioni f da un insieme arbitrario X ad uno Spazio Vettoriale (VN, , ) (o, più in particolare, su un campo K).

L’applicazione f(x) fa corrispondere ad ogni elemento di X un vettore di VN; idem per l’applicazione g(x). Facendo la somma vettoriale abbiamo quindi che la coppia di funzioni f(x), g(x) fa corrispondere ad ogni elemento di X un vettore di VN, ed è quindi un’applicazione X → VN, e – poichè (a) stiamo considerando l’insieme di tutte le applicazioni, appartiene quindi allo spazio in questione. Analogamente per quanto riguarda la moltiplicazione per uno scalare.

(fg)(x) := f(x) g(x).

(kf)(x) := k (f(x)).

L’elemento neutro è la funzione che associa, ad ogni x il vettore nullo di VN: 0(x) = 0.

L’elemento inverso di f(x) è la funzione (–f)(x) che associa ad ogni xX il valore: (-f)(x) = - (f(x))

In particolare:

·        se X = , un’applicazione f: N equivale ad una N-pla di funzioni reali di una variabile reale {f1(x). f2(x). … , fN(x)}

·        se inoltre l’applicazione f è continua e A è un intervallo chiuso I, anche tutte le fi(x) sono continue, e quindi è una curva.

·        L’insieme di tutte le funzioni è uno Spazio Vettoriale, e l’insieme di tutte le funzioni continue è un suo Sottospazio. Analogamente per le funzioni differenziabili.

·        se inoltre la curva è differenziabile, anche tutte le fi sono differenziabili, si possono quindi considerare le loro derivate prime: allora t(x) := { f(x) } è un campo vettoriale definito lungo la curva f, ed è costituito dai vettori tangenti alla curva lungo i suoi punti.

2.3Ulteriori Definizioni

·        Se un sottoinsieme non vuoto W di un K-Spazio Vettoriale V è anch’esso un K-Spazio Vettoriale, si dice che W è un Sottospazio Vettoriale di V.

Ciò avviene se e solo se W è linearmente chiuso rispetto alle operazioni di somma vettoriale e di moltiplicazione per uno scalare (ossia se [ u,vW  , aK] risulta che: u+v W  e au W).

L’intersezione iI Wi di una famiglia qualsiasi[3] di Sottospazi Vettoriali è ancora un Sottospazio Vettoriale, mentre l’unione di Sottospazi non è un Sottospazio.

Dati due Sottospazi Vettoriali V(1) e V(2) di  V , il sottoinsieme di V definito da U := {u = v1+v2 : v1 V(1) , v2V(2)} è detto Somma dei Sottospazi V1 e V2 ; esso è un Sottospazio Vettoriale di V e viene indicato con V(1) +V(2) .

Se V ha dimensionr finita, allora vale la Formula di Grassmann vettoriale:

( 2a)                       Dim(V(1) +V(2)) = Dim(V(1) ) + Dim(V(2)) – Dim(V(1)V(2)).

Nel caso particolare in cui V(1) e V(2) siano disgiunti, l’insieme U è detto Somma Diretta e viene indicato con V(1)V(2) , e la ( 2‑a) diventa:

( 2b)                 Dim(V(1) V(2)) = Dim(V(1) ) + Dim(V(2)) ;

V(1) e V(2)  sono detti Sottospazi Supplementari di V. Si dimostra che V(1)+V(2) è una Somma Diretta se e solo se ogni suo vettore si esprime in modo unico nella forma v1+v2.

Considerando ad esempio due piani non paralleli nello spazio ordinario, ciascuno di essi è un sottospazio di dimensione 2, e la loro intersezione (una retta) è un sottospazio di dimensione 1, resta pertanto verificata la formula, in quanto 3 = 2 + 2 -1.

·        Combinazione Lineare di N vettori vi V secondo N coefficienti scalari ai K è la somma vettoriale delle moltiplicazioni dei vettori per i corrispondenti scalari: a1v1 a2v2 aNvN .

L’insieme di tutte le combinazioni lineari di M vettori (indicato con <w1, w2, … , wM>) è un sottospazio di WV; si dice che i vettori wi generano W.

·        Dati N vettori, se nessuna loro combinazione lineare, eccetto quella a coefficienti tutti nulli, può fornire come risultato il vettore nullo, i vettori sono detti Linearmente Indipendenti. Altrimenti (se esiste cioè almeno una loro combinazione lineare, a coefficienti non tutti nulli, che fornisce come risultato il vettore nullo) essi sono detti Linearmente Dipendenti.

N vettori sono linearmente indipendenti se e solo se nessuno di essi può esprimersi come combinazione lineare degli altri N-1.

N vettori sono linearmente dipendenti se e solo se almeno uno di essi può esprimersi come combinazione lineare degli altri N-1.

·        Una Base di uno Spazio Vettoriale V è un suo sottoinsieme E che soddisfa una delle seguenti condizioni equivalenti:

-       E è un insieme minimale di generatori di V.

-       E è un insieme massimale di vettori linearmente indipendenti.

-       Ogni vettore di V può essere espresso in un unico modo come combinazione lineare dei vettori di E

In N si verifica facilmente che gli N vettori: e(1) = (1,0, … ,0), e(2) = (0,1, … , 0), e(N) = (0,0, … , N) sono linearmente indipendenti e pertanto costituiscono una base, detta Base Canonica.

·        Le Coordinate di un vettore v secondo una base E = {e(i)} sono i coefficienti vi della combinazione lineare dei vettori di base che dà come risultato il vettore v = vie(i).

In N le coordinate (v1,v2, … ,vN) di un vettore v secondo la base canonica sono dette Componenti del vettore, e coincidono ovviamente con gli elementi della N-pla ordinata che lo rappresenta.

·        La Dimensione di uno Spazio Vettoriale : è la cardinalità di una sua base.

Si può dimostrare quanto segue:

-       Tutte le basi hanno la stessa cardinalità, quindi la dimensione è una proprietà dello Spazio Vettoriale.

-       Detto W un Sottospazio Vettoriale di V, allora Dim(W) ≤ Dim(V).

Uno Spazio Vettoriale di dimensione N verrà indicato con VN.

·        Dati M≤N vettori linearmente indipendenti di VN (w1,w2, … , wM)  l’insieme delle loro combinazioni lineari {aiwi} costituisce un Sottospazio Vettoriale WM VN di dimensione M. (si dice che WM è generato dai wi).

·        Il Rango di un sottoinsieme finito di vettori di V è il massimo numero di vettori linearmente indipendenti appartenenti a questo sottoinsieme.

2.4Cambiamenti di Base

Siano {e(i)} ed  {e’(k)} due differenti basi di uno spazio vettoriale VN ; esprimendo le {e’(k)} in termini delle {e(i)} abbiamo[4]:

( 2c)                           e’(k) = Akme(m) ,

(dove Akm è detta Matrice di Trasformazione dei vettori di base).

Si dimostra immediatamente che una N-pla di vettori ( 2c) costituisce una base di VN se e solo se la matrice Akm è non singolare. Ne deriva che le matrici di trasformazione sono invertibili.

Poiché il generico vettore vVN può essere espresso indifferentemente in entrambe le basi, abbiamo che: v = vie(i) = v’ke’(k) = v’kAkm e(m), e quindi[5]: vi = v’k Aki, da cui - moltiplicando ambo i membri per [A-1] ip, e tenuto conto che Aki [A-1] ip = δkp, si ottiene infine:

( 2d)                           v’p = vi [A-1] ip

La ( 2d) può essere espressa in forma matriciale come: V’ = VA-1 (dove V e V’ sono due vettori riga), oppure come: V’T = A-TVT (dove VT e V’T sono due vettori colonna e A-T = [A-1]T è la matrice contragrediente di A)

Confrontando la ( 2c) con la ( 2d), si può affermare che:

Le Componenti dei Vettori

si trasformano con la Matrice Contragrediente
della Matrice di Trasformazione dei Vettori di Base;

sono cioè CONTROVARIANTI

(dove per controvarianti si intende il fatto che si trasformano con la matrice A-T)

Poichè (A-T)-T = A (ovvero la matrice contragrediente della matrice contragrediente di una qualsiasi matrice coincide con la matrice di partenza), e ciò consente di rovesciare tutto il procedimento, partendo dalla Matrice di Trasformazione delle componenti, e dimostrando che i vettori di base si trasformano con la sua matrice contragrediente.

La differenza di comportamento – per quanto riguarda le trasformazioni – fra le basi e le componenti non si presenta nel caso delle Trasformazioni Ortogonali (dove AT = A-1), in quanto in questo caso si ha che: A-T = ATT = A.

Parlando un po’ liberamente, si può dire che l’utilizzo della matrice inversa A-1 serve per “annullare” le variazioni introdotte dalla matrice A, mentre la trasposizione si rende necessaria per tener conto della differente natura fra basi e componenti, in particolare del fatto che se alle componenti si associa un vettore colonna, alle basi bisogna associare un vettore riga (e viceversa).

2.5Isomorfismo tra Spazi Vettoriali

Per gli Spazi Vettoriali:

·        Gli omomorfismi  sono costituiti dalle applicazioni che preservano le combinazioni lineari. Tali applicazioni sono dette Applicazioni Lineari o anche Operatori Lineari

Ovvero: detti (V, ⊕,⊗) e (W, ⊞,⊠) due K-Spazi Vettoriali[6], un omomorfismo è un’applicazione f: V → W    t.c.  [ u,u1,u2 V    e   kK ] :

-       f(u1u2) = f(u1) f(u2) ;

-       f(ku) = kf(u).

·        Gli isomorfismi sono costituiti dalle applicazioni  biiettive che preservano le combinazioni lineari. Tali applicazioni sono dette anche Trasformazioni Lineari (Invertibili).

Due Spazi Vettoriali sono detti isomorfi se fra di loro esiste un isomorfismo, ovvero se i rispettivi vettori possono essere messi in corrispondenza biunivoca preservando le combinazioni lineari.

I seguenti risultati sono della massima importanza:

Ogni K-Spazio Vettoriale di dimensione N
è isomorfo a KN.

Infatti, fissata una base {e(i)} l’applicazione Fe: VN → KN definita da Fe(v) = (v1, v2, … , vN)  (dove v = vie(i) ) è chiaramente lineare e, per le proprietà delle coordinate dei vettori rispetto ad una base, è anche biiettiva, quindi è un isomorfismo.

Sottolineiamo che questo isomorfismo dipende dalla scelta della base.

Essendo poi l’isomorfismo una relazione di equivalenza, per la proprietà transitiva, abbiamo che:

Tutti gli Spazi Vettoriali sullo stesso Campo
aventi la stessa Dimensione finita
sono isomorfi fra loro.

Ovviamente la condizione, oltre ad essere sufficiente, è anche necessaria, per cui:

Due K-Spazi Vettoriali di dimensione finita
sono Isomorfi
se e solo se hanno la stessa dimensione.

Dati due K-Spazi Vettoriali V e W con uguale dimensione finita ed un Operatore Lineare T: V→W, si dimostra che le seguenti condizioni sono equivalenti:

·         Ker(T) = {0}                  (T(v) = 0  se e solo se v = 0) ;

·         Im(T) = V                       (T è suriettivo)

·         T è un isomorfismo

Poiché gli isomorfismi preservano la condizione di indipendenza lineare, ne consegue che: l’isomorfismo di una base è ancora una base.

                                                   3    Applicazioni fra Spazi Vettoriali

La nozione di Linearità è di fondamentale importanza ed ha un campo di applicazione molto esteso. Essa viene definita nell’ambito degli Spazi Vettoriali, richiedendo particolari condizioni alle applicazioni fra tali spazi.

3.1Operatori, Trasformazioni e Forme Lineari

Operatori Lineari

·        Un Operatore Lineare[7] (o Applicazione Lineare) è un’applicazione A: VW tra due Spazi Vettoriali (V, K, , ) e (W, K, , ) sullo stesso campo, tale che  [ vV, kK] risulta:

·        A (uv) = A(u) A (v)            

·        A (ku) = k A(u)      

In altre parole, un Lineare è un’applicazione tra K-Spazi Vettoriali che preserva le combinazioni lineari.

Alcuni esempi di Operatori Lineari:

·         L’Integrale Definito è un Operatore Lineare dallo spazio di tutte le funzioni reali di variabile reale integrabili su qualche intervallo ad .

·         La Derivazione è un Operatore Lineare dallo spazio di tutte le funzioni differenziabili allo spazio di tutte le funzioni.

·         Una Matrice MxN a elementi in è un Operatore Lineare  NM, che manda i vettori colonna di N nei vettori colonna di M.

·        L’Immagine di un Operatore Lineare A: V→W è il sottoinsieme dei vettori di W che provengono, tramite A, da qualche vettore di V: Im(A) := {w=A(v) : vV}, ed è un sottospazio vettoriale di W.

La dimensione dell’Immagine di un Operatore Lineare è detta Rango dell’Operatore Lineare: Rango(A) := Dim(Im(A)).

·        Il Kernel di un Operatore Lineare A (detto anche Null Space) è il sottoinsieme dei vettori di V che vengono mandati, da A, nel vettore nullo di W:  Ker(A) := {vV t.c.: A(v) = 0W} ed è un sottospazio vettoriale di V.

Il Kernel di un Operatore Lineare può essere utilizzato per trovare tutte le soluzioni di un sistema di equazioni lineari non omogeneo (Ax = b) a partire da una sua soluzione particolare x(1).  Infatti, detto x(0) un qualsiasi vettore del Kernel, si ha che:  A(x(0)+x(1)) = A(x(0)+x(1)) = 0 + b = b; pertanto la soluzione generale del sistema non omogeneo è data dalla somma di una qualsiasi soluzione particolare con una qualsiasi combinazione lineare di vettori del Kernel. La soluzione particolare dipende da b, mentre il Kernel dipende solo da  A.

Il vettore nullo appartiene necessariamente al Kernel di un Operatore Lineare: A(0V) = 0W. Se il Kernel consiste del solo vettore nullo, allora l’Operatore è detto non singolare.

La dimensione del Kernel di un Operatore Lineare A è detta Nullità dell’Operatore e viene indicata con Null(A) := Dim(Ker(A)).

Nel caso di spazi a dimensione finita, essa è legata alle dimensioni del dominio e dell’immagine dell’operatore dal cosiddetto Teorema Rango-più-Nullità:

( 3a)                           Dim(V) = Rango(A) + Null(A)

Consideriamo ad esempio l’operatore lineare associato alla matrice diagonale {1, 1, 0}. Tutti i vettori paralleli all’asse z vengono mappati nel vettore nullo, quindi il kernel di questo operatore è l’asse z ed ha dimensione 1. Lo spazio di partenza (di dimensione 3) viene appiattito in un piano (immagine dell’operatore) di dimensione 2.

Geometricamente possiamo dire che, se un operatore ha nullità > 0, allora il mapping che esso rappresenta comporta una qualche forma di appiattimento, e la Nullità è il numero delle dimensioni che vengono perse.

. di un Operatore lineare Se Rango(A) = Dim(V), allora A è detto; altrimenti (Rango(A) < Dim(V)) l’operatore è detto singolare.

·        Particolari tipi di Operatori Lineari sono:

·        gli Operatori Lineari biiettivi su uno Spazio Vettoriale V (detti Trasformazioni Lineari su V);

·        gli Operatori Lineari da uno Spazio Vettoriale V a un campo K (detti Forme Lineari).

Proprietà degli Operatori Lineari

·        La composizione funzionale di due Operatori Lineari A1:U→V e A2:V→W è ancora un Operatore Lineare A2A1: U→W.

·        In virtù degli assiomi posti, un Operatore Lineare è un omomorfismo fra Spazi Vettoriali. L’insieme di tutti gli Operatori Lineari da V a W viene indicato con Hom(V, W) e, dotato delle opportune operazioni di somma di operatori e di prodotto di un operatore per uno scalare, ha struttura di Spazio Vettoriale. In particolare, se un Operatore  Lineare A è biiettivo, allora esso è un isomorfismo fra i due Spazi Vettoriali. In tal caso anche A-1 è un Operatore Lineare.

·        Gli Operatori Lineari conservano le condizioni di indipendenza lineare (le immagini di vettori linearmente indipendenti sono linearmente indipendenti). In particolare, se V e W hanno la stessa dimensione, l’immagine di una base di V è una base di W.

·         

Si dimostra che, se V e W hanno la stessa dimensione, allora un Operatore Lineare iniettivo, è anche suriettivo e quindi (per definizione) biiettivo:, in tal caso esso è un isomorfismo.

NB: Dal secondo assioma, ponendo k=0 risulta: A(0) = 0.

Se entrambi gli spazi hanno dimensione finita, fissata una base in ciascuno di essi, un qualsiasi Operatore Lineare può essere espresso da una matrice, i cui elementi dipendono dalla scelta delle due basi.

Infatti, dette {e(i)} ed {ε(k)} le basi rispettivamente di VN e di WM, e detto v = A(w), abbiamo che: vie(i) = A (wkε(k)) = wkA (ε(k)). Detto ηk = e(m)Amk = A (ε(k)), abbiamo che: vie(i) = e(m)Amkwk, e quindi, in virtù dell’indipendenza degli e(i), risulta: vj = Ajkwk (c.v.d.).

In generale Ajk è una matrice rettangolare NxM. Ovviamente se N=M la matrice diventa quadrata. In questo caso, se l’operatore A è suriettivo, esso risulterà invertibile se e solo se la matrice Ajk è invertibile, ovvero se è non singolare.

Nel caso in cui i due spazi vettoriali V e W abbiano la stessa dimensione (finita ???), si dimostra che il Kernel di un Operatore Lineare è vuoto se e solo se l’operatore è invertibile.

 [e-school: Analisi II – Funzioni Rr → Rm Differenziabili  01 – Matrice di un Operatore Lineare].

Trasformazioni Lineari

Un Operatore Lineare T: V→V da uno spazio Vettoriale V su se stesso è detto Trasformazione[8] Lineare[9] su V.

Una Trasformazione Lineare su V è un endomorfismo su V.

La composizione funzionale di due Trasformazioni Lineari è ancora una Trasformazione Lineare.

L’insieme di tutte le Trasformazioni Lineari su V viene indicato con End(V).

Nel caso in cui l’applicazione lineare T: V→V sia biiettiva, essa viene detta Trasformazione Lineare Invertibile, ed è un automorfismo su V.

L’insieme di tutte le Trasformazioni Lineari Invertibili su V (Aut(V)), dotato dell’operazione di composizione funzionale, ha la struttura di un Gruppo non commutativo, e viene detto Gruppo Lineare Generale di V (GL(V)).

Sia y = T(x) (con x, y V) una trasformazione lineare di V in sé. Dopo aver scelto una base in V la trasformazione può essere espressa in forma matriciale come: Y = TX, dove X e Y sono le matrici colonna delle componenti di x e di y secondo la base scelta. Sia A la matrice di una trasformazione delle componenti dei vettori, detto: Y’ = T’X’, abbiamo: AY = ATX = ATA-1AX, da cui: T’ = ATA-1 (detta Trasformazione di Similitudine) che rappresenta la formula di trasformazione della matrice associata all’operatore T.

Una Trasformazione Lineare su uno spazio vettoriale VN con dimensione finita del tipo: T(v) = S(v) + u, (dove S è una generica Trasformazione Lineare Invertibile ??? e uV) è detta Affinità o Trasformazione Affine.

Nel caso particolare in cui S(v) sia la trasformazione identità, allora si ha: T(v) = v + u, e la trasformazione è detta Traslazione.

02 – Isometria.

 [e-school:       Algebra I –  Spazi Vettoriali].

Forme Lineari e Antilineari

Se il codominio W di un Operatore Lineare coincide con il campo K del suo dominio V, allora l’Operatore viene detto Funzionale Lineare o Forma Lineare.

Un Funzionale Lineare su uno spazio vettoriale V è quindi un’applicazione lineare φ: V→K tra uno spazio vettoriale ed il suo campo di scalari. t.c.  u e v V   e   k K :

·        φ(uv) = φ(u)+φ(v)         (additività) ;

·        φ(ku) = k*φ(u)               (omogeneità) .

Un Funzionale Lineare è un omomorfismo fra uno spazio vettoriale ed il suo campo di scalari: infatti alla struttura indotta nello spazio vettoriale V dalle operazioni di somma vettoriale e prodotto per uno scalare viene a corrispondere la struttura indotta nel suo campo K dalle operazioni di somma e prodotto di scalari, e le condizioni di linearità fanno sì che fra le due strutture vengano preservate le operazioni corrispondenti.

Un tipico esempio di funzionale lineare è l’integrazione definita (dove V è lo spazio delle funzioni integrabili).

I funzionali lineari sono particolarmente importanti in Meccanica Quantistica, dove un sistema meccanico viene rappresentato da uno Spazio di Hilbert isomorfo al suo duale, e dove lo stato del sistema può essere identificato con un funzionale lineare.

Nel caso di uno spazio vettoriale complesso, è utile introdurre il concetto di Antilinearità ( o Linearità Coniugata), definendo una Forma Antilineare (detta anche Forma o Funzionale Lineare Coniugato) su uno spazio vettoriale complesso V come una applicazione φ: V → t.c.: u, v V e  k :

·        φ(uv) = φ(u)+φ(v)        

·        )           

(dove  è il complesso coniugato di k).

3.2Operatori Lineari e Matrici

Rappresentazione Matriciale degli Operatori Lineari

Siano UN e VM due K spazi vettoriali di dimensione finita (rispettivamente N ed M), e A: UN → VM un operatore lineare. Scelte una base {e(i)} di UN ed una base {f(k)} di VM, l’operatore A può essere rappresentato da una matrice MxN Aki (a elementi in K), detta Matrice Associata all’Operatore Lineare A secondo le basi {e(i)} e {f(k)}.

La Matrice Associata ad un Operatore Lineare U→V è costituita dalle immagini di una base di U espresse secondo una base di V. Più precisamente, la ima  colonna (i = 1, 2, … , N) della matrice Aki è costituita dalle M coordinate, secondo la base {f(k)}, del vettore A (e(i)) = f(k) Aki.

Si ha pertanto che, uUN , detto v = A (u), risulta: vkf(k) = A (uie(i)) = ui A (e(i)) = f(k)Akiui , e quindi, in virtù dell’indipendenza degli  {f(k)}: vk = Akiui, ovvero, in forma matriciale: V = AU.

Il procedimento per costruire ed utilizzare la matrice associata è dunque il seguente:

1)       in UN si forma la matrice 1xN:  (e(1), e(2), … , e(N));

2)       si manda la matrice in VM tramite l’operatore A: (A (e(1)), A (e(2)), … , A (e(N)));

3)       ogni colonna della matrice è ora un vettore di VM; lo si esprime secondo la base {f(k)} e si dispongono le sue M componenti nelle righe della relativa colonna, ottenendo così la matrice MxN Aki.

4)       dato un generico vettore uUN di cui siano note le coordinate ui secondo la base {e(i)}, per trovare le componenti della sua immagine A(u) secondo la base {f(i)} di VM basta fare il prodotto righe per colonne della matrice associata per la matrice colonna costruita con le componenti di u.

In pratica un operatore lineare risulta univocamente determinato quando si conoscono le componenti (secondo una qualsiasi base di VM) delle immagini di una qualsiasi base di UN.

Il rango della Matrice Associata ad un Operatore Lineare coincide con il rango dell’operatore stesso. É quindi evidente che, poiché il rango dell’operatore è dato, per definizione, dal massimo numero di vettori linearmente indipendenti che esso può produrre, il rango della Matrice Associata (o più in generale, di una qualsiasi matrice) è pari al massimo numero di colonne linearmente indipendenti che possono essere estratte dalla matrice (infatti le colonne della matrice sono vettori del codominio dell’operatore).

Il procedimento che ha portato ad individuare la Matrice Associata a partire da un Operatore Lineare può anche essere rovesciato: data cioè una matrice MxN è possibile trovare l’operatore lineare ad esso associato secondo una specifica base di UN ed una specifica base di VM.

In particolare, se UN = KN e VM = KM, e se  {e(i)} e  {f(k)} sono le rispettive basi canoniche, allora l’operatore A associato alla matrice Aki  è tale che: A(u) = Akiui.

L’insieme Hom(UN, VM) degli operatori lineari UNVM , dotato delle ovvie operazioni, è uno spazio vettoriale di dimensione MN.

Inoltre poiché sia la Matrice Associata ad un Operatore Lineare è univocamente individuata da questo, che viceversa, è chiaro che è possibile stabilire una corrispondenza biunivoca tra Hom(UN, VM) e MMN (lo spazio vettoriale delle matrici MxN). La natura lineare sia degli operatori che delle matrici fa sì che questa corrispondenza preservi le combinazioni lineari di vettori, e quindi:

Lo spazio degli Operatori Lineari UN→VM
è isomorfo allo spazio delle matrici MxN.

Alla composizione funzionale degli operatori lineari corrisponde il prodotto righe per colonne delle relative matrici associate.

Rappresentazione Matriciale delle Trasformazioni Lineari

Nel caso di una trasformazione lineare T: UN→UN, la matrice associata alla trasformazione è quadrata di ordine N. Inoltre T è invertibile (e quindi appartiene GL(U), Gruppo Lineare Generale di U) se e solo se la sua matrice associata è non singolare (ovvero appartiene al Gruppo Lineare Generale di Ordine N). In tal caso all’operatore inverso T-1 è associata la matrice inversa [Tik]-1, e all’operatore identità 1U è associata la matrice identità δik.

Un caso particolarmente importante si ha prendendo l’operatore identità 1U  e considerando la sua matrice associata secondo due basi {e(i)} ed {e’(k)} diverse di UN. Tale matrice infatti consente di effettuare una trasformazione delle componenti del generico vettore u dalla base {e(i)} alla base {e’(i)}.

Infatti, per definizione, l’ima colonna della matrice Tki è costituita dalle coordinate, secondo la base {e’(k)} di 1U(e(i) ) = e(i), cioè e(i) = Akie’(k), e pertanto, uU: u = uie(i) = u’ke’(k) = Aki ui e’(k), da cui: u’k = Aki ui.

3.3Operatori e Forme Bilineari

Operatori Bilineari

Dati tre spazi vettoriali X, Y e Z sullo stesso campo K, un Operatore Bilineare è un’applicazione B: V xWX che risulta lineare in entrambi gli argomenti, ovvero v V e w W :

·        v* V   : l’operatore B(v*,w): W→X  è lineare;

·        w* W : l’operatore B(v,w*): V→X   è lineare;

(in altre parole, tenendo fermo un argomento e lasciando variare l’altro, il risultato è un operatore lineare).

Esempi di Operatori Bilineari:

·         la moltiplicazione righe per colonne di due matrici è un operatore bilineare Mm,n x Mn,p → Mm,p;

·         il prodotto scalare definito su uno spazio vettoriale reale è un operatore bilineare VxV → ;

·         il prodotto vettoriale in 3 è un operatore bilineare VxV→V

Se V = W e se [ v,w V ] risulta: B(v,w) = B(w,v), l’operatore è detto simmetrico.

Forme Bilineari

Se il codominio X di un Operatore Bilineare coincide con il campo K dei suoi argomenti V e W, allora l’Operatore viene detto Forma Bilineare.

Le Forme Bilineari sono particolarmente utili per il prodotto scalare, il prodotto interno e le forme quadratiche.

Una Forma Bilineare su un K-Spazio Vettoriale V è pertanto un’applicazione B: VxV → K t.c. [ u, u1, u2, v, v1, v2 V e k K ] :

·        B(u1u2, v) = B(u1, v) + B(u2, v)

·        B(ku, v) = k*B(u, v)

·        B(u, v1v2) = B(u, v1) + B(u, v2)

·        B(u, kv) = k*B(u, v)

Forme Sesquilineari

Se nella definizione di Forma Bilineare sostituiamo per uno dei due argomenti (ad esempio il primo) le condizioni di linearità con quelle di linearità coniugata, otteniamo una Forma Sesquilineare[10].

Una Forma Sesquilineare su uno Spazio Vettoriale Complesso V è pertanto una applicazione B: VxV  t.c. [ u, u1, u2, v, v1, v2 V e k K ] :

·        B(u1u2, v) = B(u1, v) + B(u2, v)

·       

·        B(u, v1v2) = B(u, v1) + B(u, v2)

·        B(u, kv) = k B(u, v)

 

                                                                              4    Strutture Metriche

Per poter rispondere a domande tipo: “dati due punti, quale di essi è più vicino a (o più lontano da) un terzo punto?” oppure “qual è il luogo dei punti equidistamti da un punto dato?”, è necessario poter quantificare esattamente la distanza fra due punti qualsiasi dello spazio con un numero reale non negativo.

4.1Spazi Metrici

e-school:   Analisi I – Spazi Metrici 1 – Introduzione Definizione

e-school:   Analisi I – Spazi Metrici II – Insieme limitato – Successione convergente – Successione di Cauchy – Spazio metrico completo – Sottospazio metrico – Sottospazio denso - Isometria – Completamento isometrico

e-school:   Analisi I – Spazi Metrici III – Intorno circolare o sfera aperta – Punto di accumulazione, non isolato, isolato. Derivato - Insieme chiuso, denso in sé, perfetto. Chiusura. Insieme denso in un altro - Punto interno e insieme aperto - Distanza fra sottoinsiemi, diametro di un insieme - Punto interno, esterno e di frontiera - Interno e frontiera di un insieme – Separabilità - Insieme totalmente limitato – Compattezza – Connessione e sconnessione – Poligonale - Componenti connesse, insieme totalmente sconnesso

e-school:   Analisi I – Spazi Metrici IV  Funzione limitata – Limite – Continuità – Oscillazione – Contrazione – Omeomorfismo – Continuità uniforme - Convergenza semplice e convergenza uniforme

e-school:   Analisi I – Spazi Tolologici – Sistema d’intorni. – Spazio topologico – Punto di accumulazione, non isolato, isolato. Derivato. – Insieme chiuso. Chiusura – Insieme aperto – Spazio topologico definito a partire dagli insiemi aperti – Punto interno, esterno, di frontiera – Interno e frontiera di un insieme – Insieme denso in un altro – Sottospazio topologico – Base di una topologia

Definizioni

·        Una Metrica è una funzione che assegna una distanza agli elementi di un insieme.

La nozione di metrica è estremamente generale ed è applicabile a spazi non geometrici, ossia ad insiemi di natura arbitraria.

Una Metrica su un insieme X è un’applicazione d: XxX → t.c.: [ x,y,z X ] :

·        d(x, y) ≥ 0                                            (non negativa) ;

·        d(x, y) = 0 x = y                              (identità degli inscindibili) ;

·        d(x, y) = d(y, x)                                    (simmetria) ;

·        d(x, z) ≤ d(x, y) + d(y, z)                      (disuguaglianza triangolare) .

·        Un insieme X dotato di metrica d (ovvero la struttura (X, d)) è detto Spazio Metrico.

·        Detti X ed Y due spazi metrici, e dX, dY le rispettive metriche, un’applicazione f:X→Y che preserva le distanze – (ovvero t.c. [ x1,x2 X ] : dY(f(x1), f(x2)) = dX(x1, x2) – viene detta Isometria,

Un’Isometria è necessariamente iniettiva; se è anche biiettiva è detta Isometria Globale; se preserva le distanze lungo una curva è detta isometria di cammino.

L’insieme delle isometrie da uno spazio su se stesso forma un gruppo.

Un’Isometria Globale è un isomorfismo fra spazi metrici; se esiste un tale isomorfismo, i due spazi sono detti isometricamente isomorfi.

·        Se invece tutte le distanze sono moltiplicate per uno stesso fattore k (ovvero se esiste k > 0 t.c. dY(f(x1), f(x2)) = k dX(x1, x2)) e l’applicazione è obiettiva, essa è detta similitudine, e gli spazi sono detti simili.

·        Se tutte le successioni di Cauchy di uno spazio metrico convergono verso un punto di tale spazio, esso è detto Completo.

 

Esempi di Spazi Metrici

·        Spazio Metrico Discreto: un insieme arbitrario A, dotato della Metrica Discreta:
 

·        Retta Reale: l’insieme dei Numeri Reali , dotato della Metrica del Valore Assoluto d1(x, y) := |y-x|.

L’unico punto equidistante dall’origine rispetto ad x è il suo simmetrico –x.

La Metrica del valore assoluto è una 1-metrica su uno spazio ad una dimensione.

·        Spazio Euclideo Reale (N): lo spazio delle n-ple di numeri reali (N) dotato della Metrica Euclidea: .

Il luogo dei punti equidistanti dall’origine è una circonferenza (una sfera)

La metrica Euclidea è una 2-metrica.

Per una caratterizzazione geometrica dello Spazio Euclideo cfr. GEOMETRIA – Geometria Euclidea.

·        N dotato della p-Metrica:   .

·        N dotato della Norma Infinita (detta anche Norma del Massimo) d(x, y) := Max (|yi – xi|).

Il luogo dei punti equidistanti dall’origine è un quadrato con centro nell’origine.

·        N dotato della Metrica di Manhattan: d1(x, y) := ∑i |yi – xi|  ([11]).

Il luogo dei punti equidistanti dall’origine è un quadrato con i vertici sugli assi coordinati.

La metrica di Manhattan è una 1-metrica.

·        N dotato della Metrica dell’Ufficio Postale: d(x, y) := ∑i (xi)2 + ∑k (yk)2  ([12]).

·        Retta Complessa: l’insieme dei Numeri Complessi , dotato della metrica d(w, z) := |z-w| (cioè il modulo della differenza dei due numeri complessi).

·        Spazio Euclideo Complesso (Spazio Unitario): N dotato della Metrica Euclidea Complessa .

·        Un qualsiasi Spazio Vettoriale Normato V dotato della metrica: d(u, v) := ║v-u

Figura 41 - Luoghi di Punti Equidistanti

Particolari Tipi di Metriche

Rinunciando alla seconda proprietà si ottengono gli Spazi Pseudometrici.

Una metrica d su X è detta intrinseca se ogni coppia di punti x, y X può essere collegata da una curva la cui lunghezza sia arbitrariamente vicina a d(x, y).

Se su X è definita un’operazione +: XxX→X, e se [ x,y,a X ] risulta: d(x+a, y+a) = d(x, y) la metrica è detta invariante per traslazione.

Se la disuguaglianza triangolare viene rafforzata nella forma:

d(x, z) ≤ max( d(x, y), d(y, z)), d viene chiamata Ultrametrica.

Spazi Euclidei

In ambito geometrico la metrica consente di calcolare le lunghezze dei segmenti.

La metrica di uno spazio è di fondamentale importanza in quanto da essa dipende l’intera geometria dello spazio.

Particolare importanza riveste in la Metrica Euclidea che identifica la distaza fra due punti con la lunghezza del segmento che li congiunge. Uno spazio dotato di metrica Euclidea è detto Spazio Euclideo.

L’utilizzo di metriche differenti da quella euclidea porta alle Geometrie non Euclidee.

Una metrica induce una topologia, per cui ogni Spazio Metrico è anche uno Spazio Topologico, ma non tutte le topologie possono essere generate da una metrica.

 

4.2Spazi Vettoriali Normati

Definizioni

·        La Norma è una funzione che assegna una lunghezza positiva ad ogni vettore non nullo di uno Spazio Vettoriale. Più precisamente, detto V uno Spazio Vettoriale su un sottocampo K di [13], una Norma su V è una funzione ║║: V → K   t.c.  [ u,v V  ;  kK ] :

·        u 0                                                            definito positivo;

·        u= 0    u = 0                                            non degenere;

·        ku = |k| u                                                  moltiplicazione per il modulo;

·        u+v u + u                                           disuguaglianza triangolare.

Sono evidenti le analogie fra Norma e Metrica. Il terzo assioma della Norma non trova riscontro nella Metrica, in quanto dipende dalla particolare struttura di Spazio Vettoriale.

·        Se si rinuncia al primo assioma, la funzione è detta Seminorma.

·        Uno Spazio Vettoriale dotato di norma (ovvero la Struttura (V, ║.║) è detto Spazio Vettoriale Normato.

Si dimostrano le seguenti importanti proprietà::

·        Ogni spazio dotato di prodotto interno è uno spazio normato, sotto la norma indotta dal prodotto interno: u= uu.

·        Ogni spazio normato è uno spazio metrico, sotto la metrica indotta dalla norma: d(u,v) = u - v

4.3Spazi Vettoriali con Prodotto Interno

Spazio Vettoriale dotato di Prodotto Interno su un campo K: una struttura algebrica (V,) dove V = (V, K, , ) è uno spazio vettoriale sul campo K, e l’operazione : V x V → K  (detta Prodotto Interno o Prodotto Scalare) è una forma bilineare che soddisfa le seguenti proprietà: u,v VN , k K

·        uv = (vu)*                                                    simmetria coniugata;

·        uu 0                                                            definito positivo

·        uu = 0  se e solo se:  u = 0                              e non degenere;

·        u(k1v1 k2v2) = k1(uv1) + k2(uv2)          sesquilinearità.

NB:

·   La (1) garantisce che uu ∈ℝ , così che la (2) ha senso anche quando K = ℂ.

·   Dalla (2) e dalla (3) discende che: (au)v = a*(uv)            .

·   L’esempio standard di prodotto interno è il prodotto scalare (dot product): uv := ui(vi*).

·   se K = allora la la simmetria coniugata si riduce alla normale simmetria e la sesquilinearità si riduce alla normale linearità.

4.4Spazio Euclideo

                                                                                             5    Spazio Duale

5.1Spazio Duale e Base Duale

Spazio Duale

Si verifica facilmente che l’insieme {φ, χ, ψ, … } delle Forme Lineari su uno spazio vettoriale V, dotato delle seguenti operazioni:

·        (φχ) (u) := φ(u) + χ(u)

·        (kφ) (u) :=  k * φ(u)

soddisfa i requisiti di uno spazio vettoriale; esso è indicato con V* e viene detto Spazio Vettoriale Duale di V; i suoi elementi sono detti anche 1-forme.

Nel caso in cui V abbia dimensione finita, si dimostra che anche V* ha la stessa dimensione. Se invece V non ha dimensione finita, allora risulta: dim(V*) > dim(V).

L’elemento neutro di V* rispetto a è il funzionale nullo 0 definito da: 0(u) = 0, mentre l’elemento inverso di φ è il funzionale (–φ) definito da: (–φ)(u) = –(φ(u)).

Reiterando il procedimento di costruzione dello spazio duale a partire da V*N si ottiene uno spazio V**N, che però non produce nessuna nuova struttura, in quanto si dimostra che l’isomorfismo esistente fra VN e V**N non dipende dalla base.

Ciò è peraltro evidente considerando il fatto che, poichè (A-1T)-1T = A, le basi di V**N sono covarianti rispetto alle basi di VN.

Base Duale

Sia VN uno spazio vettoriale di dimensione finita N; fissata una base {e(i)}, una Forma Lineare φ risulta univocamente determinata dalla N-pla ordinata di numeri reali φi =  φ(e(i)). Infatti detto v = vi e(i) il generico vettore di VN, abbiamo che:

( 5a)                           φ(v) = φ(vi e(i)) = vi φ(e(i)) = φivi.

Le φi della ( 5a) possono quindi essere considerate come le componenti della 1-forma φ secondo un’opportuna base {ε(i)} di V*N. Per trovare questa base, riscriviamo la ( 5a) come: φ(v) = φkε(k)(vie(i)) = φkviε(k)( e(i)) = φivi, per cui dovrà risultare:

( 5b)                           ε(k)( e(i)) := δki .

Per verificare che gli {ε(k)} sono linearmente indipendenti, e possono quindi essere assunti come una base di V*N, è sufficiente considerare il fatto che la matrice δik può essere considerata un operatore lineare da VN a V*N (infatti un generico operatore lineare da uno spazio vettoriale ad un altro è rappresentabile da una matrice); inoltre, poiché questa matrice è non singolare, essa preserva la condizione di indipendenza lineare.

Gli {ε(i)} sono detti base duale associata agli {e(i)}.

Dalla ( 5b) si ottiene:

( 5c)                           ε(i)(v) = ε(i)(vke(k)) = δikvk = vi .

Contrazione degli Indici

Dalla ( 5a) discende immediatamente che, poiché φ(u) è – per definizione – uno scalare, l’espressione φivi non dipende dalla scelta della base, ovvero:

( 5d)                           φiui = φ’ku’k

in altre parole:

La contrazione degli indici[14] delle componenti[15] di un vettore con le componenti[16] di una 1-forma non dipende dalla scelta della base.

Dalla ( 5d) appare evidente che se interpretiamo VN come lo spazio dei vettori colonna di numeri reali e V*N come lo spazio dei vettori riga di numeri reali, allora un vettore riga agisce su un vettore colonna come un funzionale lineare, per mezzo della consueta moltiplicazione righe per colonne tra matrici.

In effetti l’esistenza dello spazio vettoriale duale riflette in qualche modo la relazione esistente tra i verrori riga (1xN) ed i vettori colonna (Nx1), il cui prodotto righe per colonne è una matrice 1x1, ovvero uno scalare.

Se invece consideriamo lo spazio dei vettori geometrici (spostamento) tridimensionali, allora gli elementi del suo spazio duale possono essere rappresentati da una serie di piani paralleli equidistanziati. Questi piani possono essere applicati ad un vettore per produrre un numero contando il numero di piani attraversati dal vettore.

5.2Trasformazioni nello Spazio Duale

Trasformazione delle Basi Duali

Poiché ad ogni base {e(i)} di VN è associata la corrispondente base duale {ε(i)}in V*N, è chiaro che un cambiamento di base in VN indurrà una trasformazione della corrispondente base duale in V*N.

Per trovare la relazione tra le due matrici di trasformazione, applichiamo il generico elemento della nuova base duale ε’(i) al generico vettore v; tenendo conto della ( 5c) e della ( 2d), abbiamo che: ε’(i)(v) = v’i = [A-1T]ikvk = [A-1T]ikε(k)(v), che – in virtù dell’arbitrarietà di v – diventa:

( 5e)                           ε’(i) = [A-1T]ikε(k)

Abbiamo quindi che:

Le Basi Duali

si trasformano con la Matrice Contragrediente
della Matrice di Trasformazione dei Vettori di Base;

sono cioè CONTROVARIANTI

Trasformazione delle Componenti delle 1-forme

Poiché un cambiamento di base in VN induce un cambiamento della base duale in V*N, è chiaro che esso indurrà anche una trasformazione delle componenti delle 1-forme.

Per trovare la relazione tra le due matrici di trasformazione, basta introdurre la ( 2d) nella ( 5d), ottenendo: uiφi = φ’m [A-1T] mkuk, che – in virtù dell’arbitrarietà di u – diventa: φi = φ’m [A-1T] mi = [A-1]im φ’m . Moltiplicando infine ambo i membri per Aki e tenendo conto che Aki [A-1]im = δkm, abbiamo che:

( 5f)                            φ’k = Akiφi

ovvero:

Le Componenti delle 1-forme

si trasformano con la stessa Matrice  dei Vettori di Base[17];

sono cioè COVARIANTI

(dove per covarianti si intende il fatto che si trasformano nello stesso modo).

La ( 5f) poteva essere ottenuta più semplicemente considerando che, in base a quanto già visto in 2.4), detta B la matrice di trasformazione delle ε(i), le φi si trasformano con B-1T, ma poiché B = A-1T, le φi si trasformano con (A-1T)-1T = A.

                                                               6    Sistemi Lineari di equazioni

La linearità degli spazi vettoriali consente di utilizzarli per trattare in maniera compatta e con linguaggio geometrico i sistemi di equazioni (algebriche o differenziali) lineari.

6.1Sistemi Lineari di Equazioni Algebriche

Un sistema di N equazioni algebriche lineari (di primo grado) in M incognite può essere scritto in forma matriciale come:

( 6a)(1)                       Ax = y

dove:

·        x è una matrice  N x 1  i cui elementi rappresentano le incognite;

·        A è una matrice M x N i cui elementi sono costituiti dai coefficienti del sistema;

·        y è una matrice  M x 1  i cui elementi sono costituiti dai termini noti.

La linearità della ( 6a) consente di dotare sia lo spazio delle incognite XN che quello dei termini noti YN di strutture di spazi vettoriali. La matrice dei coefficienti è chiaramente un operatore lineare A: XN→YM. La risoluzione del sistema equivale quindi a trovare, se esistono, tutti i vettori xXN la cui immagine A(x) sia il vettore yYM.

Affinché il sistema ( 6a) ammetta soluzioni, è necessario che le relazioni fra le incognite espresse dalle sue equazioni siano fra loro compatibili. Questa condizione di compatibilità può essere espressa come: b Im(A)

Un sistema compatibile identifica le sue soluzioni, mentre non è vero il viceversa: esistono infiniti sistemi (fra i quali è possibile stabilire una relazione di equivalenza) che ammettono una data soluzione. In particolare la linearità del sistema consente di sostituire ad un’equazione una qualsiasi combinazione lineare delle altre N-1 equazioni, ottenendo un sistema equivalente. Reiterando il procedimento si può arrivare ad un sistema equivalente la cui matrice ha forma triangolare superiore; ciò consente di identificare le variabili libere, eliminate le quali, si può completare la diagonalizzazione del sistema.

Il rango R della matrice dei coefficienti gioca un ruolo fondamentale per determinare la molteplicità delle soluzioni: ciò risulta evidente considerando il fatto che il rango di una matrice da una parte corrisponde alla dimensione del sottospazio vettoriale generato, come immagine, dalla matrice stessa e dall’altra fornisce il grado di libertà del sistema, ossia il numero delle sue equazioni linearmente indipendenti.

Sistemi non omogenei

Consideriamo il caso in cui y 0. Il caso più semplice è quello di una matrice quadrata non singolare: N=M=R. In questo caso la matrice è invertibile e la soluzione del sistema ( 6a) è unica ed è data da:

( 6b)                           x = A-1y

(Infatti, per il teroremi di cui alla sezione 3,  dim(Kernel(A)) = N – R = 0 , quindi l’operatore A è iniettivo).

Continuiamo a considerare una matrice quadrata, nel caso in cui però sia R<N.

Figura 61 – Sistemi non Omogenei

Per visualizzare la situazione poniamo N=M=3 e R=2. Il kernel di A è ora un sottospazio di dimensione pari a 3-2=1, rappresentato nella figura dalla retta r. Scomponiamo il generico vettore di X in una componente x(0) parallela alla retta ed una componente x(1) giacente sul piano ΠX  normale ad essa.

L’operatore A trasforma la retta r nel vettore nullo 0Y ed il piano ΠX nel piano ΠY. É chiaro che affinchè il sistema ammetta soluzioni è necessario che il termine noto y appartenga a ΠY. D’altra parte ΠX e ΠY sono due spazi vettoriali aventi la stessa dimensione e poiché nessun vettore giacente su ΠX viene trasformato nel vettore nullo, ne consegue che la corrispondenza stabilita fra di essi da A è biunivoca: esiste pertanto un unico vettore appartenente a ΠX t.c.: A x(1) = y . La soluzione generale si ottiene ovviamente sommando a x(1) un qualsiasi vettore x(0) appartenente alla retta r, ovvero sommando al generico vettore del kernel l’unica soluzione appartenente al sottospazio normale ad esso. É chiaro che, in generale, la molteplicità delle soluzioni è pari a N-R.

L’estensione a matrici rettangolari non presenta particolari difficoltà né introduce nuovi elementi.

Sistemi Omogenei

Nel caso in cui il termine noto sia nullo, la ( 6a) diventa:

( 6c)                           Ax = 0

che ammette sempre la soluzione banale x = 0. Pertanto un sistema omogeneo ammette soluzioni non banali se e solo se la sua soluzione non è unica.

L’omogeneità e la linearità del sistema fanno sì che una qualsiasi combinazione lineare di soluzioni sia ancora una soluzione (principio di sovrapposizione). In termini geometrici: l’insieme delle soluzioni di un sistema lineare omogeneo è un sottospazio vettoriale di XN.

6.2Sistemi Lineari di Equazioni Differenziali

                                                                                                      7    Algebre

7.1Definizioni

Un’Algebra è uno Spazio Vettoriale dotato di un Operatore Bilineare (detto moltiplicazione bilineare).

Un’Algebra su un campo (K, +, *) (detta anche K-Algebra) è una struttura algebrica (V, ) dove V = (V, K, , ) è un Spazio Vettoriale su K e   : V x VV    t.c.    u,v,w V  e a,b K :

·       (uv) w = (uw) (vw)

·       u (vw) = (uv) (uw)

·       (au) v = a (uv)

·       u (av) = a (uv)

É possibile generalizzare la definizione utilizzando un Modulo al posto dello Spazio Vettoriale ed un Anello Commutativo al posto del Campo.

Va notato che non è richiesta l’associatività né tantomeno la commutatività della moltiplicazione bilineare,.e che non è richiesta neanche l’esistenza degli elementi neutri e degli inversi. Ciò conferisce alle Algebre una struttura decisamente generale.

Due K-Algebre U e V sono dette isomorfe se esiste un’applicazione lineare biiettiva f: U→V   t.c.  u1,u2 V  : f(u1u2) = f(u1)f(u2).

Tra le Algebre associative ricordiamo:

·         La K-Algebra di tutte le matrici quadrate su K, dotate del prodotto righe per colonne.

·         La -Algebra commutativa di tutte le funzioni reali continue definite su un intervallo chiuso I di , dotate della composizione funzionale.

·         La -Algebra commutativa di tutte le funzioni olomorfe definite su un aperto del piano complesso, dotate dell’operazione di composizione funzionale.

·         Le Algebre di tutti gli Operatori Lineari su uno Spazio Vettoriale, dotati della composizione funzionale.

·         Le Algebre di Banach: le Algebre commutative su o su , che sono anche degli Spazi di Banach.

Tra le Algebre non associative ricordiamo:

·         La K-Algebra di tutte le matrici quadrate su K, dotate del prodotto righe per colonne.

·         Le Algebre di Lie (dove la moltiplicazione lineare soddisfa l’Identità di Jacobi, ed è identicamente nulla se i due elementi coincidono)

·         3 dotato di Prodotto Vettoriale (si tratta in effetti di un’Algebra di Lie).

Se [ u,v V , con v ≠ 0 ]  esistono un unico xu V ed un unico yu V t.c. u = vxu = yuv, allora si dice che V è un’ Algebra con Divisione.

Per le Algebre associative questa definizione può essere semplificata come segue: un’Algebra associativa su un campo è un’Algebra con divisione se e solo se essa ha un elemento neutro (rispetto alla moltiplicazione bilineare) 1 ≠ 0 e se, per ogni vettore non nullo esiste l’elemento inverso (sempre rispetto alla moltiplicazione bilineare), ovvero se:

-       [1V ]  t.c. [ uV ] :      u1 = 1u = 0 ;

-       [ vV    v-1V ] t.c. :      vv-1 = v-1v = 1 

7.2Algebre di Lie

Un’Algebra di Lie è un’Algebra non associativa su un K-Spazio Vettoriale V, dove la moltiplicazione bilineare (detta Parentesi di Lie, e indicata con [*,*]) soddisfa le seguenti proprietà: u,v,w V  e a,b K :

·         [au+bv,w] = a[u,w] + b[v,w]                                           (Bilinearità)

·        [u,av+bw] = a[u,v] + b[u,w]                                           (                )

·        [u,u] = 0

·        [u,[v,w]] + [v,[w,u]] + [w,[u,v]] = 0                                (Identità di Jacobi)

Le ultime due proprietà implicano l’antisimmetria delle Parentesi di Lie: [u,v] = –[v,u]. Il viceversa è vero solo se K ha caratteristica diversa da 2.

3, dotato di Prodotto Vettoriale, è un’Algebra di Lie.

.

                                                                                 8    Alcuni Tipi di Spazi

I termini Spazio e Punto sono sostanzialmente equivalenti rispettivamente a Insieme ed Elemento, anche se hanno una connotazione tipicamente geometrica. Questi termini, nati nell’ambito dell’ordinario spazio Euclideo, sono stati progressivamente utilizzati in ambiti sempre più generalizzati.

Riepiloghiamo qui in modo informale le caratteristiche di alcuni tipi di spazi di particolare interesse. I collegamenti puntano ai vari capitoli degli Appunti dove è possibile trovare delle definizioni più rigorose.

·        Uno Spazio Vettoriale (o Spazio Lineare) è sostanzialmente un insieme i cui elementi (detti Vettori) possono essere sommati fra di loro e moltiplicati con gli elementi di un Campo, soddisfacendo alcuni assiomi; le motivazioni alla base di tali assiomi sono descritte in: GEOMETRIA – Vettori Geometrici. 

Gli Spazi Vettoriale sono strutture molto generali; la loro linearità li rende particolarmente versatili; in ambito geometrico essi costituiscono la base per definire (e descrivere) gli Spazi Affini, rispetto ai quali hanno natura di torsore (i vettori di uno Spazio Vettoriale sono essenzialmente differenze fra punti di uno Spazio Affine). Considerando i vettori come punti e le differenze di vettori come vettori, un qualsiasi Spazio Vettoriale diventa uno Spazio Affine su se stesso.

·        Uno Spazio Affine è sostanzialmente un insieme tale che la differenza fra una sua coppia di punti individua un vettore: un punto può così essere sommato ad un  vettore, dando come risultato un altro punto.

·        Uno Spazio Metrico è un insieme nel quale è definita una nozione di distanza fra i suoi punti, per mezzo di una funzione reale (detta Metrica) fra le sue coppie di punti, che soddisfi, tra l’altro, la disuguaglianza triangolare.

In ambito geometrico l’introduzione di una metrica consente di calcolare le lunghezze dei segmenti.

Una metrica induce una topologia, per cui ogni Spazio Metrico è anche uno Spazio Topologico, ma non tutte le topologie possono essere generate da una metrica.

·        L’introduzione di una metrica euclidea in uno Spazio Affine porta ad uno Spazio Euclideo.

La metrica euclidea è data dal Teorema di Pitagora, e la possibilità di utilizzarla implica che lo Spazio Euclideo è piatto, privo cioè di curvatura.

·        Introducendo in uno Spazio Vettoriale un’opportuna forma quadratica (detta Norma) si ottiene uno Spazio Vettoriale Normato.

La norma associa un numero reale positivo ad ogni vettore non nullo. In ambito geometrico, detti P1 e P2 due punti di uno Spazio Affine, e v il vettore individuato dalla loro differenza, la norma di v fornisce la lunghezza del segmento . L’introduzione di una norma in uno Spazio Vettoriale induce quindi una metrica negli Spazi Affini ad esso associati.

·        Introducendo in uno Spazio Vettoriale un’opportuna forma bilineare (detta Prodotto Interno) si ottiene uno Spazio Vettoriale dotato di Prodotto Interno.

Il Prodotto Interno associa un numero reale[18] ad ogni coppia di vettori. In ambito geometrico, il prodotto interno coincide con il prodotto scalare; detti  e  due segmenti e v1 e v2  i vettori ad essi associati, il prodotto scalare v1v2 fornisce la proiezione di  su  e consente quindi di calcolare l’angolo compreso fra di essi.

Un Prodotto Interno induce una norma, quindi ogni Spazio Vettoriale dotato di Prodotto Interno è anche uno Spazio Normato.

 

                                                                        9    Matrici e Determinanti

9.1Matrici

Definizioni

Una Matrice è una tabella rettangolare di numeri, o più in generale di elementi di un Anello o di un Campo (scalari).

Detti rispettivamente M ed N i numeri delle righe e delle colonne, la matrice è detta MxN, ed il generico elemento aik della matrice è unicamente individuato da una coppia ordinata di indici, dei quali il primo identifica la riga ed il secondo la colonna.

Conviene identificare MN,1(K) (l’insieme delle matrici colonna con N righe) con KN (l’ N-Spazio Numerico su K).

Date due matrici  A e B, rispettivamente MxP e PxN, si definisce il Prodotto Righe per Colonne delle due matrici come una matrice MxN i cui elementi sono: (AB)ik := AiqBqk. L’operazione è associativa ma non commutativa.

Se M = N, la matrice è detta quadrata di ordine N. Il Prodotto righe per colonne di due matrici quadrate di ordine N è ancora una matrice quadrata di ordine N.

Rango e Invertibilità

Considerando una matrice come un insieme di vettori colonna, il rango per colonna della matrice è il rango di questi vettori colonna. Analogamente per il rango per riga. I due ranghi sono uguali, e vengono detti Rango della matrice.

La matrice Identità IN rappresenta l’elemento neutro (sia destro che sinistro) del prodotto righe per colonne.

Una matrice quadrata A è detta invertibile se esiste una matrice B t.c. AB = I. Se esiste, la matrice B è unica, e inoltre risulta BA = I. La matrice B viene indicata con A-1 e rappresenta quindi l’elemento inverso (sia destro che sinistro) del prodotto righe per colonne.

Si dimostra che:

Una matrice quadrata di ordine N è invertibile se e solo se ha Rango N.

Struttura

L’insieme delle matrici MxN a elementi in K si indica con MM,N(K) e, dotato delle operazioni di Somma di Matrici e Moltiplicazione di una Matrice per uno scalare, ha struttura di Spazio Vettoriale di dimensione MN. L’insieme delle Matrici quadrate di ordine N si indica con MN(K).

Il sottoinsieme di MN(K) delle matrici invertibili, dotato dell’operazione di prodotto righe per colonne, ha struttura di Gruppo non Abeliano, viene detto Gruppo Lineare Generale di ordine N su K e viene indicato con GLN(K) ed ha grande importanza nello studio delle Trasformazioni Lineari Invertibili e degli isomorfismi fra spazi vettoriali o fra spazi affini.

Lo Spazio Vettoriale MN(K), dotato dell’operazione di Prodotto righe per colonne, ha struttura di K-Algebra associativa non commutativa.

Operazioni Matriciali

Sulle matrici possono essere definite le operazioni sotto riportate.

Le matrici e gli scalari coinvolti nelle formule sono sempre sullo stesso campo K.

L’ordine delle matrici non è espressamente specificato, ma si assume che esso sia tale da rendere significative le formule; verranno esplicitate solo eventuali ulteriori ipotesi.

·        Somma di Matrici:                                          (A+B)ik := Aik + Bik .