Forme bilineari
In questa lezione comincia il nostro studio degli spazi euclidei, cioè spazi in cui sono definiti i classici concetti metrici quali angolo, distanza, perpendicolarità, ecc... che non abbiamo mai affrontato (e non hanno senso) in uno spazio vettoriale normale.
Forme bilineari
Inoltre si dice simmetrica se
mentre si dice antisimmetrica se
sempre per ogni .
Vediamo alcuni esempi di forme bilineari.
- La forma bilineare nulla è una forma bilineare simmetrica e antisimmetrica.
- Il prodotto riga per colonna usuale nel calcolo matriciale è una forma bilineare. Infatti, sia e consideriamo i vettori colonna , abbiamo Dimostrate per esercizio che si tratta effettivamente di una forma bilineare.
- Se la matrice dell'esempio 2 è la matrice identità, otteniamo la cosiddetta forma simmetrica standard su definita come
Vediamo ora la matrice associata ad una applicazione bilineare. Template:Riquadro
Prodotti scalari
Teorema (Disuguaglianza di Schwarz)
Dimostrazione
Supponiamo i vettori diversi da zero, altrimenti il teorema è banale.
Sia un vettore combinazione lineare di e , quindi . Per la definizione di prodotto scalare:
Prendendo tale che e otteniamo al secondo membro
.
Dividendo ambo i membri per , che è strettamente positivo perché abbiamo supposto non nullo, otteniamo
L'eguaglianza vale se e solo se:
, cioè
e
sono linearmente dipendenti.
Norma di un vettore
Utilizzando la norma, si può esprimere la disuguaglianza di Schwartz come . La norma di un vettore gode delle seguenti proprietà:
- e vale l'uguaglianza se e solo se e sono paralleli.
La proprietà 3 è la nota disuguaglianza triangolare che dimostriamo nel seguente modo:
Vettori e insiemi ortogonali
Due vettori si dicono ortogonali (o perpendicolari) se e solo se .
Se un insieme ortogonale od ortonormale è una base di una spazio vettoriale, si dice semplicemente che tale base è una base ortogonale o ortonormale.
Lemma
Dimostrazione
1. Basta dimostrare che se due vettori non nulli sono ortogonali, allora sono indipendenti.
Siano e due vettori non nulli, e tali che . Sia un qualunque vettore combinazione lineare di e , ossia .
Devo dimostrare che implica che .
Sia . Allora deve succedere che
Quindi .
I due vettori sono non nulli, quindi i due prodotti scalari sono positivi, e quindi, affinché l'eguaglianza valga, deve essere che e devono essere nulli, da cui segue la tesi.
2. Dalla 1. segue che un insieme di vettori indipendenti in uno spazio di dimensione è una base.
3. Fissiamo un indice , e sia un vettore della base ortogonale. Prendiamo un vettore , e sia il vettore definito nell'enunciato. Ecco cosa succede:
Visto che stiamo in una base ortogonale, , e quindi la sommatoria si riduce al termine .
In definitiva: .
Tutto ciò è vero, qualunque sia
e qualunque sia
, ossia la tesi.
Procedimento di ortogonalizzazione di Gram-Schmidt
Dimostrazione
Osserviamo che e che ogni è non nullo. Infatti, se per assurdo un qualche fosse nullo, avremmo
- e questo contraddice l'ipotesi che sia una base.
Per il Lemma precedente, sappiamo che ogni è ortogonale al vettore che lo precede nella n-upla , dunque è un insieme ortogonale.
Sempre per il Lemma deduciamo che i
sono linearmente indipendenti e pertanto costituiscono una base.
Questo algoritmo ci permette di ottenere una base ortogonale a partire da una base di partenza data.
Proposizione (esistenza di una base ortonormale)
Dimostrazione
Dunque tutti i vettori sono ortonormali.
Esempi
- Sia di dimensione 4 e sia una base di ortonormale (è la base canonica). Consideriamo poi i vettori
.
- Applichiamo il procedimento di Gram-Schmidt per ottenere una base ortogonale.
Dunque è una base ortogonale di .