Sistemi lineari

Da testwiki.
Vai alla navigazione Vai alla ricerca

Template:Navigazione lezione

Template:Risorsa

In questa lezione vedremo alcune tecniche per risolvere dei sistemi di equazioni lineari generici, quindi non per forza quadrati.

Un sistema lineare è di m equazioni in n incognite del tipo

{a1,1x1+a1,2x2++a1,nxn=b1a2,1x1+a2,2x2++a2,nxn=b2am,1x1+am,2x2++am,nxn=bm

abbiamo già visto che possiamo provare a risolvere utilizzando il metodo di sostituzione oppure l'eliminazione di Gauss nel caso il sistema sia quadrato, cioè m=n (con m numero di equazioni ed n numero delle incognite). Vediamo ora dei metodi più efficaci per risolvere un qualunque sistema lineare.

Riduzione a Scala e Algoritmo di Gauss-Jordan

È un metodo senz'altro efficiente e pratico da implementare in un calcolatore, tuttavia (e questa è un'opinione personale), richiede dei notevoli calcoli numerici e spesso l'utilizzo dei determinanti e la Regola di Cramer sono migliori se dobbiamo risolvere il sistema a mano senza l'impiego di un calcolatore.

Definizione: Una matrice si dice a scala se è siffatta

(00p1*00p2*00pr*000000)
Gli * indicano che può esserci qualsiasi cosa e i pi*,qir (quindi tutti non nulli) sono gli r pivot della matrice a scala.

Il sistema lineare associato si dice sistema a scala.

La matrice a scala ed il Metodo di Gauss-Jordan non è altro che la generalizzazione di quello che avevamo visto brevemente per le matrici quadrate. Prima di studiarne le proprietà teoriche, vediamo come funziona e facciamo qualche esempio pratico per fissare le idee.

Come anticipato prima, il metodo di Gauss-Jordan è molto simile all'eliminazione di Gauss per le matrici quadrate, cioè è un metodo che tramite operazioni elementari (quali lo scambio di righe, combinazioni lineari, ecc...) trasforma una matrice qualsiasi AMm,n() in una matrice a scala SMm,n() e di conseguenza trasforma il generico sistema Ax=b in un sistema a scala equivalente Sx=c.

Partendo da un sistema lineare Ax=b, il metodo consiste nei seguenti passaggi:

  • Se A è la matrice nulla, abbiamo ovviamente finito.
  • Se A non è la matrice nulla, consideriamo la prima colonna che presenta un coefficiente non nullo (se necessario è possibile scambiare di posto le righe della matrice per avere tale coefficiente il più a sinistra possibile e nella prima riga, all'inizio della matrice). Sia Aj questa colonna e chiamiano tale valore non nullo pivot, in questo caso A1,j=p1
  • Rendiamo nulli tutti i valori della colonna j-esima sommando alle righe 1+h,h=2,,m una opportuna combinazione lineare.
  • Andiamo avanti considerando la colonne successiva ad Aj della riga 2 fino a che non troviamo una colonna Aj+a avente coefficiente non nullo. Sia p2 tale valore e procediamo come prima fino alla riga h
  • Se dalla riga h+1 in poi sono tutte nulle o h è l'ultima riga, abbiamo finito. Altrimenti continuiamo il procedimento.
  • Una volta ottenuta una matrice a scala, ripetiamo il procedimento all'indietro per ottenere le soluzioni.

Come si nota subito, il procedimento è molto simile a quello dell'eliminazione di Gauss. Ma un esempio dovrebbe chiarire molto meglio il l'algoritmo.

Esempio (1): Consideriamo il seguente sistema lineare
{2x1x2+4x3+x4=22x1+x27x3+x4=14x12x2+5x3+4x4=7
e la sua matrice associata
A=(214121714254) c=(217)
A non è nulla e il primo elemento diverso da zero che incontriamo è proprio a1,1. Quindi a1,1=p1 e procediamo ad annullare tutti i termini della prima colonna dalla riga 2 in poi con una combinazione lineare del tipo Rh+1=Rh+1+ah+1,jpjRh, con pj fissato.
(214100320032)(233)
cioè abbiamo sostituito la riga R2 con R2+R1 e la riga R3 con R32R1. La sostituzione comprende anche la colonna dei termini noti.
Ripetiamo il procedimento passando alla colonna (e riga) successive, notando che la seconda riga ha un termine non nullo (nella colonna 3). Poniamo allora p2=3 e ripetiamo il procedimento di prima. Questa volta abbiamo R3+33R1=R3R1 che ci da' la matrice
(214100320000)(230)
Ci accingiamo a ripetere nuovamente il procedimento, ma questa volta notiamo che al di sotto della riga che abbiamo appena considerato, non abbiamo altre righe contenenti elementi non nulli. Perciò abbiamo finito, ottenendo un sistema a scala e il corrispondente sistema lineare:
{2x1x2+4x3+x4=23x3+2x4=3
Il sistema ha due pivot e il vettore dei termini noti ha dimensione 2. Un corollario che vedremo dopo ci assicurerà che, a queste condizioni, il sistema ammette soluzioni.
Risolviamolo all'indietro, cioè ripetiamo l'algoritmo di Gauss-Jordan stavolta partendo dal basso:
abbiamo la matrice S=(214100320000)c=(230) e partiamo da basso prendendo come pivot il primo valore da destra non nullo, cioè 2=pr1 e, di nuovo, sostituiamo alla prima riga di S e di S la combinazione lineare ottenuta come avevamo fatto prima, cioè R1=R112R2 ottenendo la matrice
S=(21112000320000)c=(1230).
Abbiamo ora terminato l'algoritmo di Gauss e procediamo a risolvere il sistema lineare equivalente ottenuto. Risolviamo allora il sistema:
{2x1x2+112x3=123x3+2x4=3
{2x1=12+x2112x33x3=32x4
{x1=14+12x2114x3x3=1+23x4
{x1=14+12x2114(1+23x4)x3=1+23x4
{x1=14+12x2114116x4x3=1+23x4
{x1=3+12x2116x4x3=1+23x4

Abbiamo dunque trovato le soluzioni di questo sistema, con x1,x3 variabili dipendenti e x2,x4 variabili libere.

Adesso che abbiamo visto come risolvere i sistemi lineari ridotti a scala, vediamone le proprietà fondamentali.

Proprietà dei sistemi lineari a scala

Lemma

Sia SMm,n() una matrice a scala con r pivot. Poniamo
Vr={(b1br00)mb1,,br}=<e1,,er>
con <e1,,er> la base canonica di rm.
Poniamo inoltre con Sjh la colonna j-esima di S in cui compare il h-esimo pivot ph,h=1,,r.
Allora:
  1. Vr=ImS
  2. r=rgS
  3. {Sj1,,Sjr} è una base di ImS

Dimostrazione.

  1. Tutte le colonne di S sono della forma (s1sr00), dunque appartengono a Vr e sono un sistema di generatori (per il significato di applicazione lineare di una matrice) di ImS, quindi sicuramente ImSVr. Tuttavia, abbiamo che
i=1rxiSji=(b1br00), cioè <Sj1,,Sjr>=Vr e quindi ImS=Vr.
2 . Sappiamo dall'ipotesi che dimVr=dim{e1,,er}=r, ma Vr=ImS e se due insiemi sono uguali è evidente che eguale è anche la loro dimensione. Quindi rgS=r


Corollario

Sia SMm,n() una matrice a scala di rango r.
Allora il sistema lineare associato ha soluzione se e solo se le ultime mr coordinate della colonna dei termini noti sono zero, e lo spazio delle soluzioni del sistema omogeneo associato ha dimensione nr.

Dimostrazione .

Il sistema a scala Sx=c ha soluzione se e solo se cImS e questo accade se e solo c è un vettore come quelli appartenenti a Vr, quindi con le ultime mr componenti nulle.
Lo spazio delle soluzioni di un sistema omogeneo Sx=0 è per definizione kerS che ha dimensione nrgS.

Teorema