Elementi di algebra matriciale Per matrice m × n si intende una tabella di mn numeri disposti in m righe ed n colonne. Tale matrice si suole indicare con A. Se aij è l’elemento della riga i-esima e della colonna j-esima, allora
Slide 1
(1)
a11 a12 K a a22 K A = 21 M M am1 am 2 K
a1n a 2n M amn
Per abbreviare la notazione si scrive anche A = (aij). In questo caso si suppone che i vari da 1 a m e j vari da 1 a n. Se accade che m = n si dice che A è quadrata. Gli elementi aij della matrice che considereremo da qui in avanti saranno numeri reali.
Si chiama trasposta di una matrice A di dimensioni m × n la matrice AT oppure A’ di dimensioni n × m le cui righe sono le colonne di A:
Slide 2
(2)
AT
a11 a21 K a a22 K = 12 M M a1n a2 n K
am1 am 2 M amn
La matrice A è detta simmetrica se AT = A. Le matrici simmetriche sono necessariamente quadrate. Si osservi che (AT)T\= A per qualunque matrice A.
Molto spesso si deve considerare un vettore n-dimensionale x come una matrice n × 1 avente n righe ed 1 colonna:
Slide 3
(3)
x1 x x= 2 M xn
In quanto tale, x è chiamato vettore colonna. xT ha una riga ed n colonne per cui è chiamato vettore riga: (4)
xT = ( x1 , x2 ,..., xn )
Per matrici m × n è definita la somma (o differenza): A ± B = C = (cij). Ogni elemento cij = aij + bij Slide 4
La conformabilità per la somma delle due matrici richiede che esse siano dello stesso ordine. La somma è associativa e commutativa. Esempio
Gran parte dell’utilità delle matrici dipende dalla seguente definizione di moltiplicazione fra matrici, che permette di combinare due matrici, ottenendone una sola, e in modo da preservare le relazioni lineari. Se A = (aij) è una matrice m × n e B = (bij) è una matrice n × p, allora il prodotto AB è la matrice C = (cij) di dimensione m × p i cui elementi sono dati da: n
cij = ∑ aik bkj ,
Slide 5
i = 1, …, m,
j = 1,…, p
k =1
Due matrici A e B sono conformabili se è possibile il prodotto AB, ossia se sono di opportuna dimensione. Se la prima è m × n e la seconda è p × n esse non sono conformabili. La moltiplicazione matriciale è associativa, infatti: A(BC) = (AB)C. La moltiplicazione matriciale non è commutativa. Inoltre, può sorgere un problema di conformabilità, che impedisce che la moltiplicazione sia commutativa.
La matrice identità n × n è la matrice:
(11) Slide 6
1 0 I= M 0
0 1 M 0
K K O K
0 0 M 1
Ovviamente, I commuta con ogni matrice n × n: IA = AI = A. AB = IAB = AIB = ABI → A0nn = 0mn = 0mmA → Moltiplicazione con scalare
Moltiplicazione di matrici scomposte. Se
due
matrici
A
e
B
sono
opportunamente
scomposte,
la
loro
moltiplicazione può aver luogo come se le submatrici fossero elementi di una matrice, nel modo seguente:
| A12 B11 | B12 A11B11 + A12 B21 | A11 B12 + A12 B22 A 11 AB = − − − − − − − − − − − − = − − − − − − − − − − − − − − − − − − − − A 21 | A 22 B 21 | B 22 A21B11 + A22 B21 | A21 B12 + A22 B22 purchè le submatrici come A11 e B11 siano appropriatamente conformabili. Questo risultato è generalmente vero e la moltiplicazione delle matrici per Slid
blocchi può essere interpretata come un’estensione della regola di
e7
moltiplicazione ordinaria. Ciò si può illustrare mostrando che:
B 1 M A 2 ] L = A1B1 + A 2B 2 B 2
[ A1
Gli ordini di A1, A2, B1 e B2 devono essere, rispettivamente: 1xp; 1x(n-p); lx1; (n-l)x1. Nella slide seguente mostriamo gli ordini delle submatrici di A (mxn) e B (nxs) quando si voglia ottenere il prodotto AB usando le scomposizioni prima evidenziate delle 2 matrici. A ∈ ¡ m× n n p n–p l m
m– l
| A12 A 11 − − − − − − A 21 | A 22
B∈ ¡ q
n× s
s s–q
| B12 B 11 − − − − − − B 21 | B 22
p n– p
Sli de 8
A11 ∈ ¡
l× p
B11 ∈ ¡
p×q
A21 ∈ ¡
( m −l) × p
B 21 ∈ ¡
( n − p) ×( s − q)
A12 ∈ ¡ l ×( n− p ) B12 ∈ ¡ p×( s − q ) A22 ∈ ¡ ( m −l )× ( n− p ) B 22 ∈ ¡ ( n − p )×( s − q ) Nel matrice prodotto risultante è evidenziato qui di seguito che gli elementi della prima riga sono il prodotto di submatrici conformabili. A 11B 11 + A 12B 21 (l × p ) × ( p × q) [ l ( n − p ) ] × (n − p )( s − q ) A 21B 11 + A 22B 21
A 11B 12 + A 12B 22
(l × p) [ p ( s − q) ] l ( n − p) [ ( n − p )( s − q ) ] A 21B 12 + A 22B 22
Proprietà delle MX trasposte (A + B)T = A T + BT; (AB)T = BTA T ; (A T)T = A ; I T = I Se A T = A, A è una matrice simmetrica, ossia aij = aji. Se A ∈ ¡ Slide 9
n× n
, x’Ax è uno scalare (forma quadratica) nelle variabili x.
La matrice A può essere sempre scritta in modo che A = A’. Una simile matrice può servire per assegnare dei pesi alle variabili che compongono il vettore x, elevate al quadrato. (Interpretare x’Ix.) y’Az è detta forma bilineare ed è anch’essa uno scalare. La matrice A può servire per dare dei pesi alle combinazioni (prodotti) delle variabili che compongono i due vettori,
Determinante e matrice inversa In generale è possibile definire il determinante det(A) per una qualunque matrice quadrata. Per un matrice quadrata di dimensione n × n si indica il suo determinante come:
Slide 10
(5)
a11 a12 K a a22 K det(A ) = 21 M M an1 an 2 K
a1n a 2n M ann
Non cercheremo di dare una definizione formale di determinante, ma noteremo che un determinante n × n può essere sviluppato nei minori secondo qualunque sua riga o colonna, e quindi può essere espresso come somma di multipli di determinanti (n – 1) × (n – 1)
Continuando questo processo possiamo alla fine ricondurci al calcolo di (forse parecchi) determinanti 2 × 2 o 3 × 3, di cui ora daremo la definizione. Il determinante di una matrice A di dimensioni 2 × 2 risulta essere così definito: Slide 11
(6)
a b = ad – bc c d
Analogamente, un determinante 3 × 3 risulta essere così definito: (7)
a d g
b e h
c f = aei + bfg + cdh – gec – hfa – idb i
Si osservi ora che possiamo ricondurci al calcolo interattivo di determinanti di ordine 2 raccogliendo a fattor comune gli elementi della prima riga:
Slide 12
(8)
a d g
b e h
c f = a(ei – fh) – b(di – fg)+ c(dh – eg) i
(9)
=a
e h
f d −b i g
f d +c i g
e h
I determinanti 2 ×
2 così ottenuti vengono chiamati minori del
determinante 3 ×
3. Questo processo è chiamato sviluppo del
determinante 3 × 3 nei minori secondo la prima riga. Lo sviluppo dei minori può essere effettuato secondo qualunque riga o colonna.
Si noti che compare un segno “–“ in ogni termine il cui minore è ottenuto eliminando la riga i-esima e la colonna j-esima, quando i + j è un numero dispari. Ad esempio possiamo sviluppare il determinante precedente in minori lungo la seconda colonna nel modo seguente: Slide 13
a d g
(10) Naturalmente
questo
b e h
valore
c d f = −b g i coincide
f a c a +e −h i g i d con
quello
c f ottenuto
in
precedenza.
Per i determinanti è possibile enunciare le seguenti proprietà: • se due righe di un determinante si scambiano fra loro, il determinante cambia di segno; • se due righe di un determinante sono uguali il determinante ha valore nullo; Slide 14
• se un multiplo di una riga è sommato a un'altra riga, il determinante rimane inalterato. Se A e B sono due matrici n × n allora det(AT) = det(A). Inoltre det(AB) = det(A) det(B). Si dice che la matrice quadrata A è singolare se det(A) = 0. Se det(A) ≠ 0 si dice che A è non singolare.
L'inversa di una matrice quadrata A non singolare è una matrice quadrata non singolare A
(12)
–1
che soddisfa: AA
–1
=A
–1
=I
Ogni matrice quadrata non singolare A ha un’inversa A–1 unica. Inoltre l’inversa soddisfa
Slide 15
1 det(A )
(13)
det(A -1 ) =
(14)
(A–1)T = (AT) –1
Indichiamo ora il modo per calcolare l’inversa di una MX A. I passi sono i seguenti: 1. si calcolano i cofattori Ars di ogni elemento ars di A. 2. si dispongano tali cofattori in una MX. 3. si ottenga la trasposta di questa matrice. 4. la A
Slide 16
–1
si ottiene dividendo la Mx di cui al punto precedente per il det
Il cofattore di ars in A è indicato con Ars, un determinante di ordine (n – 1) ottenuto da A di ordine n eliminando la resima riga e la sesima colonna e applicandovi il segno (–1)r + s. Vi sono tanti cofattori quanti sono gli elementi e possono essere disposti in una matrice [Ars] di ordine n × n. Si scriva la trasposta di questa matrice, detta matrice aggiunta di A: A11 A [ Ars ]' = 12 ... A1n
A21 A22 ... A2 n
... An1 ... An 2 ... ... ... Ann
La matrice inversa si forma dividendo ogni elemento in [Ars]’ per il valore del determinante A, dato che A ≠ 0. Questa matrice è indicata con A –1. Definizione: A11 Ars 1 A12 −1 A = = | A | | A | ... A1n
A21 A22 ... A2 n
... An1 ... An 2 , (| A |≠ 0) ... ... ... Ann
E’ necessario che A sia quadrata e che A ≠ 0.
Proprietà dell’inversa.
A –1B ≠ B A (A –1)
–1
–1
=A
(A B) –1 = B–1 A (A’ )
–1
–1
= (A–1)’
Operazioni elementari e rango Operazione elementare: scambio di righe (o colonne); somma del multiplo h di una riga ad altra riga; prodotto di k per una riga. Matrice equivalente. A ottenuta da B per una sequenza di Slide 17
operazioni elementari. Propositi ed esempi Rango: submatrici; submatrici quadrate; ρ(A) = r, dove r è l’ordine massimo delle submatrici per le quali si ha Δ ≠ 0.
Trasformazioni lineari Una funzione F il cui dominio è lo spazio m-dimensionale ¡ m e la cui immagine è contenuta nello spazio n-dimensionale ¡ trasformazione lineare da ¡ m a ¡
n
n
è chiamata
se soddisfa la condizione
F(λ x + µ y) = λ F(x) + µ F(y)
Slide 18
per tutti i punti x e y di ¡
m
e tutti i numeri reali λ
e µ . A tale
trasformazione lineare F corrisponde una matrice F di dimensione n × m tale che, per tutti x ∈ ¡ m , si abbia: F(x) = F x,
ovvero, espresso in termini delle componenti di x,
(15)
Slide 19
x1 x F ( x1 , x2 ,..., xm ) = F 2 M xn
Si dice che F è una rappresentazione matriciale della trasformazione lineare F. Se m = n, per cui F trasforma ¡
m
in se stesso, allora F è una matrice
quadrata. In questo caso F è non singolare se e solo se F è biunivoca e ha l’intero ¡
m
come immagine.
La composizione di trasformazioni lineari è ancora una trasformazione lineare e quindi avrà una rappresentazione matriciale. La motivazione reale su cui si basa la definizione di moltiplicazione matriciale è che la rappresentazione matriciale di una composizione di trasformazioni lineari è il prodotto delle matrici individuali che rappresentano le trasformazioni della composizione. Slide 20
Se F è una trasformazione lineare da ¡
m
a ¡ n , rappresentata dalla
matrice F di dimensione n × m, e se G è una trasformazione lineare da ¡
n
a ¡ p , rappresentata dalla matrice G di dimensione p × n, allora la
composizione G o F(x1, x2,…, xm) = G(F(x1, x2,…, xm)) è essa stessa una trasformazione lineare da ¡
m
a ¡ p , rappresentata dalla matrice GF di
dimensione p × m. Risulta cioè: G(F(x)) = GFx
Equazioni lineari Un sistema di n equazioni lineari in n incognite: a11 x1 + a12 x2 + ... + a1n xn = b1 Slide 21
(16)
a21 x1 + a22 x2 + ... + a2n xn = b2 M an1 x1 + an 2 x2 + ... + ann x n = bn
può essere scritto in modo compatto come una singola equazione matriciale Ax = b,
dove
(17) Slide 22
a11 a12 K a a22 K A = 21 M M an1 an 2 K
a1n x1 b1 a 2n x2 b2 x = b = , , M M M ann xn bn
Confrontiamo l’equazione Ax = b con l’equazione ax = b per una sola incognita x. ax = b ha l’unica soluzione x = a–1b purchè a ≠ 0. Analogamente il sistema lineare Ax = b ha un’unica soluzione data da Ax = b a condizione che A sia non singolare.
Per vedere questo, si moltiplicano a sinistra per A–1 entrambi i membri dell'equazione Ax = b. Se A è singolare, allora il sistema Ax = b può avere o può non avere una soluzione, a seconda del vettore b, e se una soluzione esiste, allora non sarà unica. Consideriamo il caso b = 0 (vettore nullo). Allora qualunque vettore x perpendicolare a tutte le righe di A Slide 23
soddisferà il sistema. Siccome le righe di A giacciono in uno spazio di dimensione minore di n (poiché il det(A) = 0) vi sarà almeno una retta di tali vettori x. Quindi la soluzione di Ax = 0 non è unica se A è singolare. Lo stesso deve valere per il sistema ATy = 0: esisteranno vettori y non nulli che soddisfano l'equazione se A è singolare. Ma allora, se il sistema Ax = b ha qualche soluzione x, dobbiamo avere: (y ⋅ b) = yTb = yTAx = (xTATy)T = (xT0) T = (0)
Quindi Ax = b può avere soluzioni solo per quei vettori b che sono perpendicolari a ogni soluzione y di ATy = 0. Enunciamo ora, per concludere questo capitolo, un risultato di una certa importanza nella risoluzione dei sistemi lineari di n equazioni in n incognite. Regola di Cramer. Sia A una matrice non singolare n × n. Allora la Slide 24
soluzione x del sistema lineare Ax = b ha componenti date da x1 =
det(A n ) det(A 1 ) det(A 2 ) , x2 = , …, xn = det(A ) det(A ) det(A )
dove Aj è la matrice A in cui la j-esima colonna è stata sostituita dal vettore colonna b.
Differenziazione di vettori, forme quadratiche e bilineari. Se il vettore y dipende dal vettore x attraverso la forma y = Ax, esso può essere derivato rispetto ad x e la derivata è proprio la matrice A, detta matrice jacobiana o jacobiano. Slide 25
Anche le forma quadratiche (x’Ax) e bilineari (y’Bz) possono essere derivate (nel caso delle forme quadratiche). La formula della derivazione sfrutta la proprietà che A = AT e sono: ∂ ( x 'Ax ) = 2A x ; ∂x
∂ ( y 'Bz ) = Bz ; ∂ ( y 'Bz ) = B' y , ∂y ' ∂z
in termini di vettori colonna.