03

  • July 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View 03 as PDF for free.

More details

  • Words: 2,929
  • Pages: 13
Elementi di algebra matriciale Per matrice m × n si intende una tabella di mn numeri disposti in m righe ed n colonne. Tale matrice si suole indicare con A. Se aij è l’elemento della riga i-esima e della colonna j-esima, allora

Slide 1

(1)

 a11 a12 K  a a22 K A =  21  M M   am1 am 2 K

a1n   a 2n  M  amn 

Per abbreviare la notazione si scrive anche A = (aij). In questo caso si suppone che i vari da 1 a m e j vari da 1 a n. Se accade che m = n si dice che A è quadrata. Gli elementi aij della matrice che considereremo da qui in avanti saranno numeri reali.

Si chiama trasposta di una matrice A di dimensioni m × n la matrice AT oppure A’ di dimensioni n × m le cui righe sono le colonne di A:

Slide 2

(2)

AT

 a11 a21 K  a a22 K =  12  M M   a1n a2 n K

am1   am 2  M  amn 

La matrice A è detta simmetrica se AT = A. Le matrici simmetriche sono necessariamente quadrate. Si osservi che (AT)T\= A per qualunque matrice A.

Molto spesso si deve considerare un vettore n-dimensionale x come una matrice n × 1 avente n righe ed 1 colonna:

Slide 3

(3)

 x1    x x= 2  M    xn 

In quanto tale, x è chiamato vettore colonna. xT ha una riga ed n colonne per cui è chiamato vettore riga: (4)

xT = ( x1 , x2 ,..., xn )

Per matrici m × n è definita la somma (o differenza): A ± B = C = (cij). Ogni elemento cij = aij + bij Slide 4

La conformabilità per la somma delle due matrici richiede che esse siano dello stesso ordine. La somma è associativa e commutativa. Esempio

Gran parte dell’utilità delle matrici dipende dalla seguente definizione di moltiplicazione fra matrici, che permette di combinare due matrici, ottenendone una sola, e in modo da preservare le relazioni lineari. Se A = (aij) è una matrice m × n e B = (bij) è una matrice n × p, allora il prodotto AB è la matrice C = (cij) di dimensione m × p i cui elementi sono dati da: n

cij = ∑ aik bkj ,

Slide 5

i = 1, …, m,

j = 1,…, p

k =1

Due matrici A e B sono conformabili se è possibile il prodotto AB, ossia se sono di opportuna dimensione. Se la prima è m × n e la seconda è p × n esse non sono conformabili. La moltiplicazione matriciale è associativa, infatti: A(BC) = (AB)C. La moltiplicazione matriciale non è commutativa. Inoltre, può sorgere un problema di conformabilità, che impedisce che la moltiplicazione sia commutativa.

La matrice identità n × n è la matrice:

(11) Slide 6

1 0 I= M 0

0 1 M 0

K K O K

0 0 M 1

Ovviamente, I commuta con ogni matrice n × n: IA = AI = A. AB = IAB = AIB = ABI → A0nn = 0mn = 0mmA → Moltiplicazione con scalare

Moltiplicazione di matrici scomposte. Se

due

matrici

A

e

B

sono

opportunamente

scomposte,

la

loro

moltiplicazione può aver luogo come se le submatrici fossero elementi di una matrice, nel modo seguente:

| A12  B11 | B12   A11B11 + A12 B21 | A11 B12 + A12 B22  A 11      AB =  − − − − − −   − − − − − −  =  − − − − − − − − − − − − − − − − − − − −  A 21 | A 22  B 21 | B 22   A21B11 + A22 B21 | A21 B12 + A22 B22  purchè le submatrici come A11 e B11 siano appropriatamente conformabili. Questo risultato è generalmente vero e la moltiplicazione delle matrici per Slid

blocchi può essere interpretata come un’estensione della regola di

e7

moltiplicazione ordinaria. Ciò si può illustrare mostrando che:

B 1  M A 2 ]  L  = A1B1 + A 2B 2 B 2 

[ A1

Gli ordini di A1, A2, B1 e B2 devono essere, rispettivamente: 1xp; 1x(n-p); lx1; (n-l)x1. Nella slide seguente mostriamo gli ordini delle submatrici di A (mxn) e B (nxs) quando si voglia ottenere il prodotto AB usando le scomposizioni prima evidenziate delle 2 matrici. A ∈ ¡ m× n n p n–p l m

m– l

| A12  A 11 − − − − − −    A 21 | A 22 

B∈ ¡ q

n× s

s s–q

| B12  B 11 − − − − − −    B 21 | B 22 

p n– p

Sli de 8

A11 ∈ ¡

l× p

B11 ∈ ¡

p×q

A21 ∈ ¡

( m −l) × p

B 21 ∈ ¡

( n − p) ×( s − q)

A12 ∈ ¡ l ×( n− p ) B12 ∈ ¡ p×( s − q ) A22 ∈ ¡ ( m −l )× ( n− p ) B 22 ∈ ¡ ( n − p )×( s − q ) Nel matrice prodotto risultante è evidenziato qui di seguito che gli elementi della prima riga sono il prodotto di submatrici conformabili. A 11B 11 + A 12B 21    (l × p ) × ( p × q) [ l ( n − p ) ] × (n − p )( s − q )    A 21B 11 + A 22B 21 

A 11B 12 + A 12B 22

   (l × p) [ p ( s − q) ] l ( n − p) [ ( n − p )( s − q ) ]     A 21B 12 + A 22B 22 

Proprietà delle MX trasposte (A + B)T = A T + BT; (AB)T = BTA T ; (A T)T = A ; I T = I Se A T = A, A è una matrice simmetrica, ossia aij = aji. Se A ∈ ¡ Slide 9

n× n

, x’Ax è uno scalare (forma quadratica) nelle variabili x.

La matrice A può essere sempre scritta in modo che A = A’. Una simile matrice può servire per assegnare dei pesi alle variabili che compongono il vettore x, elevate al quadrato. (Interpretare x’Ix.) y’Az è detta forma bilineare ed è anch’essa uno scalare. La matrice A può servire per dare dei pesi alle combinazioni (prodotti) delle variabili che compongono i due vettori,

Determinante e matrice inversa In generale è possibile definire il determinante det(A) per una qualunque matrice quadrata. Per un matrice quadrata di dimensione n × n si indica il suo determinante come:

Slide 10

(5)

a11 a12 K a a22 K det(A ) = 21 M M an1 an 2 K

a1n a 2n M ann

Non cercheremo di dare una definizione formale di determinante, ma noteremo che un determinante n × n può essere sviluppato nei minori secondo qualunque sua riga o colonna, e quindi può essere espresso come somma di multipli di determinanti (n – 1) × (n – 1)

Continuando questo processo possiamo alla fine ricondurci al calcolo di (forse parecchi) determinanti 2 × 2 o 3 × 3, di cui ora daremo la definizione. Il determinante di una matrice A di dimensioni 2 × 2 risulta essere così definito: Slide 11

(6)

a b = ad – bc c d

Analogamente, un determinante 3 × 3 risulta essere così definito: (7)

a d g

b e h

c f = aei + bfg + cdh – gec – hfa – idb i

Si osservi ora che possiamo ricondurci al calcolo interattivo di determinanti di ordine 2 raccogliendo a fattor comune gli elementi della prima riga:

Slide 12

(8)

a d g

b e h

c f = a(ei – fh) – b(di – fg)+ c(dh – eg) i

(9)

=a

e h

f d −b i g

f d +c i g

e h

I determinanti 2 ×

2 così ottenuti vengono chiamati minori del

determinante 3 ×

3. Questo processo è chiamato sviluppo del

determinante 3 × 3 nei minori secondo la prima riga. Lo sviluppo dei minori può essere effettuato secondo qualunque riga o colonna.

Si noti che compare un segno “–“ in ogni termine il cui minore è ottenuto eliminando la riga i-esima e la colonna j-esima, quando i + j è un numero dispari. Ad esempio possiamo sviluppare il determinante precedente in minori lungo la seconda colonna nel modo seguente: Slide 13

a d g

(10) Naturalmente

questo

b e h

valore

c d f = −b g i coincide

f a c a +e −h i g i d con

quello

c f ottenuto

in

precedenza.

Per i determinanti è possibile enunciare le seguenti proprietà: • se due righe di un determinante si scambiano fra loro, il determinante cambia di segno; • se due righe di un determinante sono uguali il determinante ha valore nullo; Slide 14

• se un multiplo di una riga è sommato a un'altra riga, il determinante rimane inalterato. Se A e B sono due matrici n × n allora det(AT) = det(A). Inoltre det(AB) = det(A) det(B). Si dice che la matrice quadrata A è singolare se det(A) = 0. Se det(A) ≠ 0 si dice che A è non singolare.

L'inversa di una matrice quadrata A non singolare è una matrice quadrata non singolare A

(12)

–1

che soddisfa: AA

–1

=A

–1

=I

Ogni matrice quadrata non singolare A ha un’inversa A–1 unica. Inoltre l’inversa soddisfa

Slide 15

1 det(A )

(13)

det(A -1 ) =

(14)

(A–1)T = (AT) –1

Indichiamo ora il modo per calcolare l’inversa di una MX A. I passi sono i seguenti: 1. si calcolano i cofattori Ars di ogni elemento ars di A. 2. si dispongano tali cofattori in una MX. 3. si ottenga la trasposta di questa matrice. 4. la A

Slide 16

–1

si ottiene dividendo la Mx di cui al punto precedente per il det

Il cofattore di ars in A è indicato con Ars, un determinante di ordine (n – 1) ottenuto da A di ordine n eliminando la resima riga e la sesima colonna e applicandovi il segno (–1)r + s. Vi sono tanti cofattori quanti sono gli elementi e possono essere disposti in una matrice [Ars] di ordine n × n. Si scriva la trasposta di questa matrice, detta matrice aggiunta di A:  A11 A [ Ars ]' =  12  ...   A1n

A21 A22 ... A2 n

... An1  ... An 2  ... ...   ... Ann 

La matrice inversa si forma dividendo ogni elemento in [Ars]’ per il valore del determinante A, dato che A ≠ 0. Questa matrice è indicata con A –1. Definizione:  A11   Ars  1  A12 −1 A = =  | A |  | A |  ...   A1n

A21 A22 ... A2 n

... An1  ... An 2  , (| A |≠ 0) ... ...   ... Ann 

E’ necessario che A sia quadrata e che A ≠ 0.

Proprietà dell’inversa.

A –1B ≠ B A (A –1)

–1

–1

=A

(A B) –1 = B–1 A (A’ )

–1

–1

= (A–1)’

Operazioni elementari e rango Operazione elementare: scambio di righe (o colonne); somma del multiplo h di una riga ad altra riga; prodotto di k per una riga. Matrice equivalente. A ottenuta da B per una sequenza di Slide 17

operazioni elementari. Propositi ed esempi Rango: submatrici; submatrici quadrate; ρ(A) = r, dove r è l’ordine massimo delle submatrici per le quali si ha Δ ≠ 0.

Trasformazioni lineari Una funzione F il cui dominio è lo spazio m-dimensionale ¡ m e la cui immagine è contenuta nello spazio n-dimensionale ¡ trasformazione lineare da ¡ m a ¡

n

n

è chiamata

se soddisfa la condizione

F(λ x + µ y) = λ F(x) + µ F(y)

Slide 18

per tutti i punti x e y di ¡

m

e tutti i numeri reali λ

e µ . A tale

trasformazione lineare F corrisponde una matrice F di dimensione n × m tale che, per tutti x ∈ ¡ m , si abbia: F(x) = F x,

ovvero, espresso in termini delle componenti di x,

(15)

Slide 19

 x1    x F ( x1 , x2 ,..., xm ) = F  2   M    xn 

Si dice che F è una rappresentazione matriciale della trasformazione lineare F. Se m = n, per cui F trasforma ¡

m

in se stesso, allora F è una matrice

quadrata. In questo caso F è non singolare se e solo se F è biunivoca e ha l’intero ¡

m

come immagine.

La composizione di trasformazioni lineari è ancora una trasformazione lineare e quindi avrà una rappresentazione matriciale. La motivazione reale su cui si basa la definizione di moltiplicazione matriciale è che la rappresentazione matriciale di una composizione di trasformazioni lineari è il prodotto delle matrici individuali che rappresentano le trasformazioni della composizione. Slide 20

Se F è una trasformazione lineare da ¡

m

a ¡ n , rappresentata dalla

matrice F di dimensione n × m, e se G è una trasformazione lineare da ¡

n

a ¡ p , rappresentata dalla matrice G di dimensione p × n, allora la

composizione G o F(x1, x2,…, xm) = G(F(x1, x2,…, xm)) è essa stessa una trasformazione lineare da ¡

m

a ¡ p , rappresentata dalla matrice GF di

dimensione p × m. Risulta cioè: G(F(x)) = GFx

Equazioni lineari Un sistema di n equazioni lineari in n incognite: a11 x1 + a12 x2 + ... + a1n xn = b1 Slide 21

(16)

a21 x1 + a22 x2 + ... + a2n xn = b2 M an1 x1 + an 2 x2 + ... + ann x n = bn

può essere scritto in modo compatto come una singola equazione matriciale Ax = b,

dove

(17) Slide 22

 a11 a12 K  a a22 K A =  21  M M   an1 an 2 K

a1n   x1   b1       a 2n  x2    b2  x = b = , ,  M  M M      ann   xn   bn 

Confrontiamo l’equazione Ax = b con l’equazione ax = b per una sola incognita x. ax = b ha l’unica soluzione x = a–1b purchè a ≠ 0. Analogamente il sistema lineare Ax = b ha un’unica soluzione data da Ax = b a condizione che A sia non singolare.

Per vedere questo, si moltiplicano a sinistra per A–1 entrambi i membri dell'equazione Ax = b. Se A è singolare, allora il sistema Ax = b può avere o può non avere una soluzione, a seconda del vettore b, e se una soluzione esiste, allora non sarà unica. Consideriamo il caso b = 0 (vettore nullo). Allora qualunque vettore x perpendicolare a tutte le righe di A Slide 23

soddisferà il sistema. Siccome le righe di A giacciono in uno spazio di dimensione minore di n (poiché il det(A) = 0) vi sarà almeno una retta di tali vettori x. Quindi la soluzione di Ax = 0 non è unica se A è singolare. Lo stesso deve valere per il sistema ATy = 0: esisteranno vettori y non nulli che soddisfano l'equazione se A è singolare. Ma allora, se il sistema Ax = b ha qualche soluzione x, dobbiamo avere: (y ⋅ b) = yTb = yTAx = (xTATy)T = (xT0) T = (0)

Quindi Ax = b può avere soluzioni solo per quei vettori b che sono perpendicolari a ogni soluzione y di ATy = 0. Enunciamo ora, per concludere questo capitolo, un risultato di una certa importanza nella risoluzione dei sistemi lineari di n equazioni in n incognite. Regola di Cramer. Sia A una matrice non singolare n × n. Allora la Slide 24

soluzione x del sistema lineare Ax = b ha componenti date da x1 =

det(A n ) det(A 1 ) det(A 2 ) , x2 = , …, xn = det(A ) det(A ) det(A )

dove Aj è la matrice A in cui la j-esima colonna è stata sostituita dal vettore colonna b.

Differenziazione di vettori, forme quadratiche e bilineari. Se il vettore y dipende dal vettore x attraverso la forma y = Ax, esso può essere derivato rispetto ad x e la derivata è proprio la matrice A, detta matrice jacobiana o jacobiano. Slide 25

Anche le forma quadratiche (x’Ax) e bilineari (y’Bz) possono essere derivate (nel caso delle forme quadratiche). La formula della derivazione sfrutta la proprietà che A = AT e sono: ∂ ( x 'Ax ) = 2A x ; ∂x

∂ ( y 'Bz ) = Bz ; ∂ ( y 'Bz ) = B' y , ∂y ' ∂z

in termini di vettori colonna.

Related Documents

03
November 2019 43
03
November 2019 35
03
November 2019 37
03
October 2019 32
03
October 2019 38
03
July 2020 24