Geometria Ed Algebra Lineare

  • June 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Geometria Ed Algebra Lineare as PDF for free.

More details

  • Words: 12,177
  • Pages: 20
Università degli Studi di Trieste Piazzale Europa 1, 34100 Trieste Facoltà di INGEGNERIA Corso di Laurea in INGEGNERIA INFORMATICA Anno Accademico 2001/2002

Geometria ed algebra lineare

Studente: Giorgio Davanzo [email protected]

Docente: Prof. Michela Brundu

GEOMETRIA di Giorgio DAVANZO

STRUTTURE ALGEBRICHE ELEMENTARI: Prodotto cartesiano: presi due insiemi A,B (anche ∞) si dice prodotto cartesiano AxB={(a,b)| a∈A, b∈B}, dove (a,b) è la generica coppia ordinata. Relazione binaria: sia A insieme; una relazione binaria in A è un sottoinsieme di AxA detto R. Due elementi di A a,b sono in relazione tra loro se (a,b)∈ R e si scrive a R b Relazione d’equivalenza: è una relazione binaria con le seguenti proprietà (es: uguaglianza, triangoli simili,//):  riflessiva: aRa ∀a∈A;  simmetrica: aRb => bRa ∀a,b∈A;  transitiva: aRb e bRc => aRc ∀a,b,c∈A; Classe d’equivalenza: sia A dotato di una R. ∀a∈A l’insieme {x∈A | xRa} si dice classe d’equivalenza di a e si scrive [a]. Ogni x di [a] si dice rappresentante di [a]. Una classe gode delle proprietà:  se aRb allora [a]=[b];  se (a,b)∉R, allora [a]∩[b]=∅;  l’unione A=Ua∈A[a] è disgiunta. Insieme quoziente: {[a] | a∈A}, indicato con A/R, è l’insieme quoziente di A modulo R; si dice proiezione normale sul quoziente l’applicazione π: A→A/R definita da π(x)=[x];

GRUPPI: Struttura algebrica: insieme dotato di una o più operazioni (se sono più di una devono essere compatibili). Operazione binaria: un’operazione binaria * nell’insieme G è f:GxG→G. Il risultato dell’operazione tra due elementi a e b si denota a * b; (G,*) indica che nella struttura algebrica G è presente l’operazione *. Definizione proprietà: sia G dotato dell’operazione binaria *:  associativa: * è associativa se a*(b*c)=(a*b)*c ∀a,b,c ∈ G  commutativa: * è commutativa se a*b=b*a ∀a,b ∈ G. Elemento neutro: sia (G,*); e è elemento neutro di G se a*e=e*a=a ∀a ∈G. Se (G,*) ha elemento neutro si scriverà (G,*,e). Inverso (o opposto se * è la somma): (G,*,e) y∈G si dice inverso di x∈G se x*y=y*x=e. Gruppo: sia (G,*); se valgono le proprietà (G,*,e) è un gruppo:  * è associativa;  ∃ e∈G che sia elemento neutro rispetto a *;  ∀x∈G, ∃ y∈G inverso di x. Se inoltre * è commutativa allora G è un gruppo commutativo o abeliano. Se (G,*,e) è un gruppo allora • l’elemento neutro è unico; • l’inverso di un elemento è unico; Anello: sia A un insieme con 2 operazioni binarie +, •. A è un anello se:  (A, +, OA) è un gruppo commutativo  • (cioè il prodotto) è associativo  1 è elemento neutro rispetto al prodotto  (a+b)•c=ac+bc; c(a+b)=ca+cb ∀a,b,c ∈A Anello commutativo: un anello è commutativo se anche • è commutativo. Notazione: (A,+,0A,•,1A). Per esempio, (Z,+,0Z,•,1Z) è un anello commutativo ma (Z,•,1Z) non è un gruppo (mancano i reciproci). n

Anello dei polinomi a coefficienti interi: p(x)= ∑ ai x con ai∈Z e n∈N grado del polinomio se an≠ 0. Chiamiamo i

i =o

Z[x] l’insieme dei polinomi ad una variabile x a coefficienti in Z, cioè l’insieme dei p(x). L’insieme Z[x] è un anello commutativo le cui operazioni sono: max( n , m )

∑ ci x i con ci=ai+bi dove a e b sono i coefficienti di p(x) e q(x).



p(x)+q(x)=



p(x)•q(x)= ∑ hi x e hi= Σ

i =o n+m i =o

i

j+k=1

ajbk .

CLASSI DI RESTO:

Si consideri in Z la relazione aR2b (a,b∈Z) <=> a-b=2q per qualche q∈Z. R è una relazione di equivalenza e le classi di equiv. di Z/R2 sono due: [0]=[2]=..=[2n] e [1]=[3]=..=[2n+1]. In generale, per p∈N si definisce la r.d.eq. Rp e, con le operazioni di somma e prodotto, Rp diventa un anello commutativo.

NUMERI RAZIONALI: Z*=Z\{0}; definiamo Q=(ZxZ*)/R dove R è la relazione (a,b)R(c,d) ad=bc; questa è una r.d.eq e si scrive [(a,b)]=a/b. N.B.: N non è un anello; Z è un anello; Q è un gruppo abeliano (ha il reciproco). Campo: sia K un anello commutativo; K è un campo se ogni elemento non nullo ammette inverso moltiplicativo. es: Q,R,C sono campi e anche Zp se p è primo. n Esempio: K campo; K[x]= {polinomi a coefficienti reali in K}; p(x)= ∑ ai x i con ai∈K i =o ; allora K[x] è un anello commutativo.

VETTORI GEOMETRICI: Vettore applicato: è determinato da direzione, verso, modulo e punto di applicazione. Detto S uno spazio ordinario e A,B∈S; il vettore B-A ha per direzione la retta AB, verso da A a B, modulo ||B-A|| la lunghezza del segmento e punto di applicazione in A. Notazione: W3 è l’insieme dei vettori applicati nello spazio S, cioè W3={B-A| A,B∈S}. VA3 ={B-A|B∈S}⊂ W3 è l’insieme dei vettori applicati in A. Si osservi che W3=UA∈S VA3 . Osservazione: fissato O, Vo3={B–O|B∈S}è in corrispondenza biunivoca con S. Somma di vettori: avviene con la regola del parallelogrammo e ha come proprietà: 1) esiste l’elemento nullo O–O; 2) è commutativa; 3) è associativa; 4) esiste l’opposto: è identico all’originale ma con verso opposto.Proposizione: (Vo3, +, 0) è un gruppo commutativo. Prodotto di uno scalare per un vettore: v=A–O, λ v ha direzione di A–O, modulo pari a |λ |·||A–O|| e verso pari a A–O se λ >0, opposto se <0. Se λ =0, λ v è il vettore nullo per definizione. Proprietà: λ ,µ ∈ R e A,B∈S  λ (µ (A–O))=(λ µ )(A–O)  1(A–O)=(A–O)  (λ +µ )(A–O)=λ (A–O)+µ (A–O)  λ ((A–O)+(B–O))=λ (A–O)+λ (B–O) Spazio vettoriale reale: Un insieme V non vuoto si dice R-s.v. se (es.: Vo3): 1. in V è definita la somma 2. è definito un prodotto tra elementi di V e scalari di R 3. sono soddisfatte le proprietà:  ∃ un elemento 0v tale che (V,+,0v) sia un gruppo commutativo  ∀ λ , λ ’ ∈R, ∀ v, v’ ∈V: a. (λ +λ ’)v = λ v+λ ’v b. λ (v+v’) = λ v+λ v’ c. λ (λ ’v) = ( λ λ ’)v d. 1·v = v Isomorfismo: V,V’ R-s.v.; un’applicazione biunivoca f: VV’ si dice isomorfismo se ∀u,v∈V  ∀u,v∈V f(u+v)=f(u) + f(v)  ∀ λ∈ R, ∀v∈V f(λ v)= λ ·f(v) Vettori liberi: sia nell’insieme W3 dei vettori applicati nello spazio la rel.d’eq. (B–A)R(D–C)<=> B–A e D– C sono equipollenti, cioè se sono i vertici ordinati di un parallelogramma; l’insieme V3=W3/R è l’insieme dei vettori liberi: dunque un vettore libero è costituito da infiniti vettori applicati. Scriveremo v=vett.libero=[B– A]=B–A. trasferimento di proprietà: se scelgo ∀v∈V3 un rappresentante applicato in un punto fisso O∈S (cioè v=A–O) esiste una corrispondenza biunivoca tra V3 e Vo3: v=[A–O]→A–O e, viceversa, [B–O]←B–O; in questo modo trasferisco la struttura di R-s.v. da Vo3 a V3, cioè definisco la somma di vettori (v+w=[(A–O)+Vo³(B–O)]) è il prodotto per scalare (λ v=[λ (A–O)]). Tali operazioni rendono V3 un R-s.v. automaticamente.

SISTEMI DI RIFERIMENTO:

Terna destrorsa: preso un sistema di 3 assi ortogonali, guardando dall’asse z si vede y andare verso x compiendo π /2 gradi in senso antiorario. Sistema di riferimento cartesiano ortogonale: Nello spazio S un sistema cartesiano ort. Σ è dato da:  un punto O∈S  una terna destrorso di vettori a due a due ortogonali: i=[A–O],j=[A2–O], k=[A3–O] con ||Ai–O|| costante. ||A1–O|| si dice unità di misura di Σ , mentre i,j,k sono i versori fondamentali (vettori con modulo 1), attraverso cui è possibile individuare ogni vettore dello spazio. Questo sistema si indica Σ =(O;i,j,k). Componenti del vettore: preso un vettore v∈V3; v=x·i+y·j+z·k= vx·i+vy·j+vz·k ; x,y,z sono le componenti. Modulo: v∈V3 e v=(vx,vy,vz). ||v||=√( vx2+vy2+vz2) Operazioni: ∀v=(vx,vy,vz) e w=(wx,wy,wz) ∈V3, ∀ λ∈ R si ha:  v+w=(vx+wx, vy+wy, vz+wz).  λ v=(λ vx, λ vy, λ vz). Proposizione: per la linearità di V3 e R3, V3 è in relazione biunivoca con R3 e R3 è un R-s.v. con le operazioni sopra descritte. Corollario: V3 e R3 sono isomorfi e si in dica con V3≅ R3.

SPAZI VETTORIALI: K-spazio vettoriale: sia V un insieme non vuoto, K un campo; siano date le operazioni di somma S:VxVV e di prodotto per scalare P:KxVV tali che:  (V,+,Ov) sia un gruppo commutativo  ∀ λ , λ ’ ∈K, ∀ v, v’ ∈V: • (λ +λ ’)v = λ v+λ ’v • λ (v+v’) = λ v+λ v’ • λ (λ ’v) = ( λ λ ’)v • 1k·v = v allora V si dice K-spazio vettoriale (o spazio vett. su K). Un elemento di V si dice vettore. Kn={(x1,..,xn)|xi∈K} Notazione: v=(x1,…,xn)∈Kn; xi è la i-esima componente di v; se K=R ogni elemento di Kn si dice n-upla reale. Il campo dei complessi: C è un campo con somma e prodotto si definisce il prodotto di reale per complesso (z=a+ib∈R se b=0)è un R-spazio vettoriale. (come lo è anche K[x]). Polinomi di grado limitato: r∈N, k[x]r={polinomi ∈k[x] con grado≤r}è un K-s.v.;ha grado <0 se è il pol.nullo Proposizione: se V,V’ sono K-s.v., allora VxV’ è un K-s.v. rispetto alle operazioni di somma e prodotto. Osservazione: poiché (v,+,0v) è un gruppo commutativo (additivo) si ha: • 0v è unico. • l’opposto è unico. • vale la legge della cancellazione della somma: a,b,c∈V. se a+c=b+ca=b. IV.1.6 - Proprietà dei K-s.v.: sia V un K-s.v.; ∀k∈K, ∀v∈V si ha che: i. 0k·v=0v ii. k·0v=0v iii. k·v=0v, allora o k=0k o v=0v. iv. (–k)v= –(kv)=k(–v). Legge di annullamento del prodotto vettore-scalare: deriva da i.+ii.+iii. ; k·v=0v ↔ k=0k V v=0v

SOTTOSPAZI VETTORIALI: Definizione di ssv: sia V un k-s.v.; W si dice sottospazio vettoriale di V se è uno spazio vettoriale rispetto alle stesse operazioni di V. Se W⊆V sono equivalenti: i. W è un sottospazio vettoriale di V ii. W è chiuso rispetto alle due operazioni di V, cioè i loro risultati appartengono a W iii. W è chiuso rispetto alle combinazioni lineari, cioè λ v+λ ’v’ ∈W Sottospazi banali: {0v}è un ssv di V, come lo è anche V stesso: sono sempre presenti in uno s.v., rappresentando il più piccolo ed il più grande ssv ma sono detti banali perché non danno informazioni sullo s.v. Retta vettoriale: v(≠ 0v)∈V; la retta vettoriale generata da v è L(v):={λ v|λ ∈ K}. Passa sempre per l’origine perché 0kv=0v e ogni L(v) è un ssv. IV.2.2 -

IV.2.3 - Intersezioni di

ssv: siano W1 e W2 due ssv di V (K-s.v.). Allora W1∩W2 è un ssv di V. Unione di ssv: in generale l’unione non porta a ssv; si pensi alla somma di due rette vettoriali: il vettore somma è la diagonale del parallelogramma  non appartiene alle due rette. IV.2.5 - Sottospazio somma: siano W1 e W2 ssv di V e W1+W2:={v∈V|v=w1+w2; w1∈W1; w2∈W2}. Allora W1+W2 è il più piccolo ssv di V contenente W1∪W2, cioè la somma è contenuta in tutti i ssv contenenti l’unione.

COMBINAZIONI LINEARI: Definizione di combinazione lineare: V K-s.v.; v1,…,vn∈V. un vettore V è combinazione lineare di v1,…,vn se ∃ λ 1,…,λ n∈K tale che v=λ 1v1+…+λ nvn. Le comb. lin. di v1…vn si denotano con L(v1,…,vn). IV.3.2 - Teorema: L(v1,…,vn) è un ssv generato da v1,…,vn. Spazio vettoriale finitamente generato: V K-s.v. si dice finitamente generato se ∃ v1,…,vn∈V tali che V=L(v1, …,vn). Allora v1,…,vn si dice sistema di generatori per V. Vettori linearmente indipendenti: dato un insieme di vettori I={v1,…,vn} di un K-s.v. essi si dicono linearmente indipendenti sei il vettore nullo si ottiene come loro combinazione lineare solo con coefficienti nulli, cioè λ 1v1+…+λ nvn=0v  λ 1=…=λ n=0k. I è libero se ogni suo sottoinsieme finito lo è. IV.3.6 - Proprietà relative agli insiemi di vettori: sia I={v1,…,vn} e V un K-s.v.; Valgono: 0v∈II non è libero. i. se n=1, cioè I={v1}, allora I è libero (se v1≠ 0v). molto importante: I non è libero ↔ almeno uno dei vi è combinazione degli altri.

ii. iii.

se I non è libero e J⊇ I  J non è libero se I è libero e J⊆ I  J è libero.

iv. v.

V è K-s.v.; v1,…,vn ∈V. Sono equivalenti: v1,…,vn sono linearmente indipendenti v1≠ 0v e ogni v non è comb. lin. dei precedenti.

IV.4.1 - Teorema:

i. ii. IV.4.2 -

Teorema: Ogni sistema finito di generatori contiene un sistema libero di generatori. dim: I={v1,…,vn}

generatori di V K-s.v.; I1:={v1∈I | v1≠ 0v}; I1 genera V. Osserviamo ora v2: ci sono due possibilità; 1) se ∈L(v1) allora I2:=I1\{v2}. 2) se ∉ L(v ) allora I :=I . E’ un procedimento ricorsivo, e I ⊇ I : I genera V perché L(I )=L(I )=V. Questo è il metodo degli scarti 1

2

1

i

i+1

2

1

2

successivi.

BASI: Base di V: sia V un K-sv; un suo sistema libero di generatori si dice base di V. (è un teorema!!!). In altre parole, una base è un insieme ordinato di vettori e si indicherà con parentesi rotonde. Corollario: ogni spazio vettoriale finitamente generato ammette una base. IV.4.5 - Teorema: Un insieme I={v1,…,vn} è libero se e solo se ogni elemento di L(v1,…,vn) si scrive in modo unico come combinazione lineare di v1,…,vn. In particolare, I=(v1,…,vn) è una base di V ses ogni v∈V si scrive in modo unico v=λ 1v1+…+λ nvn. Notazione: sia I=(v1,…,vn) una base di V K-sv; ∀v∈V esiste un’unica scrittura v=λ 1v1+…+λ nvn e λ 1,…,λ n si dicono componenti di v rispetto a I e si scrive v=(λ 1,…,λ n)I Base canonica: e1=(1,0,0,….0) e2=(0,1,0,…0) en=(0,…,0,1). E=(e1,…,en) è la base canonica, l’unica base in cui gli elementi di v coincidono con le componenti: v=(α 1,… α n)= α 1e1+…+α nen=(α 1,… α n)E Componenti di somma e prodotto per scalare: sono la somma e il prodotto per scalare delle componenti. 4.4.11Teorema del completamento ad una base: Sia V un K-sv finitamente generato; allora ogni insieme libero di vettori è contenuto in una base. Osservazione.: l’insieme che si ottiene non è più libero (i v1 generavano già tutto lo spazio). Teorema: Sia V un K-sv avente una base di n elementi; allora: 1. Ogni insieme libero di V è finito e ha al più n elementi 2. Ogni base di V ha n elementi 3. Ogni sistema di generatori di V ha almeno n elementi. Corollario: Ogni sistema di generatori di n elementi è una base, come anche ogni insieme libero di n elementi.

Dimensione di V: V K-sv finitamente generato; si dice dimensione di V il numero di elementi di una sua qualunque base e si indica con dim(V). dim(0v)=0, e dim(V)=∞ se V non è finitamente generato. Inoltre se W è un ssv di Vdim W ≤ dim V. IV.5.3 - Corollario: V K-sv; dim(V)=n; v1,…,vn ∈V. Sono equivalenti: i. (v1,…,vn) è una base ii. {v1,…,vn} è un insieme libero iii. {v1,…,vn} è un sistema di generatori. IV.5.4 - Teorema di Grassmann: V è K-sv; U,W ssv di V. Allora dim(U+V)=dim(U)+dim(W)–dim(U∩W).

MATRICI: Matrice: una matrice mxn (n,m ∈N+) a elementi in K è una tabella di elementi di K di m righe e n colonne; si indica anche con A=(aij) e aij è l’elemento che occupa la i-esima riga e la j-esima colonna Matrici particolari: matrice riga: se m=1; matrice colonna: se n=1; matrice quadrata: se n=m>1. gli elementi del tipo aii sono la diagonale principale di A. Matrici e vettori: una matrice può essere vista anche come una tabella di vettori riga o vettori colonna. Si indica con Km,n := {matrici mxn a elementi in K} e Kn,n := {matrici quadrate di ordine n a elementi in K}. Matrice nulla: è la matrice E=(eij) con eij =0 sempre; è indicata con 0(km,n) . Operazioni: A,B ∈Km,n A=(aij) e B=(bij). λ ∈ K. Si definiscono le operazioni: • somma: A+B=C∈Km,n dove C=(cij) e cij := aij + bij ∀i=1,…m ∀j=1,…,n . • prodotto per scalare: λ A=D ∈Km,n dove D=(dij) e dij := λ aij . Osservazione (Km,n è un gruppo comm.): la somma è associativa e commutativa e ogni A∈Km,n ammette opposto  Km,n è un gruppo commutativo; inoltre il prodotto scalare è distributivo,…,Km,n é un K-sv. Proposizione (dimensione di Km,n): col le operazioni precedenti Km,n è un K-sv di dimensione mn. Matrice prodotto: A=(aij)∈Km,n e B=(bij)∈Kn,p . AB=C=(cij)∈Km,p è la matrice prodotto di A per B, dove cij= n

∑ aik ⋅ bkj cioè i-esima riga di A per j-esima colonna di B. Ha come proprietà: i =1

• non è commutativo • è associativo , cioè A(BC)=(AB)C (lo si verifica calcolando le dimensioni delle matrici risultanti dai sottoprodotti) • distributivo rispetto alla somma: A(B+C)=AB+AC Corollario: Km,n è un anello non commutativo Matrice identica: In ∈Kn,n = (aij) con aij pari a 1 se i=j, 0 se i≠ j. Gruppo lineare generale: è l’insieme delle matrici invertibili di Kn,n. sin indica con GL(n,K). Matrice trasposta: data A=(aij) di dice trasposta di A la matrice tA=(bij) con bij=aji ∀i,j. Proprietà: • A,B∈Km,nt(A+B)= tA+tB • A∈Km,n, B∈Kn,p  t(AB)=tBtA (≠ tAtB) • se A∈GL(n)t(A)∈GL(n) e (tA)–1 = t(A-1). Matrice simmetrica: A∈Kn,n se A=tA si dice simmetrica. Spazio delle righe e delle colonne: Km,n ∋ A=(aij) che può essere espressa come: • una colonna di vettori riga t(R1…Rn) dove Ri=(ai1,…,ain) è il vettore riga e ∈Kn. Le righe generano L(R1, …,Rm)⊆Kn che si dice spazio delle righe di A: R(A). • una riga di vettori colonna dove Cj è il vettore colonna ∈Km. Come le righe, C(A):=L(C1,…,Cn) è lo spazio delle colonne di A. Teorema: A∈Km,n. Allora dim(R(A))=dim(C(A)) e tale numero si dice rango di A, indicato con ρ (A). Corollario: ρ (A)=ρ (tA). V.2.9 - Sottomatrice: una sottomatrice si ottiene intersecando p righe e q colonne di A. Se B è una sottomatrice di A, allora ρ (A)≥ ρ (B). Da questo deriva che se B è ottenuta da A aggiungendo righe nulle ρ (A)=ρ (B) perché R(A)=R(B). Matrice diagonale: A∈Km,n; A=(aij) è diagonale se aij=0 ∀i≠ j; allora ρ (A) è il numero * * * *   a11 di elementi non nulli della diagonale.   ... * * *   0 Matrici triangolari: sia A∈Km,n. Vi sono tre tipi di triangolare:  0 0 ... * *    • TS: triangolare superiore, cioè sotto la diagonale principale ci sono solo 0 0 0 ... *   0 • TI: triangolare inferiore, cioè sopra la diagonale principale ci sono solo 0  0 0 0 0 a nn   • TSC(TIC): triangolare superiore completa: aij = 0 ∀j
A∈Kn,n è TSC; allora ρ (A)=n. Proposizione: A∈K TSC; posto p=min(m,n) allora la sottomatrice di A ottenuta intersecando le prime p righe e le prime p colonne è TSC quadrata di ordine p. In particolare ρ (A)=p. Osservazione: la sottomatrice B ottenuta da A permutando le righe ha lo stesso rango (lo stesso per le colonne) Matrice ridotta per righe: A matrice si dice ridotta per righe se, eliminate le eventuali righe nulle, esiste una permutazione delle colonne per cui si ottiene una TSC che sotto al termine amm ha solo elementi nulli. Teorema (indipendenza lineare): se A è una matrice ridotta per righe allora le righe non nulle sono linearmente indipendenti; il numero di righe non nulle è ρ (A). Teorema di caratterizzazione delle matrici ridotte: una matrice è ridotta per righe se e solo se verifica la seguente proprietà: in ogni riga non nulla esiste un elemento non nullo al di sotto del quale ci sono solo zeri; gli elementi non nulli che al di sotto hanno solo 0 sono detti elementi speciali. Conversione di matrici qualunque: avviene per mezzo delle trasformazioni elementari, che sono: S) scambio; λ ) moltiplicazione per scalare ≠ 0; D) RiRi+α Rj . V.4.2 Matrice trasformata per righe di A: se R(A)=R(B) allora B si dice che è trasformata per righe di A;Se B si ottiene da A con una successione di trasformazioni elementari allora B è trasf.ta per righe di A e ρ (A)=ρ (B). Applicazioni (calcolo di una base di V): sia V=L(v1,…,vr)⊂Kn. Voglio determinare una base di V: scrivo la matrice A che ha sulle righe i vettori di V; V=R(A). Ora la riduco per righe e il rango che ottengo è la dim(V). V.2.13 - Proposizione (rango di una tsc quadrata): m,n

SISTEMI LINEARI: Equazione lineare: un’equazione in n incognite a coefficienti in campo K si dice lineare se è della forma a1x1+ …+anxn=b con a1,b∈K. Le xi si dicono incognite, mentre una sua soluzione è α 1,…,α n tale che a1α 1+… +α nxn=b . Osservazione: mentre la prima è un’equazione la seconda è un’eguaglianza tra insiemi. Sistema lineare: è dato da un’insieme di equazioni lineari e si indica con Σ . Una sua soluzione è α 1, …,α n∈Kn che è soluzione di ogni equazione di Σ . Matrice dei coefficienti: quella che ha su ogni riga i coefficienti di un’equazione del sistema; si indica con A. Matrice completa: è la matrice dei coefficienti a cui si aggiunge alla fine una colonna contenente i termini “b”. Si in dica con (A,B). Sistema risolubile o compatibile:se Σ ha soluzioni si dice che è risolubile (o compatibile), altrimenti lo si definisce incompatibile. Spazio delle soluzioni: l’insieme delle soluzioni di Σ . Sistema rindondante: se tutte le equazioni di Σ sono linearmente combinate. Sistemi equivalenti: due sistemi sono equivalenti se lo spazio delle soluzioni è lo stesso per entrambi. Notazione: sia AX la matrice contenente sulle righe i termini “ax” del sistema; allora Σ : AX=B . Sistema ridotto: un sistema è ridotto se A è ridotta per righe; allora Σ si risolve col metodo delle eliminazioni successive, ma prima di togliere righe nulle si deve controllare che Σ non sia incompatibile. Notazione: si indica con ∞ k le infinite soluzioni dipendenti da k parametri. k=numero incognite – ρ (A). Teorema: sia AX=B un sistema lineare e (A’,B’) la matrice trasformata per righe di (A,B). Allora i sistemi AX=B e A’X=B’ sono equivalenti. Σ : a11x1+…+a1mxn=b1 ; Σ ’: (a11+λ a21)x1+…+(a1n+λ a2n)xn=b1+λ b2 . Teorema di Rouchè–Cappelli: Sia Σ : AX=B un sistema lineare a n incognite; ρ =ρ (A). Allora: a) Σ è risolubile se e solo se ρ (A,B)=ρ (A). b) se è risolubile le incognite libere sono in numero n–ρ c) si possono scegliere come incognite libere quelle corrispondenti a colonne di A tali che le restanti colonne siano linearmente indipendenti. Sistemi omogenei: un sistema Σ : AX=B è omogeneo se la matrice B è composta di soli 0. Un sistema omogeneo è sempre risolubile; lo si vede sostituendo a X: (0…0). Proposizione (dimensione di SΣ ): Σ : AX=B in n incognite. Allora SΣ ⊆Kn è un ssv di Kn di dimensione n-ρ (A).

APPLICAZIONI LINEARI: Matrice associata ad un’applicazione: sia A=(aij)∈Km,n a cui associo f:KnKm definita da f(X)=AX dove X è una matrice formata solo da una colonna. Dalle proprietà del prodotto di matrici si ricavano le proprietà: • L1 additività: f(X+Y)=A(X+Y)=…dim : eseguire i calcoli=f(X)+f(Y). • L2 omogeneità: f(λ X)= λ f(X).

Applicazione lineare: V,W K-sv e f:VW applicazione; f si dice lineare se verifica L1 e L2. Si può generare il procedimento per associare un’applicazione ad una matrice a spazi vettoriali qualunque. Siano V,W K-sv e B=(v1,…,vn), C=(w1,…,wn) due rispettive basi. Ad una matrice A=(aij)∈Km,n si associa l’applicazione f: VW definita come segue: ∀v∈V v=v1x1+…+vnxn=(v1,…,vn)B ∈V. Posto X=t(x1,…,xn) ∈Km, AX=t(y1,…,yn). w:=(y1, …,yn)c∈W. Definisco f(v)=w, cioè f((x1,…,xn)B)=(At(x1,…,xn))C . La f così definita si denota con fAB,C. Proposizione: con la notazione precedente fAB,C è lineare. Matrice associata a f: data un’applicazione lineare f:VW, con B base di V e C base di W si può associare a f una matrice MfB,C; definiamo la prima colonna di MfB,C come le componenti rispetto a C del primo vettore di B, e così via fino all’n-esimo vettore di B. Proposizione: V,W K-sv, B e C rispettive basi. • se f:VW, posta A= MfB,C, allora fAB,C≡ f. • se A∈Km,n, posta fAB,C=f allora MfB,C=A. Corollario: fissati W,V,B e C esiste una corrispondenza biunivoca tra {f:Vw lineari} e Km,n VII.1.7 - Proposizione (proprietà appl.lin.): • f(av1+bv2)=a·f(v1)+b·f(v2) • f(Σ aivi)=Σ aif(vi) • f(0v)=0w • f(–v)=-(f(v)) VII.1.10 - Proposizione: v,w K-sv. B=(v1,…,vn) base di V e siano w1,…,wn ∈W; allora ∃ ! applicazione lineare f:VW tale che f(vi)=wi ∀i. Osservazione: le colonne di A sono le componenti dei wi rispetto a C. Immagine: A,B insieme; f: AB applicazione. B⊇Im(f):={y∈B| ∃ x∈A: f(x)=y} Nucleo: sia V,W k-sv; f:VW applicazione lineare. Ker(f):={x∈V|f(x)=0w}⊆V. Proprietà: • ker(f) è un ssv di V. • Im(f) è ssv di W. • se B=(v1,…,vn) è una base di VIm(f)=L(f(v1),…f(vn)). Osservazione (sul nucleo e i sistemi): A=MfB,C. Ker(f)={(x1,…,xn)B∈V| (At(x1,…,xn))C=0w}={(x1,…,xn)B∈V| (At(x1,…,xn)=t(0…0)}={(x1,…,xn)B∈V| ((x1,…,xn)∈SΣ } dove Σ : AX=0. Proposizione: f:VW applicazione lineare; dim ker(f)=dim(SΣ )=dimV–ρ (A) dove A è una qualunque matrice associata ad f. Controimmagine di w: f–1(w):={v∈V|f(v)=w}⊂V è eventualmente vuoto. Se w=0w, allora f–1(0w)=ker f Proposizione (come calcolare f–1(w)): posto A=MfB,C e B=t(y1,…,ym) f–1(w) è in rel. biunivoca con SΣ , dove Σ :AX=B. VII.2.2 - Proposizione (calcolo dell’immagine): f:VW B base di V; allora Im(f)=L(f(v1),…,f(vn)). A=MfB,C. Si prova che facilmente che la corrispondenza binaria Km⊃C(A)⇔Im(f)= L(f(v1),…,f(vn)) è isomorfismo di K-s.v. Bisogna ridurre per colonne la matrice A: le colonne non nulle di A’ sono una base per C(A). Oppure, si può calcolare ρ (A) e scegliere ρ (A) colonne linearmente indipendenti. Criterio di iniettività: f: VW; sono equivalenti: i. f è iniettiva ii. ker f={0v} iii. ρ (A)=dim (V), ∀A associata ad f. Osservazione (sull’iniettività): n=dimV, m=dim W. A∈Km,n. Se f è iniettiva allora n≥ m di sicuro, cioè dimW≥ dimV. Criterio di surriettività: f:VW; è surriettiva se dim(V)≥ dim(W); è equivalente a dire che ρ (A)=dim W. Proposizione: dim ker(f)+dim Im(f)=dim V. dim: ovvia, vedi sopra. VII.2.19 - Criterio di isomorfismo: un’applicazione lineare è un isomorfismo se è iniettiva e surriettiva, cioè se dimV=dim W Corollario: se V K-sv, allora V è isomorfo a Kn, per n opportuno. Composizione di applicazioni lineari: V,W,Z K-sv. f:VW, g:WZ sono applicazioni lineari; (g○f)(v):= g(f(v). Notazione: si indica con VB lo spazio vettoriale V riferito alla base B.

Teorema (sulla composta): f:VW, g:WZ sono applicazioni lineari; B,C,D basi rispettive di V,W,Z. M g○fB,D= MgC,D·MfB,C. Proposizione: una applicazione lineare è invertibile ⇔è biunivoca ⇔ è iniettiva e surriettiva Proposizione: f:VW a.l.; sono equivalenti: i. f è invertibile ii. f è isomorfa iii. ∀B base di V, ∀C base di W MfB,C è quadrata e invertibile: (MfB,C)–1= MfC,B. Cambiamento di base: V k-sv; B,C basi di V. v∈V, v=(x1,…,xn)B=(y1,…,yn)C. Allora MidVB,C · t(x1,…,xn)= t(y1, …,yn). Matrice del cambio di base:la matrice MidvB,Csi indica con MB,Ce si chiama matrice del cambio di b. da B a C. Matrice del cambio di base inverso: è la matrice MC,B=(MB,C)–1. MC,B · MB,C=MB,B=IV VII.5.6 - Teorema: f:VW appl.lineare, B e B’ basi di V, C e C’ basi di W. MfB’,C’=M(idw o f o idv)B’,C’= MC,C’·MfB,C·MB’,B.

IL DETERMINANTE: Definizione: sia A una matrice ∈ K2,2. det(A)=|A|:= a11a22 – a12a21 Minore complementare: A=(aij) ∈Kn,n; scelgo (i,j) con i,j∈{1,…,n}: si dice minore complementare di (i,j) la sottomatrice di A ottenuta cancellando la i-esima riga e la j-esima colonna : Aij∈Kn-1,n-1. Complemento algebrico: il complemento algebrico di Aij è il numero (-1)i+j|Aij|, denotato con α ij Determinante di Laplace: A=(ai,j)∈Kn,n. det(A) = a11α 11+…+ a1nα 1n . Può essere calcolato con qualunque riga o colonna (qui è stato fatto con la prima riga, da qui la presenza costante dell’uno). Proprietà: (valgono anche per le righe) • det(α C1,…,Cn) = α ⋅ det(A) ∀C, ∀α∈ K • se Ci=0 per qualche i allora det(A)=0 • se C1=Cj allora det(A)=0 • det(α 2C2+…+α nCn)=0 • det(C1+α 2⋅ C2,…, α nCn , C2, ... ,Cn) = det(A) • se B è ottenuta da A scambiando due colonne  det(B) = - det(A) Lemma (calcolo del det di una TS): A=(aij)∈Kn,n TS  det(A) = a11⋅ a22⋅ …⋅ ann Metodo di calcolo del det: 1. Riduco A per righe e ottengo A’ 2. r := numero di scambi di colonne per ottenere A’’, TSC 3. det(A)=det(A’)=(-1)r⋅ det(A’’) Proposizione: A∈Kn,n; se ρ (A)=n  det(A)≠ 0 Corollario: f:VV det(MfB,C)≠ 0  f è un isomorfismo Proprietà di matrici invertibili: sia A∈Kn,n una matrice invertibile (cioè ∈GL(n)) • ρ (A)=n; • A=(v1,…,vn) vettori colonna: sono linearmente indipendenti • B=(v1,…,vn) è una base di Kn  A=MB,E

DIAGONALIZZAZIONE DI MATRICI: Endomorfismo: sia V un k-s.v.; Un’applicazione lineare ϕ :VV si dice endomorfismo di V; si definisce inoltre l’insieme End(V)={endomorfismi di V}  ϕ∈ End(V). Consideriamo per ogni endom. la matrice associata all’applicazione Mϕ B,B dove B è una base di V Matrici simili: A,B∈Kn si dicono simili se sono associate allo stesso endomorfismo di Kn e si indica A~B KBn φ AφB,B KBn IX.1.3 - Proposizione: si osservi il diagramma a lato, commutativo: B=P-1AP (P è P=MC,B MB,C=P-1 invertibile), A,B ∈ Kn,n. A~B  ∃ P∈ GL(n) tale che B= P-1AP Osservazione: “~” è una relazione d’equivalenza. dim: 1) riflessiva: A~A, basta prendere P=In A~BB~A. Ipotesi: ∃ P: B=P-1AP; Tesi: ∃ Q: B=Q-1BQ.basta prendere Q=P-1∈GL(n) e si KCn φ BφC,C KCn 2) simmetrica: -1 -1 -1 -1 -1 ha che B=Q BQ=P(P AP)P =(PP )A(PP )= IA = A 3) transitiva: A~B, B~CA~C. ipotesi: ∃ P: B = P-1AP, ∃ Q: C=Q-1AQ. Tesi : ∃ R: C=R-1AR. Basta prendere R=PQ

Matrice diagonalizzabile: A∈Kn,n si dice diagonalizzabile se ∃ una matrice diagonale ∆∈ Kn,n t.c. A~∆ IX.1.6 - Proposizione: V sia un K-s.v.; φ ∈ End(V). Sono equivalenti:

1. ∃ base B di V tale che MΦ B,B è diagonalizzabile 2. ∀base C di V MΦ C,C è diagonalizzabile 3. ∃ base D di V tale che MΦ D,D è diagonale Applicazione semplice: φ ∈ End(V) si dice semplice se verifica le condizioni precedenti. Da ciò deriva che ∃ D tale che Mφ D,D è diagonale, cioè φ (v1)=a11v1. Autovettore e autovalore: ϕ :VV; v∈V, v≠ OV. Se ∃ λ ∈ K t.c. ϕ (v)=λ v allora v si dice autovettore e λ autovalore. Osservazione (su φ semplici): φ semplice  ∃ base D di V composta da autovettori; in tal caso Mφ D,D è diagonale Autospazio associato a λ : V∈End(V), λ ∈ K autovalore. Sia Vλ ={v∈V|ϕ (V)=λ v}⊃ e ≠ {autovettori di λ } (≠ perché c’è anche 0v . Allora Vλ è un ssv di V detto autospazio associato a λ . Osservazione: B base di V, A=Mϕ B,B. Allora Mϕ rB,B = Mϕ B,B - λ MidVB,B = A - λ I Somma diretta: siano W1,W2 ssv di V. La loro somma si dice diretta se ogni vettore di W1+W2 si scrive come w1+w2 in modo unico. Si indica con ⊕. Proposizione: W1+W2è somma diretta  W1∩W2 = 0v . IX.1.12 - Proposizione (legame tra autovalori e insiemi liberi): ϕ∈ End(V), siano λ 1,…,λ s ∈K autovalori distinti di ϕ e siano ∀i= 1,…,s dei vettori vi≠ 0v, vi∈Vλ i . Allora {v1,…,vs} è libero. Corollario: V K-s.v., dim V=n. ϕ∈ End(V). allora: 1. ϕ ha al più n autovalori distinti . 2. se λ 1,…,λ s ∈K sono autovalori distinti. allora Vλ 1+…+Vλ s è somma diretta. Proposizione: deriva dal T.di Grassman; siano V1,…,Vn ⊂W. dim(V1⊕…⊕Vn) = Σ (i=1…n) dim Vi . Osservazione: φ : VV, λ ∈ K. φ (λ ): VV, φ λ =φ -idv. Allora λ è autovalore  Vλ ≠ {0v} ker(φ λ )≠ {0v} non è un isomorfismo (né iniettiva né surriettiva)  det(Mφ λ B,B)=0. Ricordo anche che f:VV è un isomorfismo  Mfx,y è invertibile ρ (Mf) ha rango massimo  |Mf| ≠ 0. Proposizione: ϕ∈ End(V), λ ∈ K. allora λ autovalore di ϕ  |Mϕ B,B - λ In| = 0 dove B è una base di V qualunque

POLINOMIO CARATTERISTICO: Polinomio caratteristico: A∈Kn,n. PA(T) := |A – TIn| è un polinomio di grado n in T. Proposizione: se A~B∈Kn,n allora PA(T)=PB(T). Polinomio caratteristico di ϕ : sia A associata a ϕ∈ End(V). PA(T) è detto polinomio caratteristico di ϕ e si scrive Pϕ (T). Teorema: φ ∈ End(V), λ ∈ K. Allora λ è autovalore di φ  λ è una radice di Pφ (T). Corollario: V K-s.v. ϕ∈ End(V). Gli autovalori di ϕ sono le radici di Pϕ (T) appartenenti a K Fattorizza totalmente: K campo, P(x)∈K[x]. P(x) si fattorizza totalmente in K se P(x)=a(x-α 1)⋅ …⋅ (x-α n) Polinomio irriducibile: è un polinomio che non si fattorizza totalmente. Proposizione: P(x)∈K[x], α∈ K è radice P(x) è divisibile per (x-α ). Molteplicità: è il numero di volte in cui una radice compare in un polinomio. Proposizione: φ ∈ End(V). λ ∈ K autovalore: 1≤ dim(Vλ )≤ m(λ ) dove m(λ ) sono le molteplicità. IX.2.10 - Teorema: V K-s.v. , ϕ∈ End(V). siano λ 1,..., λ sle radici distinte di Pϕ (T) di molteplicità rispettivamente m1,…,ms. Sono equivalenti: 1. ϕ è semplice 2. ∃ base costituita da autovettori 3. V=Vλ 1⊕…⊕Vλ s 4. λ 1,...,λ s∈K e dim(Vλ i)=mi ∀i=1,…,s. Molteplicità nel campo complesso: ϕ è semplice se λ 1∈C e m(λ 1)=1∀i

SPAZI EUCLIDEI: Prodotto scalare: si dice prodotto scalare in Rn a valori reali l’applicazione •: RnxRnR tale che: 1. v•w=w•v 3. v•v ≥ 0 2. (a1v1+a2v2) •w=a1(v1•w)+a2(v2•w) 4. v•v=0  v = 0Rn

Prodotto scalare canonico: sia • : RnxRnR che associa ((x1,…,xn),(y1,…,yn))x1y1+…+xnyn. Spazio euclideo: è lo spazio (Rn, • ) con “•” = prodotto scalare canonico, e si indica con En Norma: l’applicazione ||…||: RnR definita da ||v||:=√v⋅ v si dice norma; per n=2 è il teorema di Pitagora. Proprietà della norma: 1. ||v|| > 0 2. ||v||=0 v=0Rn 3. ||av||=|a|⋅ ||v||. NB: ||v||+||w||≠ ||v+w|| (regola del parallelogramma) Ortogonalità: v,w ∈En si dicono ortogonali se v⋅ w = 0, e si scrive v⊥w Proposizione: siano v,w1,…,ws ∈En. se v⊥wi ∀i=1…s allora lo è a ogni loro combinazione lineare. dim: v(λ 1w1+…+λ nwn)=λ 1(v⋅ w1)+…+λ n(v⋅ wn), (v⋅ wi)=0 per ipotesi  il tutto è pari a 0.

Proposizione: Siano v1,…,vs ∈En\{0Rn} tali che vi⋅ vj=0 ∀i,j (i≠ j). Allora v1,…,vs sono linearmente indipendenti. ⊥ Sottospazio ortogonale: W ssv di En; si dice ortogonale di W l’insieme W ={v∈En|v⋅ w=0 ∀w∈W} ⊥ Proposizione: W è un ssv di En. ⊥ Proposizione: se W=L(w1,…,ws) allora W ={v∈En|v⋅ wi=0 ∀i=1,…,s} Insieme ortonormale: En, un insieme {v1,…,vr} si dice ortonormale se vi⊥vj ∀i≠ j e ||vi||=1 i. Base ortonormale: B=(v1,…,vn) base di En si dice ortonormale se è un insieme ortonormale. Ortonormalizzazione di Gram-Schmidt: (v1,…,vn)  e1 = v1/||v1||; eh=[vh - Σ (i=1…h-1)(vh⋅ ei)ei)]/||nominatore||. Proposizione: ortonormalizzando con G-S si ottiene una base ortonormale.

GEOMETRIA LINEARE: Nomenclatura: in En vi siano due punti P e Q: v=Q-P è il vettore da P a Q Retta per l’origine: in En è una retta vettoriale di Rn Sistema di riferimento: in En è (O,B) dove O∈En è un punto, detto origine, e B è una base ortonormale di En Equazioni vettoriali e parametriche di una retta: in En, l’equazione di una retta r per l’origine ha forma P=λ v, con P=(x1,…,xn)B e v=(v1,…,vn)B. L’equazione parametrica è x1=λ v1,…,xn=λ vn Retta di En: è l’insieme dei punti P∈En tali che P=Q+λ V con λ ∈ R, Q∈En, V∈Rn. Equazione cartesiana di una retta: si ottiene eliminando il parametro λ dall’equazione parametrica. Proposizione: una retta in E2 è il luogo dei punti che soddisfano l’equazione ax+by+c=0 per opportuni a,b,c. Piano per l’origine: è un sottospazio di R3 di dimensione 2. Equazione vettoriale di un piano di E3: P=Q+λ V1+µ V2 Equazione parametrica di un piano in E3: Q=(xo,yo,zo), V1=(a1,a2,a3), V2=(b1,b2,b3) π : x=x0+λ a1+µ b1, … Equazione cartesiana di un piano in E3: si eliminano i parametri λ ,µ e si ha ax+by+cz+d=0. Osservazione (unicità delle equazioni): l’equazione di una retta in E2 o di un piano in E3 sono uniche a meno di un coefficiente di proporzionalità. Varietà lineare: in En, è un insieme di punti definito da L:P=Q+λ 1v1+...+λ rvr con Q∈En, λ i∈R, vi∈Rn. Giacitura: la giacitura di una varietà lineare L è il sottospazio vettoriale di Rn SL=L(v1,...,vr). Osservazione: L individua univocamente SL, in quanto L=Q+SL. Varietà lineari parallele: due varietà lineari L e L’ si dicono parallele in En se dimL=dimL’ e SL=SL’ Varietà lineari di tipo diverso parallele: L,L’ varietà lineari in En sono parallele se SL⊆SL’ o se SL⊇SL’ . Varietà lineari incidenti: L,L’ var. lineari di En. Sono incidenti se L∩L’ ≠ ∅ Varietà lineari sghembe: L,L’ var. lineari di En. Sono sghembe se non sono nè parallele nè incidenti Proposizione (retta per due punti): A,B∈En, A≠ B. Allora ∃ ! retta per A e B e una sua equazione è r:P=A+λ (BA) Proposizione (piano per tre punti): A,B,C ∈En, non allineati, allora ∃ ! piano per A,B,C di equazione π : P=A+λ (B-A)+µ (C-A). Proposizione: la giacitura di una retta r:ax+by+c=0 di E2 ha equazione ρ (A) ρ (A,B) SΣ r∩r’ Sr:ax+by=0.(per il piano: 1 incognita in più). 1 2 1 1 ∞ r≡ r’ Intersezione di due rette in E : r: ax+by+c=0 e r’: a’x+b’y+c’=0. Ci 1 2 incomp. r//r’ sono tre possibilità: r//r’, r∩r’=1 punto, r ≡ r’. Scrivo la matrice (A,B) a

b

c

del sistema delle due equazioni: (A,B)=  a ' b' c'  .

2

2

1

r∩r’={P}

Intersezione retta-piano: definisco la retta come l’intersezione di due ρ (A) ρ (A,B) piani e il piano come π : α x+β y+γ z+δ =0. r ∩ π =SΣ ; Se scrivo la 2 2 a b c d

2 3

 ax + by + cz + d = 0 retta come r: a ' x + b' y + c' z + d ' = 0 la matrice è (A,B)=  a ' b' c' d'  . Di  α β γ δ 

3 3

sicuro ρ (A) è >1 (se fosse 1 avrei due piani paralleli → r non esisterebbe); inoltre ρ (A,B) deve essere ≥ 2 (se fosse <2 i due piani ρ (A) ρ (A,B) 1 1 generanti r sarebbero coincidenti← r non esisterebbe) 3 1 2 Intersezione di due piani in E: π :ax+by+cz+d=0; π ’:a’x+b’y+c’z+d’=0.

a b c d

π ∩ π ’=?

(A,B)=  a ' b' c' d' 

2

2

-------> Intersezione di due rette in E3: prendiamo due rette definite come ρ (A) ρ (A,B) l’intersezione di quattro piani e vediamo il sistema Σ : r ∩ r’ . 2 21 a x+b y+c z+d =0

 a 'x + b ' y + c 'z + d '= 0

r: a 1x + b 1 y + c1 z + d1 = 0 e r’: a 1' x + b 1 ' y + c1 ' z + d1 ' = 0 2 2 2 2 2 2  2  2

2 3 3

3 3 4

SΣ ∞1 incomp. 1

r∩r’ r⊂ π r//π r∩ π ={P }

SΣ ∞2 ∅ ∞1

r∩r’ π ≡π ’ π //π π ∩ π ’=re tta

SΣ ∞1 ∅ 1! ∅

r∩r’ r≡ r’ r//r’ r∩r’={P} r,r’sghembe

Non è presente la combinazione π (A)=2 e ρ (A,B)=4 in quanto un teorema sulle matrici dice che l’aggiunta di una riga o di una colonna non può far aumentare di due il rango iniziale. Iperpiano: è una varietà linearedi En la cui giacitura è L(v1,…,vr) con r = n-1. Si indicano con H Equazione normale di r: se A∈R, u⊥r. (P-A)u=0 è l’equazione normale di r ⊥ Osservazione: in En, sia H:a1x1+…+anxn=b iperpiano; SH: a1x1+…+anxn=0 ha dim=n-1ed è ⊂En. SH ha dim=1 ⊥  SH =L(u) è l’equazione normale di H. (P-A)u=0, A∈H è un punto qualunque. Varietà lineari ortogonali: Siano L1,L2 due varietà lineari di En tali che dim(L1)+dim(L2)=n; esse si dicono ⊥ ⊥ ortogonali se SL1=(SL2) o, equivalentemente, se (SL1) =SL2 ⊥ ⊥ Ortogonalità: Siano L1,L2 due varietà lineari di En; esse sono ortogonali se SL1⊇(SL2) o se (SL1) ⊆SL2. Rette ortogonali: due rette r e r’ si dicono ortogonali se lo sono i due vettori v//r e v’//r’ Proposizione: Siano r,r’ rette in E3; sono equivalenti: • r e r’ sono ortogonali • ∃ ! piano α ⊃r, α ⊥ r’ (e viceversa) ⊥ Osservazione: osserviamo i ssv di En W e W 1. la loro somma è diretta; ⊥ 2. W⊕W =En. ⊥ 3. dimW + dimW =n. Piani ortogonali: α ,β piani di E3 si dicono ortogonali se lo sono due vettori ad essi ortogonali.

DISTANZE: Distanza: A,B ∈En (serve la norma). Si dice distanza tra A e B d(A,B):=||A-B||. Ha come proprietà: 1. d(A,B)≥ 0 ∀A,B∈En 2. d(A,B)=0 <=> A=B 3. d(A,B)=d(B,A) 4. siano A,B,C i vertici di un triangolo : d(A,B)≤ d(A,C)+d(B,C) (dalla disuguaglianza triangolare) Definizione astratta di distanza: In En si dice distanza un’applicazione d: EnxEnR tale che valgono le 4 precedenti proprietà. ⊥ Proposizione: L varietà lineare, A punto di En. ∃ Ao∈L tale che d(A,P)≥ d(A,Ao) ∀P∈L; Ao=L∩(A+SL ). dim: graficamente, basta pensare ad L come ad un piano e A un punto sopra di esso.

Distanza punto-varietà lineare: Sia L var. lin., A punto di En. d(A,L) è il minimo delle distanze d(A,P), P∈L Xbis.2.9 - Proposizione (distanza punto-iperpiano): A punto, H iperpiano di En, u versore normale ad H. allora d(A,H)=|(A-B)⋅ u| dove B è un qualunque punto di H e |(A-B)⋅ u| la componente normale ad H del segmento AB. Poniamo A=(α 1,…,α n) e H:a1x1+…+anxn+b=0. B∈H: B=(β 1,…,β n) tale che β 1x1+…+β nxn+b=0.

(a

,..., a

)

1

1 n Allora d(A,H) = ( α 1 − β1 ,..., α n − β n ) ⋅ ( a ,..., a ) = ( a ,..., a ) ( α 1 − β1 )a 1 ,..., (α n − β n ) a n = 1 n 1 n

solo tra punti e iperpiani!

α 1 a 1 + ... + α n a n + b a 12 + ... + a 2n

. NB: vale

Distanza tra varietà lineari: L,L’ varietà lineari di En. d(L,L’):=min{d(P,P’)|P∈L,P’∈L’} Xbis.2.12 - Distanza tra due rette parallele: prese due rette in forma cartesiana di E2 d(r,r’)=|c-c’|/√(a2+b2) Osservazione (sulle rette sghembe e i piani): se r e r’ sono rette sghembe di E3allora esistono dei piani paralleli ad entrambe. r:Sr=L(v), r’:Sr’=L(v’). Tutti i piani di giacitura L(v,v’) sono paralleli a r e r’. Distanza tra due rette sghembe in E3 (teorema): siano r,r’ sghembe 1. ∃ ! retta l ortogonale e incidente r e r’, detta retta della minima distanza; . 2. Posti A0=l∩r’, Ao’=l∩r’ d(r,r’)=d(Ao,Ao’); 3. posti v,v’ vettori paralleli a r e r’ rispettivamente, allora d(r,r’)=|(A-A’)⋅ (v∧v’)/||v∧v’|| | dove A∈r, A’∈r’ qualunque

FASCI DI RETTE: Fascio di rette: sia A un punto di E2; si dice fascio di rette di centro A l’insieme di tutte le rette passanti per A e si denota con FA. Xbis.5.2 - Proposizione: Sia A il punto di intersezione delle rette r: ax+by+c=0 e r’: a’x+b’y+c’=0. Allora F A è costituito da tutte e sole le rette di equazione λ (ax+by+c)+µ (a’x+b’y+c’)=0, λ ,µ ∈ R e (λ ,µ )≠ (0,0). Rette generatrici: Se FA ha equazione λ (ax+by+c)+µ (a’x+b’y+c’)=0 le due rette r: ax+by+c=0 e r’: a’x+b’y+c’=0 si dicono generatori di FA=F(r,r’). Osservazione: qualunque coppia di rette di FA genera FA. Osservazione: A=(xo,yo). x-xo=0 e y-yo=0 sono due rette per A  FA:λ (x-xo)+µ (y-yo)=0 Osservazione: le coppie (λ ,µ ) e (hλ ,hµ ), con h≠ 0, individuano la stessa retta di FA.

MATRICI ORTOGONALI: Matrice ortogonale: una matrice A∈Rn,n si dice ortogonale se le sue colonne costituiscono una base ortonormale di En. (cioè Ci⋅ Cj=0 e Ci⋅ Ci=1) X.2.22 - Proposizione: A∈Rn,n è ortogonale  tA⋅ A=In Teorema: A,B∈Rn,n. det(AB)=det(A)⋅ det(B). Osservazione (sul determinante): A ortogonale  tAA=In det(tAA)=det(In)det(tA)⋅ det(A)=1, det(tA)=det(A) det(A)2=1det(A)=± 1. NB: non vale il ragionamento opposto! Ortogonale speciale e non: A ortogonale è speciale se |A|=1, non speciale se |A|=-1 Osservazione: B base di En. P=MB,E P ortogonale B ortonormale Teorema: Sia C una base ortonormale di En. Se B è una qualunque base di En e P=MB,C; allora P è ortogonale  B è ortonormale. Lemma: P è ortogonale  tP=P-1 Teorema: Sia A∈Rn,n (non vale per Cn,n); allora ∃ matrice ortogonale P tale che tPAP è diagonale.

TRASLAZIONI: Traslazione: Siano (O,B) e (O’,B) due sistemi di riferimento cartesiani ortogonali di En, con B base ortonormale. Il cambio di riferimento dal primo al secondo si dice traslazione mediante O-O’ Proposizione: Dati due sistemi di riferimento (O,B) e (O’,B) di En e un punto P∈En di coordinate (x1,…,xn) rispetto a (O,B) e (x1’,…,xn’) rispetto a (O’,B); posto T=O’-O=(α 1,…,α n) allora X=X’+T

ROTAZIONI: Prendiamo due sistemi di riferimento(O,B) e (O,B’) con B=(e1,e2) e B’=(e1’,e2’) basi ortonormali, B’ ottenuta ruotando di ϕ (∈[o,2π [) gradi B. P=(x,y) rispetto a (O,B) = (x’,y’) rispetto a (O,B’). P-O=xe1+ye2= xe1’+ye2’; poiché B è ortonormale v=(v⋅ e1)e1+(v⋅ e2)e2 ∀v∈E2. Allora e1’=(e1’⋅ e1)e1+(e1’⋅ e2)e2 e e2’=(e2’⋅ e1)e1+(e2’⋅ e2)e2  ricordo che v⋅ w=|v|⋅ |w|⋅ cosϕ  e1’=cosϕ ⋅ e1+cos(π /2-ϕ )⋅ e2 e e2’=(-sinϕ )⋅ e1+cosϕ ⋅ e2 e1’=cosϕ ⋅ e1+sinϕ ⋅ e2 e e2’=-sinϕ ⋅ e1+cosϕ ⋅ e2  xe1+ye2=x’(cosϕ ⋅ e1+sinϕ ⋅ e2)+y’(-sinϕ ⋅ e1+cosϕ ⋅ e2)  cos ϕ − sin ϕ  x '

      y  =  sin ϕ cos ϕ  y'  la matrice con i sin e cos è MB’,B in quanto le colonne sono le componenti di B’ su B; allora posto P=MB’,B X=PX’ Osservazione: P è ortogonale e speciale (basta fare i conti) Rotazione: Presi in En due sistemi di riferimento (O,B) e (O,B’) si dice che un si ottiene dall’altro per rotazione se MB’,B è ortogonale speciale. Sistema di riferimento cartesiano ortogonale: lo è (O,B) se MB,E è ortogonale speciale x

Osservazione: se (O,B) e (O,B’) sono entrambi sistemi di riferimento cartesiani ortonormali sono legati da una rotazione. Teorema: A,B ortogonali => AB è ortogonale

ROTOTRASLAZIONI: Considero in E2 (O,B) e (O’,B’). P∈E2 ha coordinate (x,y) in (O,B) e (x’,y’) in (O’,B’). Sia MB’,B la matrice p

p 

p

a  

a

 x  p

p

a  x ' 

della traslazione MB’,B =  p 11 p 12  è T il vettore di traslazione, T=  b  . Allora  y  =  p 11 p 21 b  y'  ma posso  21 22   21 22  1     p

p

p

a

x x'  11 12   11 12  anche scrivere  y  =  p 21 p 22 b  y'  è chiamo Q la matrice  p 21 p 22 b  , detta di rototraslazione.    0 1  1  0 1  1  0  0 Osservazione: P è ortogonale speciale; Q non è ortogonale ma |Q|=1.

CONICHE: Definizione: a) parabola: fissata una retta δ detta direttrice e un punto F del piano detto fuoco, il luogo dei punti equidistanti da δ e da F si dice parabola; b) ellisse: fissati due punti F1 e F2 del piano detti fuochi il luogo dei punti tali che la somma delle distanze da F1 e F2 sia costante si dice ellisse; c) iperbole: fissati due punti F1 e F2 del piano detti fuochi il luogo dei punti tali che la differenza delle distanze da F1 e F2 sia costante si dice ellisse; Parabola: cerchiamo l’equazione di una parabola centrata nell’origine. Sia δ =-P/2 F(0,P/2). P(x,y)∈parabolad(P,F)=d(P,δ ),cioè d(P,F)=d(P,P’) con P’=(x,-p/2)||(x,y-P/2)||2=||(0,y+P/2)||2x2+(y-P/2)2 = (y+P/2)2  x2=2Py. Ellisse: ne cerco l’equazione.F1=(-q,0) e F2=(q,0) con q>0, P=(x,y).d(P,F1)+d(P,F2)=k>2q. A=(a,0),A’=(-a, 0),B=(0,b),B’=(o,-b) le intersezioni con l’asse. A∈ellisse d(A,F1)+d(A,F2)=k=d(A,A’)k=2a; inoltre B∈ellisse  d(B,F1)+d(B,F2)=k  ||(q,b)||+||(-q,b)||=k  2√(q2+b2)=k=2a  q2+b2=2°  q2=a2-b2. Allora la relazione iniziale diventa ||(x+q,y)||+||(x-q,y)||=kelevo al quadrato(x+q)2+y2+(x-q)2+y2+2√([(x+q)2+y2][(xq)2+y2])=k2b2k2+a2y2=a2b2x2/a2+y2/b2=1. Allora F1=(+√(a2-b2),0) Osservazione: se q=0a=b ho una circonferenza: x2+y2=a2 di raggio a e centro l’origine. Iperbole: ponendo b2:=q2-a2 si dimostra analogamente che ha equazione x2/a2-y2/b2=1 Punto simmetrico: un punto A’ è simmetrico di A rispetto a M se e solo se M è punto medio di AA’ Simmetrie: Sia C una curva e r una retta; C è simmetrica rispetto a r se ∀P∈C il punto P’, simmetrico di P rispetto a r, appartiene a C. r si chiama asse di simmetria. Analogamente un punto M è centro di simmetria per C se ∀P∈C il punto P’ simmetrico rispetto a M appartiene a C. Definizioni: a) la retta r ⊥ δ passante per F si dice asse; b) la retta che unisce i due fuochi è asse di simmetria, come anche l’asse del segmento F1F2. L’intersezione dei due assi è centro di simmetria ed è detto centro dell’ellisse; c) la retta che unisce i fuochi e l’asse del segmento F1F2 sono detti assi e la loro intersezione determina un centro di simmetria detto centro dell’iperbole. Proposizione: 1. se C è una parabola, il suo asse è asse di simmetria e il suo vertice è equidistante da fuoco e direttrice. 2. C ellisse (non circonferenza) o iperbole, allora i suoi assi sono assi di simmetria e il suo centro è centro di simmetria. Conica degenere: una conica si dice degenere se è unione di due rette (distinte o coincidenti,reali o complesse) E’ doppiamente degenere se è data dall’unione di due rette coincidenti, altrimenti è semplicemente degenere. Conica: luogo dei punti con equazione a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 Matrici associate alla conica: •

matrice completa o dei coefficienti:

 a 11 a 12 a 13  B =  a 12 a 22 a 23  a   13 a 23 a 33 

è simmetrica



a  a matrice della forma quadratica: A =  a 11 a 12  è simmetrica 

12

22



t

Equazione matriciale di C: (x y 1) B (x y 1) = 0 mi dà il polinomio Forma canonica: si dice forma canonica di una conica C non degenere una sua equazione che è del tipo i) o ii): (P) parabola i) x2=2py ii) y2=2px (ruotata di 90°) 2 2 2 2 (E) ellisse i) x /a +y /b =1 ii) x2/a2+y2/b2= -1 (ellisse immaginaria) (I) iperbole i) x2/a2 - y2/b2=1 ii) x2/a2 - y2/b2= -1 Forma canonica di una conica degenere : si indicano con iii) • parabola: x2=q o y2=q; si ottiene con casi particolari del completamento del quadrato; le due rette possono essere reali o complesse ma sono sempre parallele; • ellisse: x2/a2+y2/b2=0 ; è una conica formata dalle rette complesse x= ±iay/bè semplicemente degen. • iperbole: x2/a2 - y2/b2=0 ; sono due rette reali distinte non parallele. Teorema: Sia C una conica (anche degenere) di equazione priva del monomio “xy” in (O; x,y). Allora ∃ un sdr (O’;X,Y) (ottenuto con una traslazione) in cui C ha un’equazione canonica. Teorema: C conica (O;x,y) con matrici A,B. Se (O’;X,Y) si ottiene con una rototraslazione associata a Q e P allora le matrici B’ e A’ associate a C in (O’;X,Y) sono B’=tQBQ e A’=tPAP=P-1AP Metodo di riduzione a forma canonica: Sia C conica in forma generale nel sdr (O;x,y) con matrici B e A. 1) diagonalizzare A; se a12=0a diagonalizzatasi passa a 2); se a12≠ 0base ortonormale di autovettori per fA: v1=(p11,p21), v2=(p12,p22). 2) posta

 p 11 p 12 0    Q’=  p 21 p 22 0   0 0 1  

si opera la rotazione t(x y 1)=Q’ t(x’ y’ 1).In (O;x’,y’) la conica a matrici A’ e B’,

ma B’=tQ’ B Q’B’ non ha il monomio x’y’. 3) Si opera il completamento dei quadrati, cioè una traslazione da (O;x’,y’) a (O’;X,Y): X=x’+α , Y=y’+β ; si sostituisce nell’equazione di C in (O;x’,y’) si ha la forma canonica. Teorema: Sia C data in (O;x,y). Allora ∃ un sdr (O’;X,Y) ottenuto dal precedente con una rototraslazione in cui C ha un’equazione in forma canonica. Teorema: Sia C una conica di matrici B e A in (O;x,y) e B’ e A’ in (O’;X,Y). Allora: 1) PA(T)≡ PA’(T) 2) det(B’)=det(B) 3) det(A’)=det(A) Teorema di classificazione affine delle coniche: Il suo enunciato deriva da una tabella che raffronta i vari valori di |A| e |B|; Sia C una conica e A,B le matrici associate in un qualunque sdr. allora: 1) C è degenere  |B|=0; 2) se C non è degenere, allora: • C parabola  |A|=0; • C ellisse |A|>0; • C iperbole  |A|<0. Metodo rapido di riduzione a forma canonica: si divide in due casi: α

0

0 

  1) |A|=0; siano α e β autovalori di A; |A|=α β =0 α o β =0; supponiamo β =0  B =  0 0 − γ   | 0 −γ 0

B|=-α γ

2



 γ =±√(-|B|/α )

α 0

0 



  autovalori di A; |A|=α β ; B =  0 β 0  |B|=-α β γ . Se |B|=0γ =0  0 0 − γ (degenere); altrimenti γ = -|B|/|A|. XIII.6.2 – Proposizione: se C ha per centro l’origine nella sua equazione i monomi in x e y non compaiono. XIII.6.3 – Osservazione (calcolo del centro): C ha equazione a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 e sia M=(u,v) il suo centro. Quanto valgono (u,v)? faccio la traslazione: X=x-u, Y=y-v; sostituisco e raccolgo i coefficienti dei monomi di X e Y; (u,v) è centro se i coefficienti di X e Y sono 0sistema lineare a due equazioni (inc:u,v). Osservazione: il sistema lineare la cui soluzione è il centro ha per matrice completa la sottomatrice di B costituita dalle prime due righe. Lemma: C con matrice A,B. Gli autospazi di A sono invarianti rispetto al sistema di riferimento. Proposizione: C conica degenere; A,B matrici associate a C (in un qualunque sdr). Allora:

2) |A|≠ 0; siano α e β

1. se C è al centro, allora i sui assi sono le due rette passanti per il centro e aventi per giacitura gli autospazi di A 2. se C è una parabola, l’asse è la ratta per il vertice avente per giacitura l’autospazio associato all’autovalore nullo. Proposizione (intersez. conica-retta): una conica non degenere e una retta hanno in comune al più due punti reali. Tangente: L’intersezione retta(r)-conica(C) (non degenere) porta a un’equazione di secondo grado di una variabile, e se le due soluzioni sono coincidenti e reali allora r si dice tangente a C in P. Molteplicità d’intersezione: nel caso della tangente r e C hanno molteplicità 2 in P e si indica con P2. Definizione: sia C conica non degenere e r una retta; r si dice • secante: r interseca C in due punti reali e distinti • tangente: r interseca C in due punti reali e coincidenti • esterna: r interseca C in due punti complessi e coniugati Notazione (per la tangente): Po ∈C; la retta tangente a C in Po si denota con TPo(C). Vettore tangente: è un vettore parallelo a TPo(C) e si indica con tPo(C). XIII.7.7 – Proposizione (tangente all’origine): Sia C una conica per l’origine: a11x2+2a12xy+a22y2+2a13x+2a23y=0; Allora esiste ed è unica la retta TPo(C) : a13x+a23y=0. XIII.7.9 – Proposizione (tangente generica): Sia C una conica di forma a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 di cui vogliamo calcolare la tangente in Po=(xo,yo). Procediamo traslando la conica in modo che il punto sia l’origine: x=X+xo, y=Y+yo. Sostituisco: a11(X+xo)2+2a12(X+xo)(Y+yo)+a22(Y+yo)2+2a13(X+xo)+2a23(Y+yo)+ a33=0; allora (2a11xo+2a12yo+2a13)X+(2a12xo+2a22yo+2a23)Y=0 è la tangente nel sdr traslato nel sdr originale ha equazione (a11xo+a12yo+a13)(x-xo)+(a12xo+a22yo+a23)(y-yo)=0 Metodo per il calcolo della tangente da un punto esterno: si interseca il fascio di rette del punto con la conica: le due soluzioni devono coincidere  ∆ =0. Lemma 1 (assi e vertici di parab.): l’asse di una parabola e la retta tangente nel vertice sono ortogonali Lemma 2: il vertice di una parabola è l’unico punto in cui la tangente alla parabola in V e l’asse sono ortog. Metodo per determinare asse e vertice di una parabola: C parabola, B e A matrici associate i. determinare la giacitura dell’asse: Vo=ker(fAE,E)=L(v1) ii. sia v1=(a,b); rh:ax+by+h=0 (fascio improprio di rette ortogonali a v1). tra queste si sceglie l’unica tangente a C: rho: ax+by+ho=0. Per lemma 1 e 2 rho∩C=V iii. la retta parallela a v1 e passante per V è l’asse Metodo alternativo: i’. = i. ii’. si determina il vettore tPo(C)=(-∂f/∂y|Po , ∂f/∂x|Po) nel generico punto Po=(xo,yo)∈C iii’. si impone che tPo(C) sia ortogonale a v1. Per il lemma 2, l’unico punto Po in cui accade è il vertice.

dei K-s.v.: sia V un K-s.v.; ∀k∈K, ∀v∈V si ha che: 0k·v=0v. dim: 0k·v=(0k+0k)·v=0k·v+0k·v legge della cancellazione 0v=0k·v. k·0v=0v dim: analoga alla precedente k·v=0v, allora o k=0k o v=0v. dim: se k≠ 0k ∃ k-1∈K k-1(kv)= k-1·0v(k-1k)v=0v1k·v=0vv=0v (–k)v= –(kv)=k(–v). dim: banale IV.2.2 - Definizione di ssv: sia V un k-s.v.; W si dice sottospazio vettoriale di V se è uno spazio vettoriale rispetto alle stesse operazioni di V. Se W⊆V sono equivalenti: i. W è un sottospazio vettoriale di V ii. W è chiuso rispetto alle due operazioni di V, cioè i loro risultati appartengono a W iii. W è chiuso rispetto alle combinazioni lineari, cioè λ v+λ ’v’ ∈W dim: i.ii. e ii.iii. è ovvio; iii.ii. : prendo, per la somma, λ =λ ’=1k , per il prodotto λ ’=0k. ii.i. : le proprietà ass., comm. e IV.1.6 - Proprietà

i. ii. iii. iv.

distributiva valgono in Vvalgono in W (per ii.); se 0v∈W allora è anche zero di W: ∀w∈W 0v+w=w+0v=w poiché w∈V. allora 0k·w=0v (prodotto per scalare). Analog. per l’opposto. IV.2.3 - Intersezioni di ssv: siano W1 e W2 due ssv di V (K-s.v.). Allora W1∩W2 è un ssv di V. dim: a,b∈K e v,w∈ W1∩W2. so che av+bw∈W1 e a W2; allora av+bw appartiene all’intersezione. IV.2.5 - Sottospazio somma: siano W1 e W2 ssv di V e W1+W2:={v∈V|v=w1+w2; w1∈W1; w2∈W2}. Allora

W1+W2 è il più piccolo ssv di V contenente W1∪W2, cioè la somma è contenuta in tutti i ssv contenenti l’unione. dim: x,y∈W1+W2. Tesi: x+y∈W1+W2. x=w1+w2, y=v1+v2 (w1,v1∈W1 e w2,v2∈W2). x+y=(w1+w2)+(v1+v2)=(w1+v1)[∈W1]+

(w2+v2)[∈W2]∈ W1+W2. analogamente, ∀ λ∈ K ∀x∈ W1+W2 λ x∈W1+W2. Inoltre W1è contenuto in W1+W2: nella somma si prende w2=0V IV.3.2 - Teorema: L(v1,…,vn) è un ssv generato da v1,…,vn. dim: banale, si prendono x,y∈L(v1,…,vn) e si fa la somma per componenti, lo stesso per il prodotto. IV.3.6 - Proprietà relative agli insiemi di vettori: sia I={v1,…,vn} e V un K-s.v.; Valgono:

0v∈II non è libero. dim: sia v1=0v , λ 1=5 e tutti gli altri λ ≠ 0v: allora λ 1v1+…+λ nvn=0v anche se non sono tutti

i.

λ =0.

se n=1, cioè I={v1}, allora I è libero (se v1≠ 0v). dim: se v1≠ 0v, λ 1v1=0v ses λ 1=0k. molto importante: I non è libero ↔ almeno uno dei vi è combinazione degli altri. dim: “⇒”: Se I non è libero

ii. iii.

∃ almeno un λ =0 ;supponiamo sia λ ; λ v +…+λ · v =–(λ v ). allora, moltip. per –(λ )-1 ho v = –λ v n 1 1 n–1 n–1 n n n n 1λ v “⇐”: se v =α v +α v  1·v +(–α v –…–α v )=0 e so che v non ha coefficiente nullo. n–1 n–1

1

2 2

n n

1

2 2

n n

v

–1

n

λ v –…–λ 1 1



n

1

iv.

se I non è libero e J⊇ I  J non è libero dim: sia J=I∪{w1,…,wr}; se I non è libero allora esistono λ 1,…,λ n ∈K e

v.

se I è libero e J⊆ I  J è libero.dim: sia J={v1,…,vs} con s≤ n. Se esistono degli scalari λ 1,…λ s tali che v1λ 1+…

≠ (0,..,0) tali che λ v +…+λ v =0 . per provare che J non è libero basta considerare λ v +…+λ v +0w +…+0w =0 1 1 n n V 1 1 n n 1 r v +vsλ s= =0v, allora v1λ 1+…+vsλ s+0vs+1+…+0vn=0.

V è K-s.v.; v1,…,vn ∈V. Sono equivalenti: v1,…,vn sono linearmente indipendenti v1≠ 0v e ogni v non è comb. lin. dei precedenti. dim: “i⇒ii”: Se sono indipendenti non vi è il vettore nullo e dal

IV.4.1 - Teorema:

i. ii.

teorema prec. non ci sono comb.lin. “ii⇒i”: λ 1v1+…+λ nvn=0v se ci fosse un λ ≠ 0k potrei isolarlo e dividere per quel λ .

IV.4.2 - Teorema:

Ogni sistema finito di generatori contiene un sistema libero di generatori. dim: I={v1,…,vn}

generatori di V K-s.v.; I1:={v1∈I | v1≠ 0v}; I1 genera V. Osserviamo ora v2: ci sono due possibilità; 1) se ∈L(v1) allora I2:=I1\{v2}. 2) se ∉ L(v ) allora I :=I . E’ un procedimento ricorsivo, e I ⊇ I : I genera V perché L(I )=L(I )=V. Questo è il metodo degli scarti 1

2

1

i

i+1

2

1

2

successivi

Teorema: Un insieme I={v1,…,vn} è libero se e solo se ogni elemento di L(v1,…,vn) si scrive in modo unico come combinazione lineare di v1,…,vn. In particolare, I=(v1,…,vn) è una base di V ses ogni v∈V si scrive in modo unico v=λ 1v1+…+λ nvn. dim: “⇒”: Sia I libero; λ 1v1+…+λ nvn=µ 1v1+…+µ nvn  (λ 1–µ 1)v1+…+(λ n– IV.4.5 -

µ n)vn=0v  ogni λ i–µ i = 0 perché I è libero; allora λ i=µ i ∀i. “⇐”:λ 1v1+…+λ nvn=0v Tesi: λ i=0 ∀i; allora 0v=0kv1+…+0kvn  per ipotesi λ i=0k∀i. 4.4.11Teorema

del completamento ad una base: Sia V un K-sv finitamente generato; allora ogni insieme libero di vettori è contenuto in una base. dim: sia I={v1,…,vs} insieme libero e ordinato; Per il teorema di esistenza di una base ∃

B=(e1,…,en) base di V. B∪I genera V: applico gli scarti successivi e di sicuro non elimino gli elementi v1,…,vs perché sono liberi; alla fine ho una base C=(v1,…,vs,e1,…,ek). Osservazione.: l’insieme che si ottiene non è più libero (i v1 generavano già tutto lo spazio). IV.5.3 - Corollario: V K-sv; dim(V)=n; v1,…,vn ∈V. Sono equivalenti:

i. ii. iii.

(v1,…,vn) è una base {v1,…,vn} è un insieme libero {v1,…,vn} è un sistema di generatori. dim: “i⇒ii” e “i⇒iii” sono ovvie; “ii⇒i”: sia W=L(v1,…,vn) (v1,…,vn) è

una base di W. dimW=n, ma W⊆V  W=V. “iii⇒i”: applico gli scarti successivi. IV.5.4 - Teorema di Grassmann: V è K-sv; U,W ssv di V. Allora dim(U+V)=dim(U)+dim(W)–dim(U∩W). dim: r=dim(U), s=dim(W), p=dim(U∩W). Tesi: esiste una base di U+W di r+s-p elementi. Base di U∩W: (v1,…,vp). completo ad una base di U: (v1,…,vp,u1,…,ur–p) e completo ad una base di W: (v1,…,vp,w1,…,ws–p). Allora considero I=(v1,…,vp,u1,…,ur–p,w1,…,Ws– p): sono r+s-p. Provo che I è base di U+W: 1) “I genera”: x∈U+W: x=y+z; ma y∈L(v1,…,vp,u1,…,ur–p) e z∈L(v1,…,vp,w1,…,ws– p)x∈L(I)  I genera U+W. 2) “I è libero”: sia v=α 1v1+…+α pvp u=β 1u1+…+β r–pur–p w=γ 1w1+…+γ s–pws–p e u+v+w=0 v. w= – v–uw∈U∩W w=λ 1v1+…+λ pvpλ i=0 e γ i=0. v+w=0vα i=β i=0. V.2.9 - Sottomatrice: Se B è una sottomatrice di A, allora ρ (A)≥ ρ (B). dim: sia B la sottomatrice ottenuta intersecando le colonne Ci1…Cis con le righe Rj1…Rjp. Posta, ad esempio, B’=(Ci1…Cis) si ha che ρ (B)≤ ρ (B’)≤ ρ (A). V.2.13 - Preposizione (rango di una tsc quadrata): A∈Kn,n è TSC; allora ρ (A)=n. dim: vedi la matrice disegnata ⇑⇑. Provo che C1…Cn sono linearmente indipendenti, cioè se λ 1c1+…+λ ncn=0vλ i=0k ∀i. esplicitamente posso scrivere al posto di C i vettori associati; allora ottengo che 1) λ 1a11+…+λ na1n=0; 2) λ 2a22+…+λ na2n=0; …3) λ n–1an–1,n–1+λ nan-1,n=0. 4) λ nan,n=0 : so che an,n≠ 0λ n=0. Ora sostituisco all’indietro e ho la tesi. V.4.2 Matrice trasformata per righe di A: se R(A)=R(B) allora B si dice che è trasformata per righe di A;Se B

si ottiene da A con una successione di trasformazioni elementari allora B è trasf.ta per righe di A e ρ (A)=ρ (B). dim: sia A’ ottenuta da A con una trasformazione di tipo D), ad es. Riri+aRj.R(A’)⊆R(A), perché R(A’)=L(R1, …,Ri-1,Ri+aRj,…, Rm) e R(A)=L(R1,…,Ri-1,Ri,Ri+1,…,Rm). Ora dim. che R(A)⊆R(A’): tutte le righe di A’ sono uguali a quelle di A eccetto che per la i-esima  basta provare che questa è comb.lin. delle righe di A’: infatti Ri=(Ri+aRj)-aRj. Per le altre trasf: evidente. VII.1.7 - Preposizione (proprietà appl.lin.): • f(av1+bv2)=a·f(v1)+b·f(v2) dim: 1)prima dimostro che f(v1+…+vp)=f(v1)+…+f(vp). Vale per p=2 (L1), la suppongo vera per p-1 e proviamo per p (induzione): w=v1+…+vp-1 -->f(w+vp)=f(w)+f(vp) per L1. Ma per l’ipotesi induttiva f(w)=f(v 1)+… +f(vp-1), dunque la tesi. 2) f(a1v1+…+apvp)=f(a1v1)+…+f(apvp)=a1f(v1)+...+apf(vp) • f(0v)=0w dim: f(0v)=f(0k0v)=0kf(0v)=0w • f(–v)=-(f(v)) dim: -v=(-1)v (per L2) --> f(-v)=f((-1)v)=(-1)f(v)= -f(v) VII.1.10 - Preposizione: v,w K-sv. B=(v1,…,vn) base di V e siano w1,…,wn ∈W; allora ∃ ! applicazione lineare f:VW tale che f(vi)=wi ∀i. dim: definisco f ∀v∈V: v=λ 1v1+…+λ nvn (unico). Pongo f(v):=λ 1w1+…+λ nwn . Ovviamente f(vi)=wi ∀i. Devo provare che tale f è lineare: x,y∈V , α∈ K. x=x1v1+…+xnvn=(x1,…,xn)B . y= y1v1+…+ynvn=(y1,…,yn)B x+y= (x1+y1+ …+xnyn)B. Ma f(x+y)=(x1w1+...+xnwn)+(y1w1+...+ynwn) --> vale L1. lo stesso per L2, procedendo per assurdo. VII.2.2 - Preposizione (calcolo dell’immagine): data un’applicazione lineare f:V-->W, ker(f) è un sottospazio

vettoriale di V e Im(f) è un sottospazio vettoriale di W. In particolare Im(f)=L(f(v1),…,f(vn)), ove (v1,…,vn) è una qualunque base di V. dim: v,v’∈ ker(f) e λ ,λ ’∈K. λ v+λ ’v’∈ker(f), cioè f(λ v+λ ’v’)=0W. Per ipotesi f(v)=0W=f(v’); f(λ v+λ ’v’)=λ f(v)+λ ’f(v’)=0W-->ker(f) è un ssv di V. Siano ora w,w’∈Im(f) e λ ,λ ’∈K. Per ipotesi esistono v,v’∈V tali che w=f(v) e w’=f(v’); dunque λ w+λ ’w’=λ f(v)+λ ’f(v’)=f(λ v+λ ’v’)∈Im(f). Dunque Im(f) è un ssv di V. Infine sia w∈Im(f), cioè w=f(v) per un opportuno v∈V. Poiché (v1,…,vn) è una base di V si può scrivere v=a1v1+…+anvn; dunque w=a1f(v1)+…+anf(vn). Pertanto Im(f)⊆L(f(v1),…,f(vn)). Il viceversa è ovvio, perché Im(f) è un ssv di V.

- Criterio di isomorfismo: un’applicazione lineare è un isomorfismo se è iniettiva e surriettiva, cioè se dimV=dim W dim: basta costruire un isomorfismo f:V-->W. Per questo fissiamo una base B=(v1,…vn) di V e una base C=(w1,… VII.2.19

wn) di W. sia f(vi)=wi per ogni i; tale f esiste ed è unica. Poiché MfB,C=In e ρ (In)=n, si ha che f è un isomorfismo. VII.5.6 - Teorema: f:VW appl.lineare, B e B’ basi di V, C e C’ basi di W. sia f:V-->W un’applicazione lineare; allora MfB’,C’=MC,C’⋅ MfB,C⋅ MB,B’. dim: tutto si basa sul diagramma a lato, che è VB f Wc idW commutativo e riassume il problema. f=idW ⋅ f ⋅ idV . Con le matrici: MfB’,C’=Midw ⋅ f ⋅ ifv B’,C’.idV f WC’ Applicando l’associatività della composizione delle app.lin. si ha M fB’,C’=Midw ⋅ f ⋅ ifv B’,C’ = MidwC,C’ ⋅ VB’ MfB,C ⋅ MidvB’,B . IX.1.3 - Preposizione: due matrici A,B ∈Kn,n si dicono simili se e solo se esiste una matrice P∈GL(n) tale che P1 AP=B. dim: supponiamo che A~B; allora esiste un endomorfismo φ :Kn-->Kn e due basi B e C di Kn tali che A=Mφ B,B e B=Mφ C,C. Pertanto B=MB,CAMC,B, Ma MC,B è invertibile e (MC,B)-1=MB,C. Si conclude ponendo P=MC,B. Viceversa, supponiamo che esista P∈GL(n) tale che P-1AP=B. Esiste una base C di Kn tale che P=MC,E e quindi P-1=ME,C. Sia quindi φ =FAE,E l’endomorfismo di Kn associato alla matrice A rispetto alla base canonica E, da cui A=Mφ E,E. Pertanto B=P-1AP=ME,CMφ E,EMC,E=Mφ C,C. Quindi anche B è associata allo stesso endomorfismo di φ ; pertanto A e B sono simili. IX.1.6 - Preposizione: V sia un K-s.v.; φ ∈ End(V). Sono equivalenti:

1. ∃ base B di V tale che MΦ B,B è diagonalizzabile 2. ∀base C di V MΦ C,C è diagonalizzabile

3. ∃ base D di V tale che MΦ D,D è diagonale dim: 2)1) ovvio; 1)2): per ipotesi ∃ ∆ diagonalizz. t.c. Mφ

B,B

~∆ . ∀base C Mφ ~ Mφ . Per la transitività di “~”Mφ ~∆ . 1)3): per ipotesi ∃ ∆ diagonale tale che Mφ ~∆ , cioè ∆ è associata a φ rispetto a una certa base D: ∆ := Mφ D,D. 3)2): ∀base C, per def., Mφ C,C~ Mφ D,D, che è diagonale per ipotesi. IX.1.12 - Preposizione (legame tra autovalori e insiemi liberi): ϕ∈ End(V), siano λ 1,…,λ s ∈K autovalori distinti di ϕ e siano ∀i= 1,…,s dei vettori vi≠ 0v, vi∈Vλ i . Allora {v1,…,vs} è libero. dim: per assurdo, siano tutti liberi tranne vio combinazione lineare dei precedenti, cioè vio= α 1v1+…+α io-1 ⋅ vio-1 . Applico ϕ all’equazione e ottengo ϕ (vio)= ϕ (α 1v1)+…+ϕ (α io-1 ⋅ vio-1). so che ϕ (vk)=λ kvk, quindi riscrivo l’equazione ϕ (vio)=λ iovio=λ io(α 1v1+…+α io-1 ⋅ vio-1). scomponendo ho λ ioα 1 - α 1λ 1=0,… λ ioα io-1 - α io-1λ io-1=0  raccogliendo nel primo si ha α 1(λ io-λ 1)= 0  α 1=0 (tutti i λ sono distinti), lo stesso per le altre equazioni. Allora vio=0v, ma è assurdo: tutti i vettori v sono non nulli! IX.2.10 - Teorema: V K-s.v. , ϕ∈ End(V). siano λ 1,..., λ sle radici distinte di Pϕ (T) di molteplicità B,B

C,C

C,C

B,B

rispettivamente m1,…,ms. Sono equivalenti: 1. ϕ è semplice 2. ∃ base costituita da autovettori 3. V=Vλ 1⊕…⊕Vλ s 4. λ 1,...,λ s∈K e dim(Vλ i)=mi ∀i=1,…,s. dim: 1)2) già vista; 2)3): n=dimV, ∃ base B=(v1,…,vn) di autovettori.

Ogni vi ∈ a qualche autospazioL(v1,…,vn)⊆ Vλ 1+…+Vλ s V⊆ Vλ 1⊕…⊕Vλ s . “⊇”è ovvia. 3)4) vale n=dimV= dim(Vλ 1⊕…⊕Vλ S)=(grassman)=dimVλ 1+...+dimVλ S ≤ m1+...+ms(per la prop.prec.)≤ n, perchè m=m1+...+ms+deg(q) e Pϕ (T)= (x-λ 1)m1…(x-λ s)ms⋅ q(x)  non è una disequazione, vale solo come uguaglianzadimVλ i = mi ∀i. 4)3): dimV=n=m1+…+ ms= dimVλ 1+...+dimVλ S= dim(Vλ 1⊕…⊕Vλ S)V= Vλ 1⊕…⊕Vλ s . 3)2): Sia Bi la base di Vλ 1 ∀ λ i , i =1,…,s. B=B1∪…∪Bs è anche una base di V costituita da autovettori.

X.2.22 - Preposizione: A∈Rn,n è ortogonale  tA⋅ A=In dim: prendiamo una matrice 2x2; perché sia ortonormale devo avere tutte le colonne ortogonali e norma 1: C 1⋅ C2=0, C1⋅ C1=1, C2⋅ C2=1. Ora prendo la trasposta e riscrivo i prodotti: C 1⋅ R2(tA)=0, C1⋅ R1(tA)=1, C2⋅ R2(tA)=1. quindi ho 0 ovunque tranne che sulla diagonale, formata da 1 tA⋅ A=In Xbis.2.9 - Preposizione (distanza punto-iperpiano): A punto, H iperpiano di En, u versore normale ad H. allora

d(A,H)=|(A-B)⋅ u| dove B è un qualunque punto di H e |(A-B)⋅ u| la componente normale ad H del segmento AB. Poniamo A=(α 1,…,α n) e H:a1x1+…+anxn+b=0. B∈H: B=(β 1,…,β n) tale che β 1x1+…+β nxn+b=0.

(a

,..., a

)

1

1 n Allora d(A,H) = ( α 1 − β1 ,..., α n − β n ) ⋅ ( a ,..., a ) = ( a ,..., a ) ( α 1 − β1 )a 1 ,..., (α n − β n ) a n = 1 n 1 n

α 1 a 1 + ... + α n a n + b a 12 + ... + a 2n

. NB: vale

solo tra punti e iperpiani! Xbis.2.12 - Distanza tra due Iperpiani: presi due iperpiani d(H,H’)=|b’-b|/√(a12+…+an2) dim: H:a1x1+…+anxn+b=0 e H’: a1’x1+…+an’xn+b’=0, la distanza è quella tra A e H’, dove A è un qualunque punto di H. Xbis.5.2 - Preposizione: Sia A il punto di intersezione delle rette r: ax+by+c=0

e r’: a’x+b’y+c’=0. Allora FA è costituito da tutte e sole le rette di equazione λ (ax+by+c)+µ (a’x+b’y+c’)=0, λ ,µ∈ R e (λ ,µ )≠ (0,0). dim:

λ (ax+by+c)=0 è l’equazione di una retta per A, come l’altra. Sia t:α x+β y+γ =0 l’equazione di una qualunque retta per A. Il sistema delle tre equazioni deve dare una sola soluzione per ipotesi: A, quindi il grado della matrice associata al sistema è 2  visto che le prime due righe sono l.i. la terza è combinazione lineare delle altre. Xbis.5.12 - Fascio di piani: Sia A∈R3 e siano π 1,π 2,π 3 tre piani di equazione π i:aix+biy+ciz+di=0 tali che

A=loro intersezione. Allora la stella di piani di centro A è costituita da tutti e soli i piani di equazione λ 1(a1x+b1y+c1z+d1) +λ 2(a2x+b2y+c2z+d2)+ λ 3(a3x+b3y+c3z+d3)=0. con λ 1,λ 2,λ 3 ≠ (0,0,0). i tre piani sono detti generatori di SA. dim: ognuno dei piani di SA passa per A perché ognuno dei piani passa per A. Viceversa, sia τ :

ax+by+cz+d=0 un piano per A; vogliamo provare che esiste una terna (α ,β ,γ ) ≠ (0,0,0) tale che π α ,β ,γ =τ . Scrivo il sistema dei tre piani: ha una sola soluzione --> ρ (A)=3- Le prime tre linee sono linearmente indipendenti (A=intersez. dei tre)--> la quarta è c.l. delle altre XIII.6.2 – Preposizione: se C ha per centro l’origine nella sua equazione i monomi in x e y non compaiono. dim: partiamo da α x2+β y2=γ (centro (0,0)); resta al centro quando è solo ruotatala ruoto: X=p11x+p12y; Y=p21x+p22y. Svolgendo i conti si ottiene ax2+bxy+cy2+d=0. XIII.6.3 – Osservazione (calcolo del centro): C ha equazione a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 e sia M=(u,v)

il suo centro. Quanto valgono (u,v)? faccio la traslazione: X=x-u, Y=y-v; sostituisco e raccolgo i coefficienti dei monomi di X e Y; (u,v) è centro se i coefficienti di X e Y sono 0sistema lineare a due equazioni (inc:u,v). XIII.7.7 – Preposizione (tangente all’origine): Sia C una conica per l’origine: a11x2+2a12xy+a22y2+2a13x+2a23y=0; Allora esiste ed è unica la retta TPo(C) : a13x+a23y=0. dim: sia r: P=λ (m,n) r//(m,n). Calcolo r∩C: a11λ 2m2+2a12λ mn+a22λ 2n2+2a13λ m+2a23λ n=0; deve essere a13m+a23n=0  (m,n)//(a23,-a13)  To(C) : P=λ (a23,-a13)a13x+a23y=0 XIII.7.9 – Preposizione (tangente generica): Sia C una conica di forma a11x2+2a12xy+a22y2+2a13x+2a23y+a33=0 di

cui vogliamo calcolare la tangente in Po=(xo,yo). Procediamo traslando la conica in modo che il punto sia

l’origine: x=X+xo, y=Y+yo. Sostituisco: a11(X+xo)2+2a12(X+xo)(Y+yo)+a22(Y+yo)2+2a13(X+xo)+2a23(Y+yo)+ a33=0; allora (2a11xo+2a12yo+2a13)X+(2a12xo+2a22yo+2a23)Y=0 è la tangente nel sdr traslato nel sdr originale ha equazione (a11xo+a12yo+a13)(x-xo)+(a12xo+a22yo+a23)(y-yo)=0

Related Documents