´ AL ALGEBRA ´ INTRODUCCION LINEAL ´ Jorge Gordillo, Oscar Pulido, Boris Pulido
Contenido 1 MATRICES 1.1 MATRICES DE ENTRADAS REALES . . . . . . . . . . . . . 1.2 ALGUNOS TIPOS DE MATRICES . . . . . . . . . . . . . . . ´ 1.3 ALGEBRA DE MATRICES . . . . . . . . . . . . . . . . . . . . ´ . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 ADICION ´ DE UN REAL POR UNA MATRIZ 1.3.2 MULTIPLICACION ´ DE MATRICES . . . . . . . . . . 1.3.3 MULTIPLICACION ´ 1.3.4 OTROS RESULTADOS EN ALGEBRA DE MATRICES.
2
3 3 6 9 9 12 14 20
Cap´ıtulo 1
MATRICES
1.1
MATRICES DE ENTRADAS REALES
Definici´ on 1 Una matriz de entradas reales es un arreglo rectangular de n´ umeros reales. Ejemplo 1 Cada uno de los siguientes arreglos representa una matriz. π 1 3
1
0 √ 5 −1
−2 3 1
1 −1 1
0 1 −9 1
−5 0 − 75 √ 3
0 1 −0.5 −2
4 −2 −4 − 92
Comunmente usamos letras may´ usculas para notar las matrices, A, B, X etc, y escribimos el arreglo entre par´entesis. Notamos las matrices del ejemplo anterior en la siguiente forma:
A=
π 1 3
1
0 √ 5 −1
−2 3 1
1 −1 1
B=
3
−5 0 − 57 √ 3
C=
0 1 −9 1
0 1 −0.5 −2
4 −2 −4 − 29
4
CAP´ ITULO 1. MATRICES
Definici´ on 2 Cada uno de los arreglos horizontales en una matriz se denomina una fila y se nombran secuencialmente de arriba hacia abajo comenzando en 1 y cada uno de los arreglos verticales se denomina una columna y se nombran de izquierda a derecha de la misma forma. Ejemplo 2
La matriz A =
π 1 3
1
saber:
0 √ 5 −1
1 −1 1
−2 3 1
Fila 1: π 0 −2 1 , Fila 2:
Columna 1:
π 1 3
1
;
Columna
1 3
√
tiene tres filas y cuatro columnas a
5
3
0 √ 2: 5 ; −1 1 4: −1 1
−1
, Fila 3: 1 −1 1 1
Columna 3:
−2 3 ; 1
Columna
Definici´ on 3 Si A es una matriz con -m- filas y -n- columnas, decimos que su orden o tama˜ no es m por n y escribimos m × n Si m = n decimos que la matriz es cuadrada de orden n. Definici´ on 4 Dada una matriz A, el corte de la fila −i− con la columna −j− de A, lo denominamos la entrada −ij− de A. NOTACION. Notamos aij o (A)ij para representar el n´ umero real que aparece en la entrada −ij−de la matriz A.
5
1.1. MATRICES DE ENTRADAS REALES
.. . .. . aij .. . .. .
···
···
···
···
↓ columna j
−→
fila i
Una matriz tama˜ no m × n tiene mn entradas. Ejemplo 3 La matriz A = son:
π 1 3
1
0 √ 5 −1 a11 = π a21 = 13 a31 = 1
−2 3 1
1 −1 1
tiene tama˜ no 3 × 4 y sus doce entradas
a12 = 0 √ a22 = 5 a32 = −1
a13 = −2 a23 = 3 a33 = 1
a14 = 1 a24 = −1 a34 = 1
Una matriz tama˜ no m × n tiene m filas notadas A1 , A2 , ..., Ai , ..., Am , donde para cada −i−, 1 ≤ i ≤ m, Ai = ai1 ai2 · · · aij · · · ain
Una matriz tama˜ no m×n tiene n columnas notadas A(1) , A(2) , ..., A(j) , ..., A(n) , donde para cada −j−, 1 ≤ j ≤ n,
A(j) =
a1j a2j .. . aij .. . amj
NOTACION. Escribimos A = (aij ) con 1 ≤ i ≤ m y 1 ≤ j ≤ n, para referirnos de manera gen´erica a la matriz tama˜ no m × n
6
CAP´ ITULO 1. MATRICES
A=
a11 a21 .. . ai1 .. . am1
a12 a22 .. . ai2 .. . am2
··· ··· ...
···
a1j a2j .. . aij .. . amj
··· ··· ··· ···
a1n a2n .. . ain .. . amn
Cuando no hay lugar a confusi´ on respecto del tama˜ no, solamente escribiremos A = (aij ) . Definici´ on 5 Una matriz tama˜ no 1 × n la denominamos matriz vector fila y una matriz tama˜ no m × 1 la denominamos matriz vector columna. Ejemplo 4 √ no 1 × 5 2 es una matriz vector fila tama˜ 1 0 −6 37 0 π y la matriz B = −7 es una matriz vector columna tama˜ no 4 × 1.
La matriz A =
2
Definici´ on 6 Decimos que dos matrices A y B del mismo tama˜ no m × n son iguales y escribimos A = B si y solamente si para todo i, 1≤ i ≤ m y para todo j, 1≤ j ≤ n; aij = bij es decir si para todo i, 1≤ i ≤ m y para todo j, 1≤ j ≤ n el elemento de la entrada -ij- de A es igual a el elemento de la entrada -ij- de B.
1.2
ALGUNOS TIPOS DE MATRICES
Definici´ on 7 Dada una matriz A tama˜ no n × n, los elementos de las entradas −ii−; 1 ≤ i ≤ n, forman la denominada diagonal de A
1.2. ALGUNOS TIPOS DE MATRICES
A=
a11 ∗ ∗ ∗
∗ a22 ∗ ∗
∗ ..
∗ ∗ . ann
∗
7
Definici´ on 8 Decimos que una matriz A de tama˜ no n × n es triangular superior si todas las entradas debajo de la diagonal son cero, es decir si para todo i tal que i > j; aij=0
A=
a11 0 0 0
∗ a22 0 0
∗ ..
∗ ∗ .
0
∗
ann
Definici´ on 9 Decimos que una matriz A de tama˜ no n × n es triangular inferior si todas las entradas encima de la diagonal son cero, es decir si para todo i tal que i < j; aij = 0
A=
a11 ∗ ∗ ∗
0 a22 ∗ ∗
0 0 .. ∗
0 0 . ann
Definici´ on 10 Decimos que una matriz A tama˜ no n × n es diagonal si todas las entradas distintas a las de la diagonal son cero, es decir si para todo i, j tal que i 6= j; aij = 0
8
CAP´ ITULO 1. MATRICES
A=
a11 0 0 0
0 a22 0 0
0 0 ..
0 0 .
0
0 ann
Definici´ on 11 Decimos que una matriz A tama˜ no n × n es escalar si es diagonal y adem´ as todas las entradas de la diagonal son iguales, es decir si para todo i, j tal que i 6= j; aij = 0 y aii = k
A=
k 0 0 0
0 k 0 0
0 0 ..
.
0
0 0 0 k
Para cada tama˜ no n × n la matriz escalar I(n) tal que para todo i, j tal que i 6= j; aij = 0 y aii = 1, se denomina la matriz id´entica o matriz identidad de orden n. Ejemplo 5 Si
A=
C=
5 0 0 0 0
−7 0 0 0 0
4 0 0
0 0 −1
0 5 0 1
9 0 √ 2 0 0
0
0
I(3) = 0 1 0 0
0
1
11 3
−1 4 2 0
B=
D=
0 4 − 17 5 0
√
2 0 0
I(4)=
1 0 0 0
0 −1 1 8
0 √ 2 0 0 1 0 0
0 0 1 0
0 0 −2 π
0 0 √ 2 0 0 0 1
0 0 0 7
´ 1.3. ALGEBRA DE MATRICES
9
entonces: → A es una matriz triangular superior. → B es una matriz triangular inferior. → C es una matriz diagonal. → D es una matriz escalar. → I(3) , I(4) son las matrices id´enticas de orden 3 y 4 respectivamente.
1.3
´ ALGEBRA DE MATRICES
En lo que sigue estudiaremos la estructura algebraica de los conjuntos de matrices de entradas reales, el lector debe observar que solamente en la adici´on existe un comportamiento id´entico al comportamiento de la adici´on de n´ umeros reales, en lo dem´as, tanto el tipo de operaci´on como sus propiedades difieren completamente de las usuales de los sitemas num´ericos.
1.3.1
´ ADICION
Definici´ on 12 Para cada par de enteros positivos m,n; consideramos: M (m, n) = {X|Xes una matriz de tama˜ no m × n, de entradas reales} si A ∈ M (m, n), B ∈ M (m, n) definimos A + B = C donde C ∈ M (m, n) y cij = aij + bij Para el caso m = 1, n = 1 identificamos M (1, 1) con R C se denomina la suma de A con B y es una matriz del mismo tama˜ no que A y B y tal que su entrada −ij− es la suma de los n´ umeros reales de las entradas −ij− de A y de B respectivamente.
10
CAP´ ITULO 1. MATRICES
a11
··· .. .
a1n
· · · aij · · · .. . am1 · · · amn a11 + b11 ··· am1 + bm1
b11
··· .. .
b1n
+ · · · bij · · · = .. . bm1 · · · bmn ··· a1n + b1n .. . aij + bij ··· .. . ··· amn + bmn
Ejemplo 6
2 1 −2 0 4 −1 3 √ 2 1 7 6 0 4 + −0.5 0 −3 −1 −5 3 1 1 π 1 1 0 3 0 −7 4 5 + √2 2 = 2.5 0 −3 + π 9π 1 0 8
2 −7 4 2 5 1 0 −4 = 0 π −1 5 −1 π8 0 1 8 35 7 2 −2 0 1 2
La siguiente proposici´on presenta las propiedades de la suma de matrices. Proposici´ on 1 Para cada tama˜ no, la adici´on as´ı definida satisface las siguientes propiedades: 1. Propiedad Asociativa. Para toda A ∈ M (m, n), B ∈ M (m, n), C ∈ M (m, n) A + (B + C) = (A + B) + C
´ 1.3. ALGEBRA DE MATRICES
11
2. Propiedad modulativa. Existe 0m×n ∈ M (m, n), tal que para toda A ∈ M (m, n) A+0m×n =0m×n + A = A 3. Propiedad Invertiva. Para toda A ∈ M (m, n), existe B ∈ M (m, n) tal que A + B = B + A =0m×n 4. Propiedad Conmutativa. Para toda A ∈ M (m, n), B ∈ M (m, n) A+B =B+A Prueba. 1. Basta comparar para todo i, 1≤ i ≤ m y para todo j, 1≤ j ≤ n, los elementos de la entrada −ij− de las matrices A+(B +C) y (A+B)+C as´ı: (A + (B + C))ij = aij + (B + C)ij = aij + (bij + cij ) ((A + B) + C)ij = (A + B)ij + cij = (aij + bij ) + cij La asociatividad de la adici´on de n´ umeros reales nos garantiza que las expresiones de la derecha representan el mismo n´ umero real, en consecuencia A + (B + C) = (A + B) + C 2. Basta observar que 0m×n es la matriz tal que todas sus entradas son cero y para todo i, 1≤ i ≤ m y para todo j, 1≤ j ≤ n, (A+0m×n )ij = aij + 0 = aij (0mxn + A)ij = 0 + aij = aij
12
CAP´ ITULO 1. MATRICES
3. Si A ∈ M (m, n) basta definir B ∈ M (m, n) por bij = −aij , para todo i, 1≤ i ≤ m y para todoj, 1≤ j ≤ n, y en consecuencia (A + B)ij = aij + bij = aij + (−aij ) = 0 (B + A)ij = bij + aij = (−aij ) + aij = 0 Al igual que en n´ umeros reales B se denomina “La opuesta de A” y se nota −A. Usualmente escribimos A − B por A + (−B) 4. Basta comparar, para todo i, 1≤ i ≤ m y para todo j, 1≤ j ≤ n, las entradas −ij− de las matrices (A + B) y (B + A) (A + B)ij = aij + bij (B + A)ij = bij + aij La conmutatividad de la adici´on de n´ umeros reales nos garantiza que las expresiones de la derecha representan el mismo n´ umero real, en consecuencia A + B = B + A.
1.3.2
´ MULTIPLICACION DE UN REAL POR UNA MATRIZ
Definici´ on 13 Sean λ ∈ R un n´ umero real y A ∈ M (m, n) definimos la “multiplicaci´ on del n´ umero real λ por la matriz A”(En ese orden) a la matriz del mismo tama˜ no de A y tal que para todo i, 1≤ i ≤ m y para todo j, 1 ≤ j ≤ n su entrada −ij− se obtiene multiplicando λ por la entrada −ij− de A. (λA) ∈ M (m, n) y para todo i, 1 ≤ i ≤ m y para todo j, 1 ≤ j ≤ n (λA)ij = λaij .
13
´ 1.3. ALGEBRA DE MATRICES
Ejemplo 7 Si A=
2 3A
=
2 3
2 3
.
(1) 13 6
2 3 (4) √ 2 3 . 3
1
4 √ 3
13 6
2 3
2 3
−5 −0.5
(−5) . (−0.5)
!
!
=
2 3 13 9
8 3 √ 2 3 3
− 10 3 − 13
!
La siguiente proposici´on presenta las propiedades de la multiplicaci´ on de escalares con matrices. Proposici´ on 2 Para cada tama˜ no, la multiplicaci´ on as´ı definida, satisface las siguientes propiedades: 1. Para todo λ ∈ R, µ ∈ R, y para toda A ∈ M (m, n), λ (µA) = (λµ) A 2. Para todo λ ∈ R, µ ∈ R, y para toda A ∈ M (m, n), (λ + µ)A = λA + µA 3. Para todo λ ∈ R y para toda A ∈ M (m, n), B ∈ M (m, n), λ(A + B) = λA + λB 4. Si A ∈ M (m, n) y 1 ∈ R,
1A = A
Prueba.− 1. Basta comparar, para todo i, 1≤ i ≤ m y para todo j, 1≤ j ≤ n, los elementos de la entrada −ij− de las matrices λ (µA) y (λµ) A: (λ (µA))ij = λ (µA)ij = λ(µaij )
14
CAP´ ITULO 1. MATRICES
((λµ)A)ij = (λµ) aij La asociatividad de la multiplicaci´ on de n´ umeros reales nos garantiza que las expresiones de la derecha representan el mismo n´ umero real, en consecuencia λ (µA) = (λµ) A. 2. Basta comparar, para todo i, 1≤ i ≤ m y para todo j, 1 ≤ j ≤ n, los elementos de la entrada −ij− de las matrices (λ + µ)A y λA + µA: ((λ + µ)A)ij = (λ + µ)aij = λaij + µaij (λA + µA)ij = (λA)ij + (µA)ij = λaij + µaij 3. Basta comparar, para todo i, 1≤ i ≤ m y para todo j, 1≤ j ≤ n, los elementos de la entrada −ij− de las matrices λ(A + B) y λA + λB: (λ(A + B))ij = λ (A + B)ij = λ(aij + bij ) (λA + λB)ij = (λA)ij + (λB)ij = λaij + λbij Puesto que la multiplicaci´ on de n´ umeros reales distribuye respecto de la adici´on, las expresiones de la derecha representan el mismo n´ umero real y en consecuencia λ(A + B) = λA + λB. 4. Para todo i, 1≤ i ≤ m y para todo j, 1≤ j ≤ n, (1A)ij = 1aij = aij puesto que 1 es la identidad para la multiplicaci´ on de n´ umeros reales.
1.3.3
´ DE MATRICES MULTIPLICACION
Definici´ on 14 Sean A una matriz vector fila tama˜ no 1 × n y B una matriz vector columna tama˜ no n × 1 b11 b21 . B = .. , A = a11 a12 · · · a1n , . . . bn1
15
´ 1.3. ALGEBRA DE MATRICES
definimos el producto AB, en ese orden, como el n´ umero real c que se obtiene como la suma de los productos de las entradas “correspondientes”; es decir, primera entrada de A por primera entrada de B, mas segunda entrada de A por segunda entrada de B, mas tercera por tercera y as´ı sucesivamente hasta la n-´esima entrada de A por n-´esima entrada de B. De esta forma:
c = a11 b11 + a12 b21 + a13 b31 + · · · + a1n bn1 Abreviadamente utilizando la notaci´ on
P
escribimos:
AB = C =
a11
a12
···
...
a1n
b11 b21 .. . .. . bn1
=
k=n P
a1k bk1
k=1
Es importante recalcar que para hablar de “entradas correspondientes” es necesario que el n´ umero de columnas de la matriz vector fila A sea igual al n´ umero de filas de la matriz vector columna B.
−3
5 4
−3
π
1
π 4 2 3 0
= −3π +
5 4
4 + (−3) (2) + 3π + 1 (0) = 1
Definici´ on 15 Sean A ∈ M (m, n), B ∈ M (n, s) definimos el producto AB, en ese orden, como la matriz C, tama˜ no m × s y tal que la entrada -ij− de C se obtiene al multiplicar la fila −i− de A por la columna −j−de B, de acuerdo con la definici´on anterior.
16
CAP´ ITULO 1. MATRICES
cij = Ai B (j) =
ai1
AB = C =
ai2
...
···
A1 B (1)
ain
A1 B (j)
··· .. .
.. .
b1j b2j .. . .. . bnj
k=n P
.. . ..
···
Am B (j)
B=
−4 6
. Am B (s)
···
aik bkj
k=1
A1 B (s)
···
Ai B (j)
Am B (1)
=
Ejemplo 8 Si A=
5 −2 , 3
7 −1 0
8 −5
2 −3
1 −5
!
entonces el producto AB es la matriz que resulta de
7
−1 0
es decir,
5
−2 3
−4 6
!
! −4 6 ! −4 6
7
−1
0
5
−2 3
AB =
8 −5
!
! 8 −5 ! 8 −5
2 −8 18
31 2 −15
7
−1
−1 4 −9
0
5
−2 3
2 −3
!
! 2 −3 ! 2 −3
7
−1
0
5
−2 3
1 −5
!
! 1 −5 ! 1 −5
−18 9 −15
El lector debe observar que la “operaci´ on” que acabamos de definir tiene particularidades especiales y no se comporta de la misma forma que la multiplicaci´on de n´ umeros reales; solo en el caso de matrices cuadradas opera dos elementos de un mismo conjunto y produce como resultado un elemento del
17
´ 1.3. ALGEBRA DE MATRICES
mismo conjunto; en los dem´as casos es completamente at´ıpica ya que tiene una condici´ on o requisito para su definici´on, “el n´ umero de columnas del primer factor debe ser igual al n´ umero de filas del segundo”, es decir opera elementos de conjuntos diferentes y adem´ as produce como resultado un elemento de otro conjunto distinto. Los siguientes ejemplos muestran algunas situaciones donde se evidencia el comportamiento especial de la multiplicaci´ on de matrices. Ejemplo 9 1. Si A =
−1 2 1
0 −7 2
C = AB =
3 11 , −2
3 18 −4
0 −1 1
B=
1 32 1
5 3 3
1 3 2
5 0 , 2
entonces
y D = BA =
7 7 5
3 −21 −10
1 30 21
. Se observa que A, B, AB y BA son matrices cuadradas 3 × 3, aun cuando AB 6= BA.
Si L =
1 0 1 0
0 1 0 1
,
S=
0 1
LS =
1 0
0 1 0 1
0 1
1 0 1 0
!
1 0
0 1 0 1
1 0 1 0
, entonces
y SL =
0 2 2 0
!
Es decir que, L ∈ M (4, 2), S ∈ M (2, 4) y LS ∈ M (4, 4) mientras que SL ∈ M (2, 2) Si U =
2 0 2
0 3 , 0
V =
1 0
−1 2
UV =
0 1
2 0 2
−1 1
!
−2 6 −2
, se tiene que 0 3 0
−2 3 −2
18
CAP´ ITULO 1. MATRICES
Es decir que, U ∈ M (3, 2), V ∈ M (2, 4) y U V ∈ M (3, 4), mientras que V U no est´a definido. Si A =
1 0
0 0
!
,B=
0 0
0 1
!
, entonces
AB = BA =
0 0
0 0
!
Las matrices A, B, AB y BA son cuadradas 2 × 2, A 6= 02×2 , B 6= 02×2 sin embargo AB = BA = 02×2 La siguiente proposici´on presenta las propiedades de la multiplicaci´ on entre matrices. Proposici´ on 3 1. Si A ∈ M (m, n), B ∈ M (n, r) y C ∈ M (r, s) entonces (AB)C = A(BC) 2. Si A ∈ M (m, n), B ∈ M (n, r) y C ∈ M (n, r) entonces A(B + C) = AB + AC 3. Si A ∈ M (m, n), B ∈ M (m, n) y C ∈ M (n, r) entonces (A + B)C = AC + BC 4. Si A ∈ M (m, n), B ∈ M (n, r) y λ ∈ R entonces ((λA) B) = (A (λB)) = λ (AB) 5. I(m) y I(n) son tales que para toda matriz A ∈ M (m, n) tenemos I(m) A = A = AI(n) Prueba.−
19
´ 1.3. ALGEBRA DE MATRICES
1. Evidentemente todos los productos est´an definidos y las matrices finales resultan del mismo tama˜ no, basta entonces observar que para todo i, 1≤ i ≤ m y para todo j, 1 ≤ j ≤ s, k=r X
((AB) C)ij =
(AB)ik ckj =
(A(BC))ij =
aik (BC)kj =
k=n X
aik
t=r X
!
ckj =
t=n k=r X X
ait btk ckj
t=r k=n XX
aik bkt ctj
k=1 t=1
bkt ctj
t=1
k=1
k=1
ait btk
t=1
k=1
k=1
k=n X
t=n k=r X X
!
=
k=1 t=1
Las propiedades algebraicas de la adici´on y multiplicaci´ on de n´ umeros reales nos garantizan que las expresiones de la derecha en ambos casos representan el mismo n´ umero real, en consecuencia (AB)C = A(BC) 2. Evidentemente las sumas y los productos est´an definidos y las matrices finales resultan del mismo tama˜ no, basta entonces observar que para todo i, 1≤ i ≤ m y para todoj, 1≤ j ≤ r, (A(B +C))ij =
k=n X
aik (B +C)kj =
k=n X
aik (bkj +ckj ) =
(AB+AC)ij = (AB)ij +(BC)ij =
k=n X k=1
aik bkj +
aik bkj +aik ckj
k=1
k=1
k=1
k=n X
k=n X
aik ckj =
k=1
k=n X
aik bkj +aik ckj
k=1
En consecuencia, A(B + C) = AB + AC 3. Ejercicio para el lector. 4. Las matrices ((λA)B), (A(λB)) y (λ(AB)) resultan matrices del mismo tama˜ no en consecuencia es suficiente probar que coinciden en cada una de sus entradas correspondientes. Ahora, para todo i, 1 ≤ i ≤ m y para todo j, 1 ≤ j ≤ r,
20
CAP´ ITULO 1. MATRICES
((λA)B)ij =
k=n P k=1
(A(λB)ij ) =
k=n P
(λA)ik bkj = aik (λB)kj =
k=n P
λaik bkj = λ
aik (λbkj ) = λ
k=1
k=1
aik bkj = (λ(AB))ij
k=1
k=1
k=n P
k=n P
por tanto ((λA)B) = (A(λB)) = (λ(AB)).
k=n P
aik bkj = (λ(AB))ij
k=1
5. Recordamos que I(m) es la matriz cuadrada de orden m tal que I(m) 0 si k 6= l, y I(m) kk = 1, entonces I(m) A ij = =
k=n X k=1
= aij
I(m)
ik
akj
kl
=
= 0a1j + ... + 1aij + 0ai+1,j + ... + 0anj
El lector probar´ a la igualdad restante.
Para cada entero positivo n, en el conjunto M (n, n), matrices cuadradas de orden n, la propiedad (5) corresponde exactamente a decir que la matriz I(n) se comporta como m´ odulo o elemento id´entico para la multiplicaci´ on en el conjunto.
1.3.4
´ OTROS RESULTADOS EN ALGEBRA DE MATRICES.
Definici´ on 16 Si A ∈ M (n, n) definimos A2 = AA y para cada entero positivo k > 2, Ak+1 = Ak A = A · A · ... · A; A tomado k + 1 veces como factor.
´ 1.3. ALGEBRA DE MATRICES
21
Proposici´ on 4 Si A ∈ M (n, n) y r, s enteros positivos entonces (Ar ) (As ) = Ar+s y (Ar )s = Ars Prueba.− Evidentemente todas las matrices que intervienen son tama˜ no n × n. r s r+s Probamos el resultado (A )(A ) = A , por inducci´on sobre el entero positivo s, asumiendo r fijo. Para s = 1 es claro que (Ar )A = Ar+1 . Suponemos la proposici´on verdadera para s = k, es decir (Ar )(Ak ) = Ar+k , calculamos (Ar )(Ak+1 ) y obtenemos
(Ar )(Ak+1 ) = (Ar )((Ak A)) = (Ar Ak )(A) = (Ar+k )A = A(r+k)+1 = Ar+(k+1)
por lo tanto, para todo s ∈ Z+ , (Ar )(As ) = Ar+s . Igualmente para el resultado (Ar )s = Ars . Para s = 1 es claro que (Ar )1 = Ar . Suponemos la proposici´on verdadera para s = k, es decir (Ar )k = Ark , calculamos (Ar )k+1 y obtenemos (Ar )k+1 = (Ar )k Ar = (Ark )(Ar ) = A(rk)+r = Ar(k+1) por lo tanto, para todo s ∈ Z+ , (Ar )s = Ars . k !Importante! Si A ∈ M (n, n), B ∈ M (n, n) no necesariamente (AB) = Ak B k Ejemplo 10
22
CAP´ ITULO 1. MATRICES
Si A =
1 0
2 3
!
,B= 5 9
AB =
4 6
−1 3 !
0 2
!
, entonces
3
, A =
1 0
26 27
!
3
, B =
−1 9
0 8
508 828
!
!
y 3
3
A B =
233 243
208 216
!
3
y (AB) =
701 1143
Proposici´ on 5 1. Si A ∈ M (m, n) y los productos existen, entonces 0A = A0 = 0 2. Si A ∈ M (m, n) y 0 ∈ R, entonces 0.A = 0 3. Si A ∈ M (m, n) y (−1) ∈ R, entonces (−1) A = −A 4. Si k ∈ R, entonces
k (0mxn ) = 0mxn
Prueba.− 1. Para todo entero positivo k, la matriz 0kxm se puede multplicar con A, en ese orden y ((0kxm ) A)ij =
k=m X k=1
(0kxm )ik akj =
k=m X
0.akj = 0,
k=1
an´ alogamente se procede con la multiplicaci´ on a derecha. 2. Basta obserar que para todo i, 1 ≤ i ≤ n y para todo j, 1 ≤ j ≤ n, (0A)ij = 0aij = 0
23
´ 1.3. ALGEBRA DE MATRICES
3. Basta obsevar que A + (−1)A = (1 + (−1))A = 0.A = 0 4. Ejercicio para el lector.
Definici´ on 17
Si A ∈ M (n, n), denominamos la traza de A notada T r(A), al n´ umero real T r(A) = a11 + a22 + · · · + ann =
k=n X
akk
k=1
Proposici´ on 6 Si A ∈ M (n, n), B ∈ M (n, n), k ∈ R entonces: 1. T r(A + B) = T r(A) + T r(B) 2. k · T r(A) = T r(k · A) 3. T r(AB) = T r(BA) Prueba.− 1. T r(A + B) =
=
=
k=n X
k=1 k=n X
k=1 k=n X k=1
.
(A + B)kk akk + bkk akk +
k=n X
bkk + T r(A) + T r(B)
k=1
24
CAP´ ITULO 1. MATRICES
2. Ejercicio para el lector.
3. T r(AB) =
i=n P i=1
T r(BA).
!Importante!
(AB)ii =
i=n P i=1
k=n P
aik bki
k=1
=
k=n P k=1
i=n P i=1
bki aik
=
k=n P k=1
(BA)kk =
La T r(AB) No necesariamente es igual a T r(A)T r(B)
Ejemplo 11
Si A =
1 0 1
−2 −2 0
3 5 1
yB=
2 −2 3
AB =
−4 −1 0
15 19 5
0 7 , 5 −2 2 −4
entonces
1 11 5
y adem´ as T r(A) = 0, T r(B) = 6, T r(A) · T r(B) = 0, T r(A.B) = 22 Definici´ on 18 Si A ∈ M (m, n) denominamos la transpuesta de A, notada AT , a la matriz tama˜ no nxm que se obtiene de A al transformar sus filas en columnas y sus columnas en filas en el mismo orden.
AT ∈ M (n, m) tal que para todo 1≤ i ≤ n y para todoj, 1≤ j ≤ m, aji
AT
ij
=
25
´ 1.3. ALGEBRA DE MATRICES
Ejemplo 12
A=
1 0 6
2 −9 7
3 −8 8
4 −7 9
5 −6 , 0
T
A =
1 2 3 4 5
0 −9 −8 −7 −6
6 7 8 9 0
Proposici´ on 7 Si A ∈ M (m, n), B ∈ M (m, n) y k ∈ R, entonces 1. AT
T
=A
2. (A + B)T = AT + B T 3. (kA)T = kAT 4. y si A ∈ M (m, n), B ∈ M (n, r) entonces (AB)T = B T AT Prueba.− T 1. Es claro que AT ∈ M (m, n) y para todo i, 1≤ i ≤ m y para todo j, 1≤ j ≤ n tenemos
AT
T
ij
= AT
ji
= aij .
2. Es claro que (A + B)T , AT ,B T ∈ M (n, m) y para todo i, 1≤ i ≤ m y para todo j, 1≤ j ≤ n tenemos (A + B)T
ij
= (A + B)ji = aji + bji = AT
3. Ejercicio para el lector.
+ BT ij
ij
= AT + B T
ij
26
CAP´ ITULO 1. MATRICES
4. (AB)T ∈ M (r, m), B T ∈ M (r, n), AT ∈ M (n, m) y para todo i, 1≤ i ≤ r y para todo j, 1≤ j ≤ m tenemos (AB)
T
ij
= (AB)ji =
k=n X
ajk bki =
k=n X
bki ajk =
k=1
k=1
k=1
k=n X
BT
ik
AT
kj
Definici´ on 19 Decimos que una matriz cuadrada A es sim´etrica si y solamente si AT = A, es decir si y solo si para todo i, 1≤ i ≤ n y para todo j, 1≤ j ≤ n aij = aji . Definici´ on 20 Decimos que una matriz cuadrada A es antisim´etrica si y solamente si AT = −A, es decir si y solo si para todo i, 1≤ i ≤ n y para todo j, 1≤ j ≤ n aij = −aji . Ejemplo 13
A=
1 −2 −3 6
−2 0 √ 3 0
−3 √ 3 2 −1
6 0 −1 7
es una matriz sim´etrica y
B=
es una matriz antisim´etrica.
0 1 −3 −2 0
−1 0 −5 π 1
3 5 0 8 1 5
2 −π −8 0 −0.5
0 −1 − 15 0.5 0
27
´ 1.3. ALGEBRA DE MATRICES
Proposici´ on 8 Sea A ∈ M (n, n) antisim´etrica entonces para todo i, 1 ≤ i ≤ n se tiene que aii = 0. Prueba.− Si antisim´etrica entonces para todo i, 1 ≤ i ≤ n aii = −aii y en consecuencia para todo i, 1 ≤ i ≤ n aii = 0. Proposici´ on 9 Si A ∈ M (n, n), entonces B = A + AT es sim´etrica, yA=
1 2
C = A − AT es antisim´etrica,
(B + C)
Prueba.− B T = (A + AT )T = AT + AT sim´etrica.
T
= AT + A = B, es decir B es una matriz
T T Por otra parte, C T = A − AT = AT − AT = AT − A = − A − AT = −C, es decir C es una matriz antisim´etrica y claramente (B + C) = (A + AT ) + (A − AT ) = 2A
es decir
A=
1 2
(B + C) .
28
CAP´ ITULO 1. MATRICES
Cap´ıtulo 2
SISTEMAS DE ECUACIONES LINEALES
2.1
ECUACIONES Y SOLUCIONES
Una buena cantidad de las respuestas a preguntas que tienen que ver con los conceptos estudiados en este escrito se obtiene al “resolver” un sistema de ecuaciones lineales. Auncuando muy seguramente el lector puede tener alguna experiencia en este tema consideramos de fundamental importancia precisar cada uno de los t´erminos y procedimientos a fin de garantizar que nuestras respuestas son ciertas,claras y universales. En particular nos parece importante romper la creencia equivocada de que la mera comparaci´on del n´ umero de inc´ognitas con el n´ umero de ecuaciones nos permite tomar decisiones en el caso general. Definici´ on 1 La expresi´ on a1 x1 +a2 x2 +· · ·+an xn = b (1) donde n es un entero positivo, a1 , a2 , · · · , an , b son n´ umeros reales y x1 , x2 , · · · , xn son inc´ognitas o indeterminadas, se denomina una ecuaci´ on lineal en R con n inc´ ognitas, a1 , a2 , · · · , an se denominan los coeficientes y b el t´ermino independiente o t´ermino constante. 29
30
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
El adjetivo, lineal, hace referencia a que todas las inc´ognitas que aparecen en la ecuaci´ on (1) tienen exponente uno. Los enteros 1, 2, · · · , n ordenan de manera natural las inc´ognitas, en consecuencia nos referimos a x1 como la primera inc´ognita, x2 la segunda y as´ı sucesivamente, xn la n-´esima. Ejemplo 1
2x1 + 3x2 − 5x3 = 4 es una ecuaci´ on lineal con tres inc´ognitas, donde 2 es el coeficiente de la primera inc´ognita, 3 es el coeficiente de la segunda, (-5) el coeficiente de la tercera inc´ognita y 4 es el t´ermino independiente. Por costumbre, en casos espec´ıficos, cuando n es “peque˜ no”, nombramos las inc´ognitas con algunas de las u ´ltimas letras del alfabeto x, y, z, w , as´ı la ecuaci´ on del ejemplo puede encontrarse escrita como: 2x + 3y − 5z = 4 La expresi´ on (1) es una expresi´ on formal, pero si reemplazamos las inc´ognitas por n´ umeros reales e interpretamos los signos de operaci´on (+) y (.), como la adici´on y multiplicaci´ on de reales obtenemos una igualdad que puede ser verdadera o falsa. As´ı, si en la ecuaci´ on 2x + 3y − 5z = 4 reemplazamos x por 5, y por 1, z por 3; obtenemos 2 (5) + 3 (1) − 5 (3) = 4 que claramente es falsa; pero si reemplazamos x por 13, y por 6, z por 8 obtenemos 2 (13) + 3 (6) − 5 (8) = 4 igualdad evidentemente verdadera Definici´ on 2 Si a1 x1 + a2 x2 + · · · + an xn = b es una ecuaci´ on lineal y (α1 , α2 , · · · , αn ) es un conjunto ordenado de n´ umeros reales tal que al reemplazar x1 por α1 , x2 por α2 , · · · , xn por αn se verifica la igualdad, es decir, es cierto que
2.1. ECUACIONES Y SOLUCIONES
31
a1 α1 + a2 α2 + · · · + an αn = b, decimos que (α1 , α2 , · · · , αn ) es una soluci´ on de la ecuaci´ on. Usualmente escribimos x 1 = α1 , x 2 = α2 , · · · , x n = αn es una soluci´ on de (1) Ejemplo 2 Puesto que 2 (13) + 3 (6) − 5 (8) = 4 y 2 (1) + 3 (1) − 5 51 = 4 decimos que x = 13, y = 6, z = 8 y x = 1, y = 1, z = 51 son dos soluciones de la ecuaci´ on 2x + 3y − 5z = 4 Adem´ as, si reemplazamos y por 0, z por 2 y “despejamos” x, obtenemos x=
1 (4 − 3(0) + 5(2)) = 7 2
y claramente x = 7, y = 0, z = 5 es una soluci´on de 2x + 3y − 5z = 4. En general, si reemplazamos y por a, z por b,con a, b n´ umeros reales arbitrar1 ios y despejamos x, obtenemos x = 2 (4 − 3a + 5b) y claramente, para cada a, b ∈ R, se tiene que: 1 x = (4 − 3a + 5b) 2 y=a z=b es una soluci´on de 2x + 3y − 5z = 4; usualmente llamada la soluci´ on general. Igualmente la soluci´on general se obtiene si asignamos valores arbitrarios a dos de las inc´ognitas y despejamos la tercera. Respecto de las soluciones de ecuaciones lineales en R, afirmamos:
32
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
• Si a 6= 0, la ecuaci´ on ax = b tiene una u ´nica soluci´on a saber x = a−1 b = ab . • Si b 6= 0, la ecuaci´ on lineal 0x1 + 0x2 + · · · + 0xn = b NO tiene soluci´on. • Una ecuaci´ on lineal con mas de una inc´ognita y por lo menos dos de sus coeficientes diferentes de cero tiene muchas soluciones (Infinitas), basta reemplazar todas las incognitas, menos una, por n´ umeros reales arbitrarios y “despejar la restante” para obtener la soluci´on general. Definici´ on 3 Sean m, n enteros positivos,una lista ordenada de m ≥ 1 ecuaciones lineales con las mismas n ≥ 1 inc´ognitas, se denomina sistema de m ecuaciones lineales simult´ aneas con n inc´ ognitas.
Escribimos:
a11 x1 + a12 x2 + · · · + a1n xn = b1 a21 x1 + a22 x2 + · · · + a2n xn = b2 .. . ai1 x1 + ai2 x2 + · · · + ain xn = bi .. .
(2)
am1 x1 + am2 x2 + · · · + amn xn = bm
para referirnos de forma general a un sistema de ecuaciones, donde observamos que cada coeficiente tiene dos sub´ındices −ij− que nos indican que es el coeficiente en la ecuaci´ on −i− que acompa˜ na a la inc´ognita xj y cada t´ermino independiente tiene el sub´ındice que indica la ecuaci´ on a la que corresponde; as´ı por ejemplo a23 es el coeficiente en la segunda ecuaci´ on de la inc´ognita x3 y b6 es el t´ermino independiente de la ecuaci´ on seis.
2.1. ECUACIONES Y SOLUCIONES
33
Ejemplo 3 2x + 3y − 2z = 4 3x − 2y − 4z = 1 −x + 4y + z = −2
es un sistema de 3 ecuaciones con tres inc´ognitas. Ejemplo 4
(
−x + 3y − 5z = 0
y − 3z = −1
es un sistema de 2 ecuaciones con tres inc´ognitas. Ejemplo 5
2x − 3y = 0
5x + y = −1
−2x − 2y = 3 2x =8
es un sistema de 4 ecuaciones con dos inc´ognitas Cuando no hay riesgo de confusi´ on omitimos el corchete ({ )en la escritura. Ejemplo 6
3x − 2y = 5 6x − 4y = 1
34
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
es un sistema de dos ecuaciones con dos inc´ognitas. Definici´ on 4 Una soluci´on simult´ anea de todas las ecuaciones de un sistema de ecuaciones se denomina una soluci´ on del sistema Ejemplo 7 Dado el sistema: 2x + 3y − 2z = 4
3x − 2y − 4z = 1
−x + 4y + z = −2
afirmamos que x = 7, y = 0, z = 5 es una soluci´on del sistema, puesto que
2 (7) + 3 (0) − 2 (5) = 4
3 (7) − 2 (0) − 4 (5) = (1)
− (7) + 4 (0) + (5) = −2
Un sistema de ecuaciones lineales puede tener o no tener soluci´on y cuando tiene soluci´on puede tener una u ´nica o muchas (Infinitas). Cuando un sistema no tiene soluci´on lo denominamos inconsistente; cuando tiene soluci´on lo denominamos consistente. Ejemplo 8
3x − 5y = 1
x−y =3
tiene una u ´nica soluci´on, a saber x = 7, y = 4
2.1. ECUACIONES Y SOLUCIONES
35
Ejemplo 9
3x − 5y = 1
3x − 5y = 0
NO tiene soluci´on, es inconsistente. La existencia de una soluci´on, implica 0 = 1 Ejemplo 10
3x − 5y = 1
6x − 10y = 2 tiene infinitas soluciones, todas de la forma: 1 x = (1 + 5a) 3 y=a para cualquier valor real de a. NUESTRO OBJETIVO FINAL. Nuestro objetivo final en este cap´ıtulo es resolver sistemas de ecuaciones lineales, entendiendo por “resolver”, que frente a un sistema cualquiera podamos decidir si es consistente o inconsistente y en el evento que sea consistente decidir si tiene una u ´nica soluci´ on y hacerla expl´ıcita o si tiene muchas, dar un procedimiento eficaz para encontrar cualquiera de ellas.
De manera coloquial diremos que el camino a seguir para el logro de este objetivo ser´a: 1. Asociar de manera un´ıvoca cada sistema de ecuaciones lineales con una matriz. (Su matriz aumentada)
36
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
2. Mostrar que siempre es posible “resolver el sistema” cuando la matriz aumentada satisface ciertas condiciones. (La matriz de coeficientes es escalonada reducida) 3. Presentar un algoritmo que permite transformar cualquier sistema en uno de los mencionados en la afirmaci´on anterior con soluciones id´enticas.
2.2
MATRICES Y SISTEMAS DE ECUACIONES
Consideramos el sistema de ecuaciones a11 x1 + a12 x2 + · · · + a1n xn = b1 a21 x1 + a22 x2 + · · · + a2n xn = b2 .. . ai1 x1 + ai2 x2 + · · · + ain xn = bi .. .
,
(2)
am1 x1 + am2 x2 + · · · + amn xn = bm Definici´ on 5 La matriz
A ∈ M (m, n)
A=
a11 .. . ai1 .. . am1
··· .. .
a1j
···
aij .. ···
amj
.
···
a1n .. . ain .. . amn
= (aij )
la denominamos la matriz de coeficientes del sistema (2). Definici´ on 6 La matriz columna
B ∈ M (m, 1)
2.2. MATRICES Y SISTEMAS DE ECUACIONES
B=
b1 .. . bi .. . bm
la denominamos la matriz de los t´erminos constantes del sistema (2). Ejemplo 11 En el sistema 2x + 3y − 2z = 4
3x − 2y − 4z = 1
−x + 4y + z = −2
la matriz de coeficientes del sistema es: A=
2 3 −1
3 −2 4
y la matriz de t´erminos constantes es: B=
−2 −4 1
4 1 −2
Ejemplo 12 En el sistema 2x − 3y = 0
5x + y = −1
−2x − 2y = 3 2x
=8
La matriz de coeficientes A y la matriz de B t´erminos constantes son:
37
38
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
A=
2 5 −2 2
3 1 −2 0
y
B=
0 −1 3 8
En la construcci´ on de la matriz de coeficientes debemos ser muy cuidadosos, debemos tener en cuenta que cuando una inc´ognita no aparece en alguna ecuaci´ on del sistema su coeficiente es cero y as´ı lo debemos escribir. Ejemplo 13 El sistema 2x + 3y = 1 4y − 5z = 2 −z − w = 0 es un sistema de 3 ecuaciones con 4 inc´ognitas,a saber : x, y, z, w. Para mayor claridad antes de escribir su matriz de coeficientes, escribimos el sistema as´ı:
2x + 3y + 0z + 0w = 1 0x + 4y − 5z + 0w = 2
0x + 0y − z − w = 0
y en consecuencia la matriz de coeficientes A y la matriz de B t´erminos constantes son: A=
2 0 0
3 4 0
0 −5 −1
0 0 −1
1 B = 2 . 0
Puesto que la matriz de coeficientes no identifica de manera un´ıvoca un sistema de ecuaciones, pues muchos sistemas diferentes pueden tener la misma matriz de coeficientes, constru´ımos otra que s´ı lo hace.
2.2. MATRICES Y SISTEMAS DE ECUACIONES
39
Definici´ on 7 La matriz de tama˜ no m×(n+1), notada (A |B ) donde A es la matriz de coeficientes y B la matriz vector columna de t´erminos constantes, la denominamos la matriz aumentada del sistema (2). Ejemplo 14 En el sistema 2x + 3y − 2z = 4
3x − 2y − 4z = 1
−x + 4y + z = −2
La matriz aumentada es: (A |B ) =
2 3 −1
3 −2 4
−2 −4 1
Ejemplo 15
4 1 −2
En el sistema 2x − 3y = 0
5x + y = −1
−2x − 2y = 3
2x = 8
La matriz aumentada es:
(A |B ) =
2 5 −2 2
3 1 −2 0
0 −1 3 8
40
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
Ejemplo 16 En el sistema 2x + 3y + 0z + 0w = 1 0x + 4y − 5z + 0w = 2
0x + 0y − z − w = 0
La matriz aumentada es: (A |B ) =
2 0 0
3 4 0
0 −5 −1
0 0 −1
1 2 0
Observaci´ on. Es importante observar que una vez escrito el sistema en forma ordenada y “completa” (En todas las ecuaciones todas las inc´ognitas incluso las de coeficiente cero), la matriz aumentada del sistema se obtiene borrando las inc´ognitas y reemplazando los s´ımbolos “igual” por la vertical que separa la matriz de coeficientes de la matriz de t´erminos independientes y en este contexto cada columna de la matriz de coeficientes corresponde a una inc´ognita y cada fila de la matriz aumentada corresponde a una ecuaci´ on. Por otra parte, si consideramos una matriz vector columna cuyas entradas son las inc´ognitas:
X=
x1 .. . xj .. . xn
y evocamos la multiplicaci´ on de matrices, es f´acil verificar que el sistema (2) se puede mirar como la ecuaci´ on en matrices: AX = B
(3)
2.3. MATRICES ESCALONADAS
41
En lo que sigue y mientras sea posible, utilizaremos esta u ´ltima escritura para referirnos a un sistema de ecuaciones lineales donde A ∈ M (m, n) es la matriz de coeficientes, X ∈ M (n, 1) la matriz vector columna de inc´ognitas y B ∈ M (m, 1) la matriz vector columna de t´erminos constantes o independientes.
2.3
MATRICES ESCALONADAS
Definici´ on 8 Decimos que una matriz A ∈ M (m, n), A 6= 0 es escalonada si satisface las siguientes condiciones: • Si hay una fila de ceros, todas de esa en adelante son filas de ceros. • En dos filas consecutivas no nulas, el primer elemento diferente de cero de la primera aparece en una columna anterior al primero diferente de cero de la siguiente. Coloquialmente decimos que una matriz no nula, es escalonada si el n´ umero de ceros que anteceden al primer elemento diferente de cero, crece fila por fila y si hay una fila de ceros todas de ella en adelante son filas de ceros. Ejemplo 17 La matriz A=
2 0 0
−2 0 0
0 −5 0
5 0 0
0 1 7
es escalonada pues el primer elemento diferente de cero de la fila -1- aparece en la columna -1 -, el primero diferente de cero de la siguiente fila aparece en la columna -3 - (Dos a la derecha de la uno), y el primero diferente de cero de la siguiente aparece en la columna -5 - (Dos a la derecha de la tres)
42
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
Ejemplo 18 La matriz
B=
0 0 0 0 0
−5 0 0 0 0
0 3 0 0 0
−4 −2 0 0 0
8 11 6 0 0
−1 −2 −7 −5 0
es escalonada, pues si contamos el n´ umero de ceros anteriores al primer diferente de cero de cada fila tenemos: Primera fila, uno. Segunda fila, dos. Tercera fila, cuatro. Cuarta fila, cinco y claramente 1 < 2 < 4 < 5 Ejemplo 19 La matriz
C=
√
5 0 0 0 0
−5 0 0 0 0
0 √ 2 0 0 0
−4 −2 0 0 0
8 11 6 0 0
−1 −2 −7 5 1
No es escalonada porque el n´ umero de ceros anteriores al primer elemento diferente de cero No crece de la fila cuatro a la cinco, en ambos casos es cinco. Ejemplo 20 La matriz
D=
1 0 0 0 0
−2 2 0 0 0
5 4 1 0 0
7 −1 3 0 5
43
2.3. MATRICES ESCALONADAS
No es escalonada porque la fila cuatro es una fila de ceros y la siguiente no lo es.
Definici´ on 9 Si A ∈ M (m, n), A 6= 0 es una matriz escalonada, el primer elemento diferente de cero de cada fila lo denominamos el pivote, o principal, o elemento distinguido de la fila. Ejemplo 21 En la matriz escalonada
A=
los pivotes,principales, la entrada −12− en la la entrada −23− en la la entrada −35− en la la entrada −46− en la
0 0 0 0 0
−5 0 0 0 0
0 3 0 0 0
−4 −2 0 0 0
8 11 6 0 0
−1 −2 −7 −5 0
o distinguidos aparecen en primera fila segunda fila. tercera fila cuarta fila.
Podemos reescribir las definiciones anteriores en t´erminos de las entradas en la forma siguiente: Definici´ on 10 Decimos que una matriz A ∈ M (m, n), A 6= 0 es escalonada si existen enteros r, k1 , k2 , · · · kr tales que: • 1≤r≤m • aiki 6= 0
y si
1 ≤ k1 < k2 < · · · < kr ≤ n
i
44
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
• aij = 0 si
j < ki
o i>r
Los elementos de las entradas −iki − los denominamos pivotes o elementos distinguidos. En el ejemplo anterior tenemos A ∈ M (5, 6), r = 4, k1 = 2, k2 = 3, k3 = 5, k4 = 6 Es importante recalcar que en una matriz escalonada todas las filas diferentes de cero tienen un pivote, no as´ı las columnas. Proposici´ on 1 Si A ∈ M (m, n), A 6= 0 es escalonada entonces todos los elementos en entradas por debajo de la diagonal principal, son cero.
Prueba.− La desigualdad 1 ≤ k1 < k2 < · · · < kr ≤ n de la definici´on de matriz escalonda implica que para todo i , 1 ≤ i ≤ r tenemos que i ≤ ki ,por lo tanto si j < i, entonces j < i ≤ ki y por lo tanto aij = 0. Definici´ on 11 Decimos que una matriz escalonada A ∈ M (m, n), A 6= 0 es reducida por filas si los pivotes son todos uno y son los u ´nicos diferentes de cero en su columna, es decir; si existen enteros r, k1 , k2 , · · · kr tales que: • 1≤r≤m
y
1 ≤ k1 < k2 < · · · < kr ≤ n
• aikj = 1 si i = j, y aikj = 0 si • aij = 0 si Ejemplo 22
j < ki
o i>r
i, j < r
45
2.3. MATRICES ESCALONADAS
A=
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
B=
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
−8 11 −6 −5 0
0 0 0 0 1
Las matrices A y B son matrices escalonadas reducidas por filas, puesto que cada pivote es 1 y es la u ´nica entrada diferente de cero en su columna. Ejemplo 23 Para cada entero positivo n, la matriz I(n) ;
I(n)
ij
=
es escalonada reducida.
(
1
0
0 1 si i = j = . . 0 si i 6= j .
1
0
··· ..
···
0
.
0 .. . 0 1
Proposici´ on 2 Si A ∈ M (m, n), A 6= 0 es una matriz escalonada reducida, sin filas de ceros, entonces m = n y A = I(n) o existe k tal que la columna A(k) no tiene pivote. Prueba.− La mejor manera de leer esta prueba es tomar papel y lapiz e intentar construir una matriz que cumpla las condiciones de la hip´ otesis. Supongamos A ∈ M (m, n) A 6= 0 una matriz escalonada reducida y tal que todas sus columnas tienen pivote, entonces para todo i , 1 ≤ i ≤ min {m, n} tenemos que aii = 1 y es el pivote de la fila i, puesto que si i0 es el primer sub´ındice tal que ai0 i0 = 0 entonces la columna A(i0 ) no tiene pivote. Ahora, si m > n entonces n = min{m, n} y A(n+1) es una fila de ceros, contrario a la hip´ otesis y si n > m; m = min{m, n} y A(m+1) no tiene pivote, contrario al supuesto.
46
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
En consecuencia m = n y A = I(n) .
2.4
! UN LOGRO PARCIAL !
En algunos casos, seg´ un la naturaleza de la matriz de coeficientes o la de t´erminos constantes, el logro de nuestro objetivo es inmediato. Definici´ on 12 Si A ∈ M (m, n) el sistema de ecuaciones A.X = 0 se denomina sistema homogeneo. Un sistema de ecuaciones lineales homogeneo siempre tiene soluci´on, basta observar que para cada i, 1 ≤ i ≤ n ai1 0 + ai2 0 + · · · + ain 0 = 0 Definici´ on 13 La soluci´on x1 = 0, x2 = 0, · · · , xn = 0 de un sistema homogeneo AX = 0, la denominamos la soluci´ on trivial. Por otra parte, cuando la matriz de coeficientes de un sistema AX = B, es una matriz escalonada reducida; “RESOLVERLO”, es inmediato, basta observar tres casos, a saber: • CASO 1.-En el sistema aparece una ecuaci´ on inconsistente. Proposici´ on 3 Sea A ∈ M (m, n) A 6= 0 una matriz escalonada reducida y sea AX = B un sistema tal que una de sus ecuaciones es inconsistente entonces el sistema es inconsistente.
2.4. ! UN LOGRO PARCIAL !
47
Prueba.− Si el sistema tiene una soluci´on a saber (α1 , α2 , · · · , αn ) , ´esta es soluci´on simult´ anea de todas las ecuciones, contrario a la hip´ otesis. Ejemplo 24 En el sistema 1x + 0y + 0z + 0w = 5 0x + 1y + 0z + 0w = −7
0x + 0y + 1z + 0w = 0 0x + 0y + 0z + 1w = 1 0x + 0y + 0z + 0w = 4 la matriz A=
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
de coeficientes es escalonada reducida y la quinta ecuaci´ on es claramente inconsistente, lo mismo que el sistema. • CASO 2.-En el sistema No hay ecuaciones inconsistentes y todas las columnas de la matriz de coeficientes tienen un pivote
Proposici´ on 4 Si A ∈ M (m, n) A 6= 0 es una matriz escalonada reducida tal que todas sus columnas tienen pivotes y AX = B un sistema de ecuaciones lineales consistente entonces la soluci´on es u ´nica. Prueba.−
48
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
Al no tener ecuaciones inconsistentes, la matriz de coeficientes escalonada reducida, no tiene filas de ceros o si las tiene corresponden a ecuaciones de la forma 0x1 + 0x2 + · · · + 0xn = 0 que pueden pensarse no escritas, en consecuencia, por la proposici´on 2, la matriz de coeficientes debe ser la matriz I(n) para alg´ un entero positivo n. y el sistema y su soluci´on acaban siendo exactamente lo mismo. Ejemplo 25 En el sistema 1x + 0y + 0z + 0w = 5 0x + 1y + 0z + 0w = −7 0x + 0y + 1z + 0w = 0
0x + 0y + 0z + 1w = 1 que es lo mismo que
x = 5, y = −7, z = 0, w = 1 • CASO 3.-En el sistema no hay ecuaciones inconsistentes y por lo menos una columna de la matriz de coeficientes no tiene pivote. Definici´ on 14 Si AX = B es un sistema de ecuaciones lineales cuya matriz de coeficientes es escalonada reducida, las inc´ognitas que corresponden a columnas con pivote las denominamos ligadas y las que corresponden a columnas sin pivote las denominamos libres.
2.4. ! UN LOGRO PARCIAL !
49
Proposici´ on 5 Si AX = B es un sistema de ecuaciones lineales consistente y A ∈ M (m, n) es una matriz escalonada reducida tal que por lo menos una de sus columnas no tiene pivote entonces el sistema tiene infinitas soluciones. Prueba.− Basta observar que si “despejamos” las inc´ognitas ligadas en t´erminos de las libres, por cada asignaci´ on arbitraria de valores a las inc´ognitas libres obtenemos los correspondientes para las ligadas que nos dan una soluci´on, es decir: Si renumeramos las inc´ogntas como xk1 , xk2 , · · · , xkr las ligadas y xt1 , xt2 , · · · , xts las libres; con r + s = n, despejar las inc´ognitas ligadas significa escribir el sistema en la forma siguiente: P xk1 = b1 − i=s i=1 a1ti xti Pi=s xk2 = b2 − i=1 a2ti xti .. . Pi=s xkr = br − i=1 arti xti Usualmente decimos que hemos escrito la familia de soluciones del sistema en t´erminos param´etricos y los par´ ametros son precisamente las asignaciones de las inc´ognitas libres. Ejemplo 26 El sistema x + 2y − 5v = 3
z + 4v = −1
w − 4v = 3 lo reescribimos
x + 2y + 0z + 0w − 5v = 3
0x + 0y + z + 0w + 4v = −1
0x + 0y + 0z + w − 4v = 3
50
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
en consecuencia su matriz aumentada es
1 0 0
2 0 0
0 1 0
0 0 1
−5 4 −4
y la matriz de coeficientes es
A=
1 0 0
2 0 0
0 1 0
0 0 1
3 −1 3 −5 4 −4
que es una matriz escalonada reducida, los pivotes aparecen en las columnas 1,3,4 en consecuencia las inc´ognitas x, z, w son ligadas y las inc´ognitas y, v son libres. Al despejar las inc´ognitas ligadas en t´erminos de las libres obtenemos:
x = 3 − 2y + 5v z = −1 − 4v
w = 3 + 4v
y para cada asignaci´ on y = a, v = b obtenemos la soluci´on: x = 3 − 2a + 5b y=a z = −1 − 4b w = 3 + 4b v=b
o X=
3 − 2a + 5b a −1 − 4b 3 + 4b b
,
a, b ∈ R
familia de soluciones escrita en t´erminos de los par´ ametros a, b usualmente denominada soluci´ on general. Si asignamos, por ejemplo, a = 1, b = 0 obtenemos:
2.5. SISTEMAS EQUIVALENTES
x=1 1 y=1 1 z = −1 o X1 = −1 3 w=3 0 v=0
51
Si asignamos, por ejemplo, a = 0, b = 1 obtenemos: x=8 y=0 z = −5 w=7 v=1
o X2 =
8 0 −5 7 1
soluciones que denominamos soluciones particulares. El lector verificar´a por c´alculo directo que X = aX1 + bX2 , resultado que no es una casualidad, pero que para el caso general, precisaremos mas adelante.
2.5
SISTEMAS EQUIVALENTES
Definici´ on 15 Decimos que dos sistemas de ecuaciones lineales con las mismas inc´ognitas son equivalentes si y solamente si tienen exactamente las mismas soluciones. Ejemplo 27 Los sistemas 2x + 3y − 2z = 4
3x − 2y − 4z = 1
−x + 4y + z = −2
1x + 0y + 0z = 7 y
0x + 1y + 0z = 0 0x + 0y + 1z = 5
52
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
son sistemas equivalentes. Ejemplo 28 Los sistemas 3x − 5y = 1
6x − 10y = 2
y
3x − 5y = 1
0x − 0y = 0
y
1 x + 0y = (1 + 5a) 3 0x + y = a
a ∈ R, son sistemas equivalentes. Proposici´ on 6 El conjunto ordenado (α1 , α2 , · · · , αn ) es una soluci´ on de la ecuaci´ on a1 x1 + a2 x2 +· · ·+an xn = b si y solamente si para todo k ∈ R, k 6= 0; (α1 , α2 , · · · , αn ) es una soluci´ on de la ecuaci´ on ka1 x1 + ka2 x2 + · · · + kan xn = kb Prueba.− Basta observar que a1 α1 + a2 α2 + · · · + an αn = b, si y solamente si ka1 α1 + ka2 α2 + · · · + kan αn = k (a1 α1 + a2 α2 + · · · + an αn ) = kb. Coloquialmente decimos que al multiplicar una ecuaci´ on por un real diferente de cero, sus soluciones no se alteran. Proposici´ on 7 Si el conjunto ordenado (α1 , α2 , · · · , αn ) es una soluci´ on simult´ anea de las ′ ′ ′ ecuaciones a1 x1 +a2 x2 +· · ·+an xn = b y a1 x1 +a2 x2 +· · ·+an xn = b′ entonces (α1 , α2 , · · · , αn ) es una soluci´on de la ecuaci´ on (a1 + ka′1 ) x1 + (a2 + ka′2 ) x2 + ′ ′ · · · + (an + kan ) xn = (b + kb ) Prueba.−
2.5. SISTEMAS EQUIVALENTES
53
Basta observar que si a1 α1 + a2 α2 + · · · + an αn = b, y a′1 α1 + a′2 α2 + · · · + a′n αn = b′ entonces (a1 α1 + a2 α2 + · · · + an αn ) + k (a′1 α1 + a′2 α2 + · · · + a′n αn ) = b + kb′ es decir (a1 + ka′1 ) α1 + (a2 + ka′2 ) α2 + · · · + (an + ka′n ) αn = (b + kb′ ) Cuando estamos estudiando sistemas de ecuaciones, coloquialmente decimos que si en un sistema reemplazamos una ecuaci´ on por la suma de ella mas un m´ ultiplo real de otra, sus soluciones no se alteran. Proposici´ on 8 Si AX = B y A′ X = B ′ son dos sistemas de ecuaciones lineales con las mismas inc´ognitas y tales que uno se obtiene del otro por una sucesi´on finita de uno o varios de los procedimientos siguientes: • Multiplicar una ecuaci´ on por un n´ umero real diferente de cero. • Reemplazar una ecuaci´ on por la suma de ella mas un real por otra. • Intercambiar dos ecuaciones. entonces AX = B
y
A′ X = B ′ son sistemas equivalentes.
Prueba.− Consecuencia inmediata de las proposiciones 6 y 7 del presente cap´ıtulo y de observar que el orden en la escritura de las ecuaciones del sistema no interviene en las soluciones. Ejemplo 29 Consideramos el sistema 3x − 5y = 1
x−y =3
1.- Intercambiamos las ecuaciones uno y dos y obtenemos:
54
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
x−y =3
3x − 5y = 1 2.- Multiplicamos la ecuaci´ on dos por − 13 y obtenemos: x−y =3 5 −1 −x + y= 3 3
3.-Reemplazamos las ecuaci´ on dos por la suma de la dos y la uno. x−y =3 2 8 0x + y= 3 3 3 4.-Multiplicamos la ecuaci´ on dos por 2 x−y =3
0x + 1y = 4 5.-Finalmente, reemplazamos la ecuaci´ on uno por la suma de ella y la dos, para obtener: x=7 y=4 Despu´es de cinco pasos hemos transformado el sistema x−y =3
3x − 5y = 1 en el sistema equivalente x=7 y=4 que evidentemente est´a “resuelto”.
2.6. OPERACIONES ELEMENTALES ENTRE FILAS
55
OBSERVACIONES.
Al mirar cuidadosamente el procedimiento anterior observamos: En el tercer paso la segunda ecuaci´ on del sistema no contiene la inc´ognita x (La eliminamos), y en el paso cinco la primera ecuaci´ on no contiene la inc´ognita y.(La eliminamos) En cada uno de los pasos el sistema resultante es equivalente al anterior y por tanto al inicial. La matriz de coeficientes del sistema obtenido en el paso cinco es escalonada reducida por tanto el sistema est´a resuelto. El lector puede verificar que a´ un por diferentes caminos el resultado final siempre es el mismo. Por otra parte, el procedimiento usado en el ejemplo no es un procedimiento al azar, es la aplicaci´on de un proceso estructurado algor´ıtmicamente que garantiza el resultado exitoso, denominado “Algoritmo de eliminaci´ on GaussJordan para soluci´ on de sistemas de ecuaciones lineales” , el cual precisaremos en adelante.
2.6
OPERACIONES ELEMENTALES ENTRE FILAS
Definici´ on 16 Sea A ∈ M (m, n), denominamos operaci´on elemental entre filas de matrices a una cualquiera de las transformaciones siguientes. • Multiplicar una fila por un n´ umero real diferente de cero. • Reemplazar una fila por la suma de ella mas el producto de un real por otra. • Intercambiar dos filas. Usualmente escribimos:
56
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
• Ai → kAi , para decir que transformamos la matriz A, en otra que coincide con A en todas las filas diferentes de la fila −i− y su fila −i− es (kai1 kai2 · · · kain )
a11 .. . ai1 .. . am1
··· .. .
a1j
···
aij .. ···
amj
.
···
a1n .. . ain .. . amn
a11 .. . kai1 .. . am1
Ai → kAi −−−−−−→
··· .. .
a1j
···
kaij .. ···
amj
.
···
a1n .. . kain .. . amn
• Ai → Ai + kAs , i 6= s, para decir que transformamos la matriz A, en otra que coincide con A en todas las filas diferentes de la fila −i− y su fila −i− es (ai1 + kas1 ai2 + kas2 · · · ain + kasn )
a11 .. . ai1 .. . am1
··· .. .
a1j
···
aij .. ···
amj
.
···
a1n .. . ain .. . amn
Ai → Ai + kAs −−−−−−−−−−−→
a11 .. . ai1 + kas1 .. . am1
··· .. .
a1j
···
aij + kasj .. ···
amj
.
···
a1n .. . ain + kasn .. . amn
• Ai ←→ As , para decir que transformamos la matriz A, en otra que coincide con A en todas las filas diferentes de las filas −i− y −s−; y en la fila −i− aparece la −s− de A y rec´ıprocamente.
a11 .. . ai1 .. . as1 .. . am1
··· ··· ··· ···
a1j aij .. . asj .. . amj
··· ··· ··· ···
a1n .. . ain .. . asn .. . amn
Ai ←→ As −−−−−−−→
a11 .. . as1 .. . ai1 .. . am1
··· ··· ··· ···
a1j .. . asj .. . aij .. . amj
··· ··· ··· ···
a1n .. . asn .. . ain .. . amn
2.6. OPERACIONES ELEMENTALES ENTRE FILAS
57
Definici´ on 17 Sean A, B ∈ M (m, n) decimos que A es equivalente por filas a B si y solo si B se obtiene de A por una sucesi´on finita de operaci´ones elementales entre filas. Proposici´ on 9 Toda operaci´on elemental entre filas de matrices posee una operaci´on inversa, es decir una operaci´on tal que al aplicar las dos, una seguida de la otra obtenemos nuevamente la matriz inicial
Prueba.− Basta observar que: Si B se obtiene de A al multiplicar la fila −i− por un real λ 6= 0, entonces A se obtiene de B al multiplicar la fila −i− por λ1 .
Si B se obtiene de A al intercambiar las filas −i− y −k− entonces A se obtiene de B por la misma operaci´on.
Finalmente, si B se obtiene de A al reemplazar la fila −i− por la suma de la fila −i− mas el producto de un real λ 6= 0 por la fila k entonces A se obtiene de B al reemplazar la fila −i− por la suma de la fila −i− mas el producto de (−λ) por la fila k. El lector estudioso puede escribir los argumentos de la proposici´on anterior en t´erminos de las entradas de cada una de las matrices que intervienen. Ejemplo 30
y
1 0 1 0 1 0 1 0 1 A = 2 −4 0 6 A2 → A2 1 −2 0 3 = B 2 0 −1 2 −1 −−−−−−−−−−→ 0 −1 2 −1
58
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
1 0 1 0 1 0 1 0 B = 1 −2 0 3 B2 → 2B2 2 −4 0 6 = A −−−−−−−→ 0 −1 2 −1 0 −1 2 −1 Ejemplo 31
y
1 0 1 0 1 0 1 0 A = 2 −4 0 6 A2 → A2 + (−2)A1 0 −4 −2 6 = B −−−−−−−−−−−−−−→ 0 −1 2 −1 0 −1 2 −1
1 0 1 0 1 0 1 0 B = 0 −4 −2 6 B2 → B2 + 2B1 2 −4 0 6 = A −−−−−−−−−−−→ 0 −1 2 −1 0 −1 2 −1 Proposici´ on 10 1. Si A, B ∈ M (m, n) son tales que A es equivalente por filas a B entonces B es equivalente por filas a A 2. Si A, B, C ∈ M (m, n) son tales que A es equivalente por filas a B y B es equivalente por filas a C entonces A es equivalente por filas a C. Prueba.− 1. Sea A ∈ M (m, n), supongamos Ψ1 , · · · , Ψn una sucesi´on finita de operaciones elementales entre filas que transforma A en B ∈ M (m, n) la plicaci´on reiterada de la proposici´on anterior nos permite afirmar que la −1 sucesi´on Ψ−1 n , · · · , Ψ1 transforma B en A.
59
2.6. OPERACIONES ELEMENTALES ENTRE FILAS
2. Sea A ∈ M (m, n), supongamos Ψ1 , · · · , Ψn una sucesi´on finita de operaciones elementales entre filas que transforma A en B ∈ M (m, n) y sea Φ1 , · · · , Φk , una sucesi´on finita de operaciones elementales entre filas que transforma B en C ∈ M (m, n), claramente la aplicaci´on consecutiva de Ψ1 , · · · , Ψn , Φ1 , · · · , Φk es una sucesi´on de n + k operaciones elementales entre filas que transforma A en C. Ejemplo 32 Las matrices
1 2 3
A=
−4 3 −2
−1 −2 −4
2 4 1
y B=
1 0 0
0 1 0
7 0 5
0 0 1
son equivalentes por filas, porque B se obtiene de A por la siguiente sucesi´on de operaciones elementales. Paso 1.
1 2 3
Paso 2.
−4 3 −2
Paso 3.
1 0 3 1 0 0
Paso 4.
Paso 5.
−4 11 −2
1 0 0
−4 1 10
1 0 0
2 1 4 A2 → A2 + (−2)A1 0 −−−−−−−−−−−−−−→ 1 3
−1 −2 −4
2 1 0 A3 → A3 + (−3)A1 0 −−−−−−−−−−−−−−→ 1 0
−1 0 −4
−4 11 10
−1 0 −1 −4 1 0
−1 0 −1
1 2 1 A2 0 0 A2 → 11 −−−−−−−−−−→ 0 −5
−4 11 10 −4 1 10
2 1 0 A3 → A3 + (−10)A2 0 −−−−−−−−−−−−−−−→ −5 0 −1 0 −1
2 1 0 A3 → (−1) A3 0 −−−−−−−−−−→ −5 0
−4 11 −2
−1 0 −4
2 0 −5
−1 0 −1
−4 1 0
2 0 −5
−1 0 −1
−4 1 0
2 0 1
−1 0 −1 −1 0 1
2 0 −5 2 0 5
60
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
Paso 6.
Paso 7.
1 0 0
1 0 0
−4 1 0 −4 1 0
−1 0 1
2 1 0 A1 → A1 + A3 0 −−−−−−−−−−→ 5 0
−4 1 0
0 0 1
7 1 0 A1 → A1 + 4A2 0 −−−−−−−−−−−→ 5 0
0 1 0
0 0 1 0 0 1
7 0 5 7 0 5
OBSERVACIONES.
Nuevamente, al mirar con detenimento observamos: • En cada uno de los pasos la matriz resultante es equivalente a la anterior y por tanto a la inicial. • En cada paso, la notaci´ on hace referencia a las filas de la matriz inmediatamente anterior, no a las filas de la matriz inicial A. • Al terminar el paso tres todas las entradas de la columna uno desde la fila dos en adelante son cero. • Al terminar el paso cuatro la matriz resultante es escalonada. • Al terminar el proceso la matriz resultante es escalonada reducida. • Teniendo la debida precauci´ on podemos ejecutar varios pasos en uno solo (ej. Uno y dos al tiempo) sin alterar los resultados. • Es posible desarrollar un proceso similar con otras operaciones elementales y el resultado final es el mismo. Podemos adem´ as verificar que B es equivalente por filas a A devolvi´endonos en cada paso por su correspondiente “Inverso”. Paso 1’ (Inverso paso 7) 1 −4 0 7 1 0 0 7 B = 0 1 0 0 A1 → A1 − 4A2 0 1 0 0 −−−−−−−−−−−→ 0 0 1 5 0 0 1 5
2.6. OPERACIONES ELEMENTALES ENTRE FILAS
Paso 2’ (inverso paso 6)
1 −4 0 7 1 −4 −1 2 0 0 0 1 0 0 A1 → A1 − A3 0 1 −−−−−−−−−−→ 0 0 1 5 0 0 1 5
Paso 3’ (Inverso paso 5)
1 −4 −1 2 1 −4 −1 2 0 0 A3 → (−1)A3 0 1 0 0 0 1 −−−−−−−−−→ 0 0 1 5 0 0 −1 −5
Paso 4’ (Inverso paso 4)
1 −4 −1 2 1 −4 −1 2 0 0 A3 → A3 + 10A2 0 1 0 0 0 1 −−−−−−−−−−−−→ 0 0 −1 −5 0 10 −1 −5
Paso 5’ (Inverso paso 3)
1 −4 −1 2 1 −4 −1 2 0 0 A2 → 11A2 0 11 0 0 0 1 −−−−−−−−→ 0 10 −1 −5 0 10 −1 −5
Paso 6’ (inverso paso 2)
1 −4 −1 2 1 −4 −1 2 0 A3 → A3 + 3A1 0 11 0 0 0 11 0 −−−−−−−−−−−→ 0 10 −1 −5 3 −2 −4 1
Paso 7’ (Inverso paso 1)
1 −4 −1 2 1 −4 −1 2 0 11 0 0 A2 → A2 + 2A1 2 3 −2 4 = A −−−−−−−−−−−→ 3 −2 −4 1 3 −2 −4 1
61
62
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
Proposici´ on 11 Si A ∈ M (m, n), A 6= 0 entonces existe una matriz escalonada B ∈ M (m, n) tal que A es equivalente por filas a B. Prueba.− Puesto que la conclusi´ on afirma la existencia de una matriz B con ciertas propiedades, la prueba consiste en mostrar un procedimiento que dada cualquier matriz A ∈ M (m, n) nos permita construir la matriz B que cumpla las condiciones, este proceso es el denominado: ALGORITMO PARA TRANSFORMAR UNA MATRIZ A FORMA ESCALONADA. Sea A ∈ M (m, n), A 6= 0. Paso 1.-Buscamos la primera columna diferente de cero y en ella la primera entrada diferente de cero e intercambiamos su fila con la fila uno. Paso 2.- Identificamos la entrada del pivote de la primera fila, sea a1k1 Paso 3.-Para cada i, i ≥ 2 ; tal que aik1 6= 0; Ai −→ (−a1k1 ) Ai + (aik1 ) A1 Puesto que (−a1k1 ) (aik1 ) + (aik1 ) (a1k1 ) = 0 entonces al terminar el paso tres en todas las entradas de la columna k1 de la fila dos en adelante aparece un cero.
0 .. . 0 .. . 0
0 .. . 0 .. . 0
··· ··· ···
a1k1
∗
0 0 .. . 0
∗ ∗ ∗ ∗
···
..
∗ .. . ∗ .. . ∗
.
···
Paso 4.Repetimos los pasos (1),(2) y (3) para la matriz que se obtiene al “No tener en cuenta”, la fila uno.
0 .. . 0 .. . 0
··· ··· ···
0 .. . 0 .. . 0
a1k1
∗
···
0 0 .. . 0
a2k2 0 .. . 0
∗ ∗
..
∗
.
∗ .. . ∗ .. . ∗
63
2.6. OPERACIONES ELEMENTALES ENTRE FILAS
Paso 5. Repetimos hasta obtener el pivote de la u ´ltima fila diferente de cero. La matriz obtenida al final del proceso es la matriz B buscada.
B=
0
. .. 0
···
···
0
a1k1
∗
∗
···
∗
0 .. .
0
a2k2
.. .
∗
∗
0
0
0
0
···
0
0
a3k3 0 0
···
∗
∗ 0 0
∗ arkr 0
∗ .. . ∗ ∗ 0
OBSERVACIONES.
“No tener en cuenta”, no significa eliminar, simplemente se escribe pero no se opera con ella. La ejecuci´ on estricta del algoritmo garantiza el resultado, sinembargo en casos espec´ıficos son posibles algunas simplificaciones. Ejemplo 33 Consideremos A=
0 5 1
9 4 1
13 3 1
−8 −3 −1
La primera entrada diferente de cero de la columna uno es la (2, 1),luego: Paso 1.
0 5 1
9 4 1
13 3 1
−8 5 −3 A1 ←→ A2 0 −−−−−−−→ −1 1
4 9 1
3 13 1
−3 −8 , −1
Paso2. El pivote de la fila uno aparece en la columna uno, entonces. Paso 3.
5 0 1
4 9 1
3 13 1
−3 5 −8 A3 −→ (−5) A3 + (1) A1 0 −−−−−−−−−−−−−−−−−−→ −1 0
4 9 −1
3 13 −2
−3 −8 2
Ahora tenemos que todas las entradas debajo de la (1, 1) son cero. Para el siguiente paso no tenemos en cuenta la fila (5 4 3 − 3); el nuevo pivote aparece en la entrada (2, 1),luego:
64
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
Paso 4.
5 0 0
4 9 −1
3 13 −2
−3 5 −8 A3 −→ (−9) A3 + (−1) A2 0 −−−−−−−−−−−−−−−−−−−→ 2 0
4 9 0
3 13 5
Esta u ´ltima matriz es escalonada y equivalente por filas a A
−3 −8 −10
Coloquialmente podemos afirmar que el algoritmo consiste en encontrar el pivote de la primera fila y por medio de operaciones elementales entre filas hacer cero todas las entradas debajo de ´el y repetir ordenadamente para cada una de las filas diferentes de cero hasta terminar. Proposici´ on 12 Si A ∈ M (m, n), A 6= 0 entonces existe una u ´nica matriz escalonada reducida B ∈ M (m, n) tal que A es equivalente por filas a B. Prueba.− De la misma forma que en la proposici´on anterior es suficiente presentar el algoritmo para transformar una matriz escalonada en una escalonada reducida. ALGORITMO PARA TRANSFORMAR UNA MATRIZ ESCALONADA A FORMA ESCALONADA REDUCIDA. Sea A ∈ M (m, n),una matriz escalonada con pivotes a1k1 , a2k2 , · · · , arkr Paso 1.- A1 −→ (−a2k2 ) A1 + (a1k2 ) A2 Al terminar el paso uno a1k2 = 0
0 . .. 0
···
···
0
a1k1
∗
0
···
∗
0 .. .
0
a2k2
.. .
∗
∗
0
0
0
0
···
0
0
a3k3 0 0
···
∗
∗ 0 0
∗ arkr 0
∗ .. . ∗ ∗ 0
Paso 2.-Para cada i, i < s = 3 tal que (aik3 ) 6= 0 Ai −→ (−a3k3 ) Ai +(aik3 ) A3 Puesto que (−a3k3 ) (aik3 ) + (aik3 ) (a3k3 ) = 0 entonces al terminar el paso dos en las entradas de la columna k3 de las filas uno y dos aparece un cero.
65
2.6. OPERACIONES ELEMENTALES ENTRE FILAS
0
. .. 0
···
···
0
a1k1
∗
0
∗
0
∗
∗
0 .. .
0
a2k2
∗
0
.. .
∗
···
0
0
0
···
0
0
∗ 0 0
∗
0
a3k3 0 0
∗ .. . ∗ ∗ 0
arkr 0
Paso 3.-Repito el paso 2, para s = 4. Paso 4.- Repito para s = 5, s = 6, hasta s = r.
0 .. . 0 0
··· ···
···
0
a1k1
∗
0
∗
0
0
0
∗ .. .
0 .. .
0
a2k2
.. .
∗
0
0
a3k3 0 0
∗ 0 0
0 arkr 0
0
0
···
0
0
∗ .. . ∗ ∗ 0
0
Al terminar el paso 4. todos los pivotes son las u ´nicas entradas diferentes de cero en sus columnas correspondientes. 1 Paso 5.-Para cada i, 1 ≤ i ≤ r, Ai −→ aik Ai y termino. i
B=
0
···
0
1
∗
0
∗
0
0 .. .
0 ..
1
∗
0
.. .
.
0
0 ..
0
0
···
0
0
0 .. . 0 0
··· ···
.
∗ .. .
0
1
∗
0
0 0
0 0
1 0
0
∗ .. . ∗ ∗ 0
La matriz obtenida al terminar el proceso es la matriz B buscada. Coloquialmente afirmamos que el algoritmo consiste en aplicar operaciones elementales entre filas para hacer cero todas las entradas encima del pivote de la fila dos, luego de la tres, y as´ı sucesivamente hasta la fila −r−.y finalmente multiplicar cada fila por el rec´ıproco de su pivote. Ejemplo 34 Continuamos el proceso con la matriz del ejemplo anterior.
5 0 0
4 9 0
3 13 5
−3 −8 −10
66
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
Paso 1.
5 0 0
4 9 0
−3 −45 −8 A1 −→ (−9) A1 + (4) A2 0 −−−−−−−−−−−−−−−−−−→ −10 0
3 13 5
Paso 1′ .-
−45 0 0
0 9 0
25 13 5
9 −5 −1 A1 −→ 5 A1 0 −8 A3 −→ 51 A3 0 −10 −−−−−−−−−−−−−→
0 9 0
0 9 0
−5 −8 −10
25 13 5
−5 13 1
1 −8 −2
Este es un paso que simplifica los c´alculos, en este caso espec´ıfico. Paso 2.
9 0 0
Paso 3.-
0 9 0
−5 13 1
9 0 0
0 9 0
1 9 A1 −→ A1 + (5) A3 −8 0 A2 −→ A2 + (−13) A3 −2 0 −−−−−−−−−−−−−−−−−−→ 0 0 1
1 −9 1 A1 −→ 9 A1 18 0 1 A2 −→ 9 A2 0 −2 −−−−−−−−−−−−→
0 1 0
0 9 0
0 0 1
0 0 1
−9 18 −2
−1 2 −2
Esta u ´ltima matriz es escalonada reducida y equivalente por filas a la inicial. Una prueba de la unicidad requiere utilizar conceptos que auncuando sencillos, no han sido tratados todavia, aceptamos por el momento el resultado y lo probaremos mas adelante.
2.7
! EL LOGRO DEL OBJETIVO FINAL !
Algoritmo de eliminaci´on Gauss-Jordan para soluci´on de sistemas de ecuaciones lineales Ahora es inmediato el logro de nuestro objetivo final, basta observar que si AX = B es un sistema de ecuaciones lineales la matriz aumentada del sistema (A |B ) es simplemente una escritura abreviada del sistema donde asignamos a cada inc´ognita una columna de la matriz de coeficientes y omitimos su escritura
2.7.
! EL LOGRO DEL OBJETIVO FINAL !
67
y reemplazamos el s´ımbolo (=) de cada ecuaci´ on por la raya vertical, en este orden de ideas cada operaci´on elemental entre filas equivale a uno de los procedimientos que permiten transformar sistemas en sistemas equivalentes; podemos afirmar entonces:
TEOREMA 1 “Dos sistemas de ecuaciones AX = B y A′ X = B ′ son equivalentes si y solamente si sus matrices aumentadas (A |B ) y (A′ |B ′ ) son equivalentes por filas”
Prueba.− Es evidente la correspondencia entre las operaciones elementales entre filas de matrices aplicadas a la matriz aumentada y los procedimientos que permiten cambiar la presentaci´ on de los sistemas sin alterar sus soluciones. En consecuencia para resolver un sistema de ecuaciones AX = B escribimos su matriz aumentada (A |B ) le aplicamos el algoritmo para llevar su matriz de coeficientes a forma escalonada reducida y obtenemos una matriz equivalente por filas (A′ |B ′ ) ; escribimos el sistema correspondiente en la forma A′ X = B ′ y resolvemos de acuerdo con los casos del numeral 2.4.
Ejemplo 35 Resolver el sistema
x + 4y − z = 9
2x + 3y + z = 9
5x + 7y + 2z = 20 2x + 3y + 6z = 19 x − 2z = −5 Sol.
68
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
La matriz aumentada del sistema es
1 2 5 2 1
4 3 7 3 0
−1 1 2 6 −2
9 9 20 19 −5
Reducimos a forma escalonada y obtenemos
1 0 0 0 0
4 −5 0 0 0
−1 3 1 0 0
9 −9 2 0 0
Puesto que las dos u ´ltimos filas corresponden a ecuaciones de la forma 0x + 0y + 0z = 0 que pueden considerarse no escritas, podemos afirmar que el sistema tiene soluci´on y puesto que todas las columnas tienen pivote, no hay variables libres es decir la soluci´on es u ´nica. Si continuamos con la reducci´ on de la nueva matriz aumentada a forma reducida por filas obtenemos:
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
que es la matriz aumentada del sistema x
−1 3 2 0 0
= −1 y = 3 , cuyo planteo es la soluci´on. z = 2
2.7.
! EL LOGRO DEL OBJETIVO FINAL !
69
Ejemplo 36 Resolver el sitema x + 4y − z = 9
2x + 3y + z = 9 5x + 7y + 2z = 2 2x + 3y + 6z = 9
x − 2z = −5 Sol. La matriz aumentada del sistema es
1 2 5 2 1
4 3 7 3 0
−1 1 2 6 −2
9 9 2 9 −5
Reducimos a forma escalonada y obtenemos
1 0 0 0 0
4 −5 0 0 0
−1 3 2 0 0
9 −9 49 1 0
Puesto que la fila 4, corresponde a la ecuaci´ on 0x + 0y + 0z = 1, afirmamos que el sistema no tiene soluci´on.(Es inconsistente). Ejemplo 37 Resolver el sistema x + 4y − z = 9
2x + 3y + z = 3 −x + y − 2z = 6
3x + 2y + 3z = −3 4x + y + 5z = −9
70
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
Sol: La matriz aumentada del sistema es
1 2 −1 3 4
4 3 1 2 1
−1 1 −2 3 5
9 3 6 −3 −9
Reducimos a forma escalonada y obtenemos
1 0 0 0 0
4 −5 0 0 0
−1 3 0 0 0
9 −15 0 0 0
Puesto que las tres u ´ltimas filas corresponden a ecuaciones de la forma 0x + 0y + 0z = 0 que pueden considerarse no escritas, podemos afirmar que el sistema tiene soluci´on y puesto que la columna tres no tiene pivote, hay una variable libre es decir el sistema tiene infinitas soluciones Al continuar la reducci´ on de la nueva matriz aumentada a forma escalonada reducida por filas, obtenemos:
1 0 0 0 0
0 1 0 0 0
7 5 − 35
0 0 0
−3 3 0 0 0
Es decir el sistema inicial es equivalente al sistema 7 x + z = −3 5 3 y− z=3 5 cuya soluci´on general es: x = −3 − 75 a y = 3 + 53 a , a ∈ R z=a
2.8. INVERSA DE UNA MATRIZ
2.8
71
INVERSA DE UNA MATRIZ
Recordemos que para cada entero positivo n, la matriz I(n) es la u ´nica matriz nxn, tal que para toda A ∈ M (n, n) , AI(n) = I(n) A = A Definici´ on 18 Decimos que una matriz A ∈ M (n, n) tiene inversa si existe B ∈ M (n, n) tal que AB = BA = I(n) , en este caso escribimos B = A−1 que leemos B es la inversa de A Una matriz A ∈ M (n, n) que tiene inversa se denomina tambien una matriz no singular. Proposici´ on 13 Si A ∈ M (n, n) tiene inversa B ∈ M (n, n) entonces: (a) La inversa de A es u ´nica. (b) B tiene inversa y B −1 = A Prueba.− (a) Si C ∈ M (n, n) es tal que AC = CA = I(n) entonces C = CI(n) = C (AB) = (CA) B = I(n) B = B (b) Basta observar que BA = AB = I(n) . −1 =A Observe que este resultado podemos escribirlo como A−1
Proposici´ on 14 Si A ∈ M (n, n) y B ∈ M (n, n) es tal que AB = I(n) entonces BA = I(n) y en consecuencia B = A−1 Prueba.− Puesto que (BA) B = B (AB) = BI(n) = B
entonces BA = I(n)
72
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
Proposici´ on 15 Si A ∈ M (n, n), y B ∈ M (n, n) tienen inversa entonces: (a) (AB) tiene inversa y (AB)−1 = B −1 A−1 n (b) An tiene inversa y (An )−1 = A−1 Prueba.− (a) Basta observar que (AB)
B −1
A−1
= A BB −1 A−1 = AI(n) A−1 = AA−1 = I(n)
(b) Probamos por inducci´on. La afirmaci´on es evidente para n = 1. −1 k Suponemos Ak = A−1 y en consecuencia si multiplicamos a izquierda y derecha por A−1 obtenemos
y por tanto
es decir
Ak
−1
k −1 A A−1 = A−1
AAk
−1
= A−1
−1
= A−1
Ak+1
en consecuencia, para todo entero positivo n, (An )−1 = A−1
k+1 k+1
n
Una aplicaci´on inmediata de la soluci´on de sistemas de ecuaciones es responder la pregunta Dada una matriz A ∈ M (n, n), es A una matriz inversible? Es decir, existe X ∈ M (n, n) tal que AX = XA = I(n) . Supongamos entonces A = (aij ) , X = (xij ), obviamente la respuesta se obtiene al resolver los n sistemas de ecuaciones lineales:
73
2.8. INVERSA DE UNA MATRIZ
x11 1 . . . 0 . A xi1 = .. . . . . . . x 0 n1 0 x12 . .. 1 . A xi2 = .. . . . . . . xn2 0 .. . x1n 0 . .. 0 .. A xin = . . . 0 . 1 xnn
(1)
(2)
(n)
Puesto que todos los n sistemas tienen la misma matriz A de coeficientes podemos intentar resolverlos simult´ aneamente considerando la matriz n × 2n, que obtenemos al yuxtaponer I(n) a la derecha de A,
a11
a12
· · · a1j
a 21 a22 · · · a2j . .. .. .. . . a i1 ai2 · · · aij an1 an2 · · · anj
· · · ann 1
0
· · · a2n .. .
0 .. .
1
···
0 .. .
ain
0 .. .
· · · ann 0 · · ·
··· 1
0
··· 0 .. . .. .. . 0 . 1 0 ··· 0 1 0
(⋆)
y reducimos por filas. Si A es equivalente por filas a I(n) todos los sistemas en consideraci´ on tienen una u ´nica soluci´on, adem´ as la soluci´on del sistema (1) aparece en la columna
74
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
correspondiente a la columna 1 de I(n) , la soluci´on del sistema (2) aparece en la columna correspondiente a la columna 2 de I(n) , la soluci´on del sistema (3) aparece en la columna correspondiente a la columna 3 de I(n) y as´ı sucesivamente, es decir si A es equivalente por filas a I(n) entonces A tiene inversa y al terminar la reducci´ on por filas de la matriz (⋆) obtenemos la matriz tama˜ no −1 n × 2n, I(n) | A Ejemplo 38 Si
1 A= 1 −1
entonces
1 1 −1
2 2 2
3 4 5
1 0 0
1 0 0
2 4 0
2 0 4 3 8 1
1 0 0
3 1 8
0 1 0
1 −1 1
1 1 −1
0 0 1
2 2 2
3 4 5
0 A2 −→ A2 − A1 0 A3 −→ A3 + A1 1 −−−−−−−−−−−−−→ 0 0 1 1 0 A2 ←→ A3 0 −−−−−−−→ 0 1 0
1 0 0
2 0 4
2 4 0
3 8 1
0 2 1 A1 −→ 2A1 − A2 0 −−−−−−−−−−−−→ 0 0
0 4 0
3 1 8
1 −1 1
1 1 −1
0 0 1
1 1 −1
−2 8 1
0 0 1
0 1 0
0 1 0 −1 1 0
0 0 1
En este momento podemos asegurar que A, tiene inversa; continuamos para encontrarla,
2 0 0
2 0 0
0 4 0
0 4 0
−2 8 1
1 1 −1
0 0 1
−1 2 A1 −→ A1 + 2A3 1 0 A2 −→ A2 − 8A3 0 0 −−−−−−−−−−−−−−→
0 0 1
−1 9 −1
2 −8 1
1 −1 1 A1 −→ 2 A1 1 0 A2 −→ 41 A2 0 0 −−−−−−−−−−−−→
0 4 0
0 1 0
0 0 1
0 0 1
−1 9 −1 −1 2 9 4 −1
2 −8 1
1 −2 1
−1 1 0 −1 2 1 4
0
2.8. INVERSA DE UNA MATRIZ
en consecuencia
A−1 =
−1 2 9 4
−1
1 −2 1
−1 2 1 4
0
75
Obtenemos el mismo resultado pr´actico si seguimos un procedimiento diferente sin acudir a los sistemas de ecuaciones, que presentamos a continuaci´ on. Proposici´ on 16 Sean A ∈ M (n, n), B ∈ M (n, n), E ∈ M (n, n) tales que B se obtiene de A por una operaci´on elemental entre filas y E se obtiene de I(n) al aplicar la misma operaci´on elemental, entonces B = EA Prueba.− (a) Supongamos que B se obtiene de A al multiplicar la fila −l− por λ ∈ R, α 6= 0, entonces bij =
(
aij si i 6= l λalj si i = l
1 (E)ij = λ 0
si i = j, i 6= l si i = j = l de otra forma ( k=n X aij si i 6= l (EA)ij = (E)ik akj = λalj si i = l k=1
(b) Supongamos que B se obtiene de A reemplazar la fila −l− por la suma de ella mas λ ∈ R, por la fila −s− entonces (
aij si i 6= l alj + λasj si i = l si i = j 1 (E)ij = λ si i = l, j = s 0 de otra forma bij =
76
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
(EA)ij =
k=n X k=1
(E)ik akj =
(
aij alj + λasj
si si
i 6= l i=l
(c) Supongamos que B se obtiene de A intercambiar las filas −l− y −s−entonces si i 6= l, i 6= s aij bij = asj si i = l alj si i = s si i = j, i 6= l, i 6= s 1 (E)ij = 1 si i = l, j = s o i = s, j = l 0 de otra manera si i 6= l, i 6= s k=n aij X (E)ik akj = (EA)ij = asj si i = l k=1 alj si i = s
Definici´ on 19 Sea E ∈ M (n, n) la matriz obtenida al aplicar una operaci´on elemental entre filas a la matriz I(n) decimos que E es una matriz elemental.
Proposici´ on 17 Sea B ∈ M (n, n) equivalente por filas a A ∈ M (n, n),entonces B = P A donde P es un producto de matrices elementales Prueba.− Sea ψ1 , · · · ψr la sucesi´on finita de operaciones elementales entre filas que transforma A en B y sean E1 , · · · , Er las correspondientes matrices elementales; la aplicaci´on reiterada de la proposici´ on 15 del presente cap´ıtulo para 1 ≤ i ≤ r muestra que Er . (Er−1 .(· · · (E1 .A))) = B basta entonces hacer P = Er .Er−1 . · · · .E1
77
2.8. INVERSA DE UNA MATRIZ
Proposici´ on 18 (a) Toda matriz elemental tiene inversa. (b) La inversa de una matriz elemental es una matriz elemental. Prueba.− Ya hemos probado que cada operaci´on elemental entre filas,l tiene una inversa, en consecuencia: Si E se obtiene de I(n) al multiplicar su fila k por λ ∈ R, λ 6= 0 entonces si i 6= j 0 (E)ij = 1 si i = j, i 6= k λ si i=k=j
b la matriz que se obtiene de I(n) al multiplicar su fila k por 1 , entonces y sea E λ si i 6= j 0 b E = 1 si i = j, i 6= k ij 1 si i=k=j λ y por tanto
b EE
es decir
rs
b (E)rt E = = ts t=1 t=n X
lo que significa An´ alogamente si E se obtiene entonces 1 (E)ij = 1 0
λ
0 1 1
λ
=1
si si si
r 6= s r = s, r 6= k r=s=k
b = I(n) EE b = E −1 . E
de I(n) al intercambiar las filas k y l, k < l si i = j, i 6= l, i 6= k si i = l, j = k o i = k, j = l en los dem´as casos
78
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
entonces (EE)rs =
t=n X
(E)rt (E)ts =
t=1
(
1 0
si si
r=s r 6= s
es decir EE = I(n) lo que significa E = E −1 . Finalmente si E se obtiene de I(n) al reemplazar la fila k por la suma de la fila k mas λ por la fila l entonces si i=j 1 (E)ij = λ si i = k, j = l 0 en los dem´as casos
b la matriz que se obtiene de I(n) al reemplazar la fila k por la suma de y sea E la fila k mas (−λ) por la fila l , entonces si i=j 1 b = E −λ si i = k, j = l ij 0 en los demas casos
y por tanto es decir
b EE
lo que significa
rs
=
t=n X t=1
(E)rt (E)ts =
(
1 0
si si
r=s r 6= s
b = I(n) EE b = E −1 . E
79
2.8. INVERSA DE UNA MATRIZ
Ejemplo 39 Consideremos I(5)
=
I(5)
=
b= EE
1 0 0 0 0
1 0 0 0 0
I(5)
=
1 0 0 0 0
0 1 0 0 0 0 1 0 0 0
Por otra parte 1 0 I(5) = 0 0 0
1 0 0 0 0
0 1 0 0 0
0 1 0 0 0 0 0 1 0 0
0 0 1 0 0 0 0 0 1 0
0 0 0 1 0 0 0 0 0 1
0 0 λ 0 0
0 0 0 1 0
0 0 0 0 1
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
0 0 0 0 1
F3 −→ λF3 −−−−−−−−→
1 0 0 0 0
F3 −→ 1 F3 −−−−−−−−λ−−−→
1 0 0 0 0
0 1 0 0 0
0 0 0 0 0 0 1 λ 0 0 0 1 0 0 0 1
0 1 0 0 0 1 0 0 0 0
0 0 λ 0 0 0 1 0 0 0
=
F3 −→ F3 + λF5 −−−−−−−−−−−−→
1 0 0 0 0
F3 −→ F3 + (−λ) F5 −−−−−−−−−−−−−−−→
1 0 0 0 0
0 0 0 0 1
=E
0 0 0 0 0 0 1 λ 0 0 0 1 0 0 0 1
0 0 0 1 0
0 1 0 0 0 0 1 0 0 0
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 1 0 0
0 0 0 1 0
0 0 λ 0 1
0 0 1 0 0
b =E 0 0 0 1 0
0 0 0 0 1
=E
0 0 0 0 b 0 −λ =E 1 0 0 1
80
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
b= EE
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 λ 0 1
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 0 0 −λ = 1 0 0 1
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
Proposici´ on 19 Sea A ∈ M (n, n), las afirmaciones siguientes son equivalentes. (a) A es equivalente por filas a I(n) . (b) A es producto de matrices elementales. (c) A es invertible. (No singular) (d ) El sistema homog´eneo AX = 0 tiene una u ´nica soluci´on. Prueba.− Basta probar que (a) ⇒ (b) ⇒ (c) ⇒ (d) ⇒ (a) (a) ⇒ (b) Sea ψ1 , · · · ψr la sucesi´on finita de operaciones elementales entre filas que transforma A en I(n) y sean E1 , · · · , Er las correspondientes matrices elementales; la aplicaci´on reiterada de la proposici´ on 15 del presente cap´ıtulo para 1 ≤ i ≤ r muestra que Er (Er−1 (· · · (E1 A))) = I(n) , luego −1 A = E1−1 · · · Er−1 Er−1 .
(b) ⇒ (c) A resulta ser un producto de matrices invertibles y por la proposici´ on 14 (a) del presente cap´ıtulo, es invertible. (c) ⇒ (d) Basta observar que si A tiene inversa X = (In )X = A−1 A X = A−1 (AX) = A−1 0 = 0
2.8. INVERSA DE UNA MATRIZ
81
(d) ⇒ (a) A es equivalente por filas a una matriz escalonada reducida B, si B 6= I(n) entonces B tiene una fila de ceros y en consecuencia AX = 0 tiene una soluci´on diferente de la trivial, contrario a la hip´ otesis, por tanto B = I(n) Proposici´ on 20 Sea A ∈ M (n, n), invertible entonces A−1 se obtiene al aplicar a I(n) la misma sucesi´on de operaciones elementales entre filas que hace A equivalente por filas a I(n) . Prueba.− Sea ψ1 , · · · ψr la sucesi´on finita de operaciones elementales entre filas que transforma A en I(n) y sean E1 , · · · , Er las correspondientes matrices elementales; entonces Er Er−1 · · · E1 A = I(n) es decir Er Er−1 · · · E1 = A−1 lo que significa que A−1 se obtiene al aplicar la sucesi´on ψ1 , · · · ψr a I(n) En la pr´actica la decisi´ on sobre si una matriz cuadrada A tiene inversa o no y encontrar su inversa en caso afirmativo , se hace simult´ aneamente; tomamos la matriz nx2n A I(n) y la reducimos por filas, si A es invertible al final obtenemos I(n) A−1 .
82
CAP´ ITULO 2. SISTEMAS DE ECUACIONES LINEALES
Cap´ıtulo 3
DETERMINANTES
3.1
´ Y PROPIEDADES DEFINICION
En este cap´ıtulo solo haremos referencia a matrices cuadradas de orden n, n entero positivo, pues solamente para ´estas tiene sentido el concepto de determinante, tema central del cap´ıtulo. La consulta de diferentes autores muestra enfoques diversos para la definici´on del concepto de determinante, cada uno exige sus propios prerrequisitos, en algunos casos fuera del alcance del presente escrito; hemos escogido la definici´on por recurrencia que consideramos la m´ as pr´actica para efectos del c´alculo en el caso de ´ ordenes peque˜ nos, sin embargo para algunos resultados fundamentales aceptamos el resultado sin prueba. Definici´ on 1 Sea A ∈ M (n, n) llamamos submatriz −ij− de A, notada A(i|j) a la matriz tama˜ no (n − 1) × (n − 1) obtenida de A, al eliminar su fila −i− y su columna −j − . Ejemplo 1 Para la matriz: 83
84
CAP´ ITULO 3. DETERMINANTES
Las submatrices de A son: π −1 9 4
!
A(2|1) =
0 5 9 4
!
A(3|1) =
0 5 π −1
A(1|1) =
1 0 5 A = 3 π −1 √ 7 9 4
A(1|2) =
3 −1 √ 7 4
A(2|2) =
1 5 √ 7 4
!
A(3|2) =
!
!
1 5 3 −1
!
A(1|3) =
A(2|3) =
A(3|3) =
3 π √ 7 9 1 0 √ 7 9 1 0 3 π
!
!
!
Definici´ on 2 Sea A ∈ M (n, n) definimos el determinante de A, notado Det(A) o simplemente |A| , al u ´nico n´ umero real obtenido de la siguiente manera: • Si n = 1, A = (a) entonces Det(A) = a • Si n > 1, Det(A) = n.
n P
(−1)i+k aik Det [A(i|k)], para alg´ un i fijo, 1 ≤ i ≤
k=1
Observaci´ on: Usualmente decimos que hemos “desarrollado” el determinante por la fila −i−, cuya elecci´ on es arbitraria. Ejemplo 2 Si A= entonces,
1 0 3 π
!
´ Y PROPIEDADES 3.1. DEFINICION
85
A(1|1) = (π), A(1|2) = (3) A(2|1) = (0), A(2|2) = (1) Si tomamos i = 1, tenemos Det(A) = (−1)1+1 a11 Det (A(1|1)) + (−1)1+2 a12 Det (A(1|2)) es decir, 1 0 Det(A) = 3 π
= (−1)2 (1)(π) + (−1)3 (0)(3) = π − 0 = π
Si tomamos i = 2, tenemos:
Det(A) = (−1)2+1 a21 Det (A(2|1)) + (−1)2+2 a22 Det (A(2|2)) es decir, 1 0 3 π
= (−1)3 (3)(0) + (−1)4 (π)(1) = 0 + π = π
Proposici´ on 1 ! a b Si A = entonces Det(A) = ad − bc c d Prueba.− Tomamos i = 1, entonces
Det(A) = (−1)1+1 a11 Det (A(1|1)) + (−1)1+2 a12 Det (A(1|2)) es decir, a b c d
= (−1)2 (a)(d) + (−1)3 (b)(c) = ad − bc
El lector verificar´a que si elige i = 2, y hace el desarrollo de acuerdo con la definici´on, el resultado es el mismo.
86
CAP´ ITULO 3. DETERMINANTES
Proposici´ on 2 (Ley de Sarrus para matrices 3x3) Sean
a11 a12 a13 A = a21 a22 a23 a31 a32 a33
y d1...
d
d′
d
d′
2 .... 3.... . . 2 . 1 ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...... . . . . ... . . ... .. .. ... .. ... 11 ..12 ... ... 11 ... .13 ... ... ... ... 12 ... ......... ......... ... ... ... ...... ..... ... ...... ... ......... ......... ....... ... .. 21 ... 21 ....... ...22 22 ... ..23 ... ... ......... ......... ... . ... ... ..... .. . ... ... ... ...... ..... ... . . . . . . . ... ... . . . ... ... ......33 ... 32 ... 31 31 32 ... . ..... ..... . .... . .... . .... . ...... ...... ...... ....... .... ....
a b A= a a
a a a
a a a ′
a a a
a a a
d′3
′
afica, entonces Si definimos los productos d1 , d2 , d3 , d′1 , d2 , d3 como en la gr´ ′
′
Det(A) = (d1 + d2 + d3 ) − (d′1 + d2 + d3 ) Prueba.− Si desarrollamos el determinante de A por la fila −2− tenemos: Det(A) =
k=3 X
(−1)2+k a2k Det [A(2|k)]
k=1
= (−1)2+1 a21 Det [A(2|1)] + (−1)2+2 a22 Det [A(2|2)] + (−1)2+3 a23 Det [A(2|3)] a a a a a a 12 13 11 13 11 12 = (−1)2+1 a21 + (−1)2+2 a22 + (−1)2+3 a23 a32 a33 a31 a33 a31 a32 = (−1)a21 (a12 a33 − a13 a32 ) + a22 (a11 a33 − a13 a31 ) + (−1)a23 (a11 a32 − a12 a31 ) = −a12 a21 a33 + a13 a21 a32 + a11 a22 a33 − a13 a22 a31 − a11 a23 a32 + a12 a23 a31 = −d′3 + d3 + d1 − d′1 − d′2 + d2 = (d1 + d2 + d3 ) − d′1 + d′2 + d′3
El lector verificar´a que el resultado es v´alido independientemente de la fila por la que se desarrolle el determinante.
87
3.2. PROPIEDADES DEL DETERMINANTE
3.2
PROPIEDADES DEL DETERMINANTE
Para facilitar la escritura y la lectura, en lo que sigue cuando lo consideremos conveniente, notaremos las matrices cuadradas como matrices columna cuyas entradas son sus filas
A=
a11 a21 .. . ai1 .. . an1
a12 a22 .. . ai2 .. . an2
··· ··· ...
···
a1j a2j .. . aij .. . anj
··· ··· ··· ···
a1n a2n .. . ain .. . ann
=
A1 A2 .. . Ai .. . An
TEOREMA 1 Sea A ∈ M (n, n) entonces • D.1.- Para 1 ≤ i ≤ n se tiene que,
A1 A2 .. .
Det = kDet kAi .. . An • D.2.- Para 1 ≤ i ≤ n se tiene que,
A1 A2 .. .
Det ′ Ai + A′′i .. . An
= Det
A1 A2 .. . A′i .. . An
A1 A2 .. . Ai .. . An
+ Det
A1 A2 .. . A′′i .. . An
88
CAP´ ITULO 3. DETERMINANTES
• D.3.- Si B se obtiene de A al intercambiar dos filas consecutivas entonces Det(B) = −Det(A) • D.4.-
Para todo entero positivo n, Det(I(n) ) = 1
!Nota Importante! Aun cuando este resultado es el fundamental del cap´ıtulo, por la forma como definimos el determinante, la prueba del Teorema 1 exige usar el Principio de Inducci´ on Matem´ atica y su escritura resulta demasiado larga y compleja; por el alcance del presente escrito aceptamos el resultado y continuamos; el lector interesado puede verificarlo directamente por simple mec´anica de la Aritm´etica de n´ umeros reales para n = 1, 2, 3 y consultar la bibliograf´ıa para el caso general. El siguiente resultado resuelve el problema de angustia del lector quien no entiende y seguramente no acepta, la escogencia arbitraria de una fila para desarrollar el determinante. Proposici´ on 3 Sea A ∈ M (n, n) entonces el determinante de A es independiente de la selecci´on de la fila por la cual se desarrolle. Prueba.− Sin perder generalidad podemos probar que el valor obtenido para el determinante si se desarrolla por la fila −i−, es el mismo que el obtenido al desarrollarlo por la fila −1−. Supongamos entonces que si A ∈ M (n, n), n entero positivo entonces
3.2. PROPIEDADES DEL DETERMINANTE
Det(A) =
89
k=n P
(−1)1+k a1k Det [A(1|k)]
k=1
Sean ahora A y B matrices, tales que B es obtenida de A despu´es de i − 1 intercambios sucesivos de filas consecutivas, a saber: fila i con fila (i − 1), fila (i − 1) con fila (i − 2), fila (i − 2) con fila (i − 3), y as´ı sucesivamente hasta llegar a que la fila 1 de B es la fila i de A, es decir que B es la matriz: Ai A1
A2 . .. B= Ai−1 , Ai+1 . .. An
entonces la aplicaci´on repetida de D.3 del Teorema 1, nos permite afirmar que: Det(A) = (−1)i−1 Det(B) = (−1)i−1
k=n P
(−1)1+k b1k Det [B(1|k)]
k=1
Ahora bien, es inmediato verificar que para todo k, 1 ≤ k ≤ n, b1k = aik y B(1|k) = A(i|k), en consecuencia: Det(A) =
k=n P
(−1)i−1 (−1)1+k b1k Det [B(1|k)] =
k=1
k=n P
(−1)i+k aik Det [A(i|k)]
k=1
Claramente la u ´ltima expresi´ on de la derecha es el “desarrollo” de Det(A) por la fila −i−. El Teorema 1 identifica de manera un´ıvoca el determinante y la proposici´ on 3 nos proporciona seguridad en los c´alculos. A continuaci´ on enunciamos y probamos algunas otras propiedades que son consecuencia inmediata de estos dos resultados y facilitan los c´alculos. Proposici´ on 4 Sea A ∈ M (n, n) entonces 1. Si B = kA entonces Det(B) = k n Det(A).
90
CAP´ ITULO 3. DETERMINANTES
2. Si A tiene una fila de ceros Det(A) = 0. 3. Si B se obtiene de A al intercambiar dos filas entonces Det(B) = −Det(A). 4. Si A tiene dos filas iguales entonces Det(A) = 0. 5. Si una fila de A es un m´ ultiplo real de otra entonces Det(A) = 0. 6. Si B se obtiene de A al reemplazar una fila por la suma de ella con un m´ ultiplo real de otra entonces Det(B) = Det(A). Prueba.− 1. Basta aplicar la parte D.1 del teorema 3.1 primero para la fila uno, luego para la fila dos, luego para la tres y as´ı sucesivamente, luego de n pasos obtenemos el resultado. 2. Supongamos que la fila −i− de A es una fila de ceros, desarrollamos el determinante por la fila −i− y obtenemos el resultado. 3. Supongamos que B se obtiene de A al intercambiar Ai ←→ Ak , con i < k. El mismo resultado se obtiene si ejecutamos primero la siguiente sucesi´on de intercambios de filas consecutivas: Ai ←→ Ai+1 , Ai+1 ←→ Ai+2 ,
Ai+2 ←→ Ai+3 , · · · , Ak−1 ←→ Ak
al final de la cual tendremos la matriz:
A1 .. . Ai+1 .. . Ak Ai .. . An
←− i ←−(k−1) ←− k
3.2. PROPIEDADES DEL DETERMINANTE
91
y luego, con la sucesi´on de intercambios: Ak−1 ←→ Ak−2 ,
Ak−2 ←→ Ak−3
Ak−3 ←→ Ak−4 , · · · , Ai+1 ←→ Ai ,
obtenemos B. Ahora bien, si contamos el n´ umero de intercambios de filas consecutivas tenemos (k − i) para “bajar”Ai desde el lugar i hasta el lugar k y luego (k − i) − 1 para “subir” Ak desde el lugar (k − 1) hasta el lugar i, en total hemos realizado 2(k − i) − 1 intercambios consecutivos, la parte D.3 del teorema 3.1 afirma que el efecto sobre el determinante en cada paso es multiplicar por (−1), en consecuencia Det(B) = (−1)2(k−1)−1 Det(A) = −Det(A) 4. Supongamos A ∈ M (n, n) tal que Ai = Ak obviamente al intercambiar Ai ←→ Ak obtenemos la misma matriz A, pero por la propiedad anterior el determinante se afecta en un factor (−1), es decir Det(A) = − Det(A), en consecuencia Det(A) = 0 que es el u ´nico n´ umero real igual a su opuesto. 5. Supongamos A ∈ M (n, n) tal que Ai = λAk entonces por D.1 A1 A1 .. .. . . λA A i k . . Det .. = Det .. Ak Ak .. .. . . An An
A1 .. . A k = λDet ... = λ(0) = 0 Ak .. .
An
6. Supongamos A, B ∈ M (n, n) tales que B se obtiene de A, al reemplazar Ai ←→ Ai + λAk entonces por las partes D.1 y D.2 del teorema 3.1
92
CAP´ ITULO 3. DETERMINANTES
A1 A2 .. .
Det(B) = Det Ai + λAk .. .
= Det
A1 A2 .. . Ai .. .
An
An
= Det
+ λDet
A1 A2 .. .
Ak .. . An
= Det(A) + λ(0)
A1 A2 .. . Ai .. .
An
A1 A2 .. .
+ Det λAk .. . An
←− f ila − i−
= Det(A)
puesto que la u ´ltima matriz de la derecha tiene iguales las filas i y k. Proposici´ on 5 Si A ∈ M (n, n) es triangular inferior entonces Det(A) = a11 a22 · · · ann Prueba.− Si suponemos
3.2. PROPIEDADES DEL DETERMINANTE
a11
93
0 .. . .. . 0 · · · ann
···
0
a 21 a22 A= . .. an1 an2
con aij = 0 para i < j, entonces al desarrollar el determinante por la fila −1− obtenemos: Det(A) =
k=n P k=1
(−1)i+k aik Det [A(i|k)] = a11 Det [A(1|1)] + 0 + 0 + · · · + 0
recordemos que:
a22
0
a 32 a33 A(1|1) = . .. an2 an3
0 .. . .. . 0 · · · ann
···
Si ahora, desarrollamos Det [A(1|1)] tambi´en por su fila −1− obtenemos
i h b + 0 + 0 + ··· + 0 Det(A) = a11 Det [A(1|1)] = a11 a22 Det A(1|1)
donde
a33
0
a 43 a44 b A(1|1) = . .. an3 an4
0 .. . .. . 0 · · · ann
···
Repetimos el procedimiento y luego de n pasos obtenemos el resultado. Proposici´ on 6 Si A ∈ M (n, n) es triangular superior entonces Det(A) = a11 a22 · · · ann
94
CAP´ ITULO 3. DETERMINANTES
Prueba.− La prueba es conceptualmente igual a la anterior, basta hacer el desarrollo por la u ´ltima fila; el lector interesado puede escribirla como ejercicio. La proposici´on 6 nos permite calcular determinantes de matrices de tama˜ no “grande” por un procedimiento casi siempre mas corto o por lo menos mas simple que el c´alculo por la definici´on, procedimiento que consiste en ejecutar cuidadosamente el algoritmo para llevar una matriz a forma escalonada aplicando, en cada paso, el efecto correspondiente en el c´alculo del determinante. En general podemos afirmar que los procedimientos mas eficientes consisten en obtener matrices equivalentes por filas a la inicial con muchos ceros en una fila y finalmente hacer el desarrollo por ´esa, evidentemente se debe ser muy cuidadoso en el efecto que sobre el valor del determinante causa cada operaci´on entre filas. Ejemplo 3 Calcular
1 −1 0 0 1 3 −1 4 0 2 1 −1
2 1 3 5
,
A3 −→ A3 + A1 el numeral (6) de la proposici´on 4 nos garantiza A4 −→ A4 + (−2)A1 que el determinante NO cambia, es decir:
Paso 1.
1 −1 0 0 1 3 −1 4 0 2 1 −1
2 1 3 5
=
1 −1 0 0 1 3 0 3 0 0 3 −1
2 1 5 1
95
3.2. PROPIEDADES DEL DETERMINANTE
Paso 2. que:
Paso 3.
A3 −→ A3 + (−3)A2 y el mismo argumento del paso 1, nos garantiza A4 −→ A4 + (−3)A2
1 −1 0 0 1 3 0 3 0 0 3 −1
2 1 5 1
=
1 −1 0 2 0 1 3 1 0 0 −9 2 0 0 −10 −2
A3 −→ (10)A3 y por la propiedad D.1 A4 −→ (−9)A4 1 −1 1 0 2 0 1 3 1 1 1 0 = 10 − 9 0 0 0 −9 2 0 0 −10 −2 0
Paso 4. A4 −→ A4 + A3 y 1 −1 1 1 1 0 − 10 9 0 0 0 0
luego
1 −1 0 0 1 3 −1 4 0 2 1 −1
Teorema 3.1. −1 0 2 1 3 1 0 −90 20 0 90 18
en consecuencia 0 2 3 1 1 − 91 = 10 −90 20 90 18 2 1 3 5
=
1 10
1 −1 0 2 0 1 3 1 0 0 −90 20 0 0 0 38
− 91 (1)(1)(−90)(38) = 38
El lector interesado puede calcular el mismo determinante por la definici´on y decidir sobre la eficacia o no del m´etodo usado. Proposici´ on 7 Si A ∈ M (n, n) es singular entonces |A| = 0
96
CAP´ ITULO 3. DETERMINANTES
Prueba.− Si A es singular entonces A es equivalente por filas a una matriz B con una fila de ceros en consecuencia k |A| = |B| = 0 para alg´ un k ∈ R, k 6= 0, en consecuencia |A| = 0. Proposici´ on 8 Sea E ∈ M (n, n) una matriz elemental : 1. Si E se obtiene de I(n) por intercambio de dos filas entonces |E| = −1. 2. Si E se obtiene de I(n) al multiplicar una fila por un n´ umero real k 6= 0 entonces |E| = k. 3. Si E se obtiene de I(n) al reemplazar una fila por la suma de ella y un m´ ultiplo de otra entonces |E| = 1. Prueba.−
1. Si E se obtiene de I(n) por intercambio de dos filas entonces aplicamos el numeral (3) de la proposici´on 4 y obtenemos |E| = (−1) I(n) = −1
2. Si E se obtiene de I(n) al multiplicar una fila por un n´ umero real k 6= 0 entonces aplicamos D.1 y obtenemos |E| = k I(n) = k 3. Si E se obtiene de I(n) al reemplazar una fila por la suma de ella y un m´ ultiplo de otra entonces aplicamos el numeral (6) de la proposici´on 4 y obtenemos |E| = I(n) = 1.
Proposici´ on 9
Si E ∈ M (n, n) una matriz elemental y A ∈ M (n, n) entonces |EA| = |E| |A|. Prueba.−
3.2. PROPIEDADES DEL DETERMINANTE
97
Ejercicio para el lector. Proposici´ on 10 Si A, B ∈ M (n, n) entonces |AB| = |A| |B| Prueba.− (i) Si A es singular entonces AB es singular por lo tanto |A| = 0, |AB| = 0 y en consecuencia |AB| = |A| |B|.
(ii) Si A es no singular entonces A = Ek Ek−1 ...E1 donde Ei es una matriz elemental, para cada i, 1 ≤ i ≤ k, y la aplicaci´on reiterada de la proposici´on 9 prueba el resultado. Proposici´ on 11 Si A ∈ M (n, n) es triangular entonces Det(A) = Det(AT )
Prueba.− Basta observar que las matrices A y AT tienen la misma diagonal y el determinante es precisamente el producto de los elementos de dicha diagonal. Es natural preguntarnos si el resultado de la proposici´on 11 es v´alido para matrices cualesquiera, la respuesta es “s´ı”, sin embargo la escritura de la prueba correspondiente, exige prerrequisitos que exceden el presente escrito, en consecuencia lo aceptamos sin prueba.
98
CAP´ ITULO 3. DETERMINANTES
Proposici´ on 12 Sea A ∈ M (n, n) entonces Det(A) = Det(AT ) Observaci´ on. La proposici´on 12 nos permite afirmar que, en este cap´ıtulo todo lo dicho hasta el momento para filas de una matriz es v´alido si reemplazamos “filas” por “columnas”, en adelante utilizaremos el resultado que m´ as nos facilite los c´alculos. Proposici´ on 13 Sea A ∈ M (n, n) entonces para todo entero positivo m, Det(Am ) = [Det(A)]m Prueba.− Basta aplicar el Principio de Inducci´on Matem´ atica, la definici´on de potencia de una matriz y la proposici´on 10. El lector interesado puede escribirla cuidadosamente.
3.3
DETERMINANTE Y MATRIZ INVERSA
Definici´ on 3 Sea A ∈ M (n, n), para cada par −ij− definimos Mij (A) = Det [A(i|j)] , y lo denominamos el menor -ij- de A. Definici´ on 4 Sea A ∈ M (n, n), para cada par −ij− definimos Cij (A) = (−1)i+j Det [A(i|j)] = (−1)i+j Mij (A)
99
3.3. DETERMINANTE Y MATRIZ INVERSA
y lo denominamos el cofactor -ij- de A. Definici´ on 5 Sea A ∈ M (n, n), llamamos matriz de cofactores de A a la matriz Cof (A) tal que (Cof (A))ij = Cij (A) Definici´ on 6 Sea A ∈ M (n, n), llamamos adjunta cl´ asica o simplemente adjunta de A a la matriz Adj(A) definida por Adj(A) = (Cof (A))T Ejemplo 4 Para
se tiene que M11 (A) = M21 (A) = M31 (A) =
por lo tanto
1 0 5 A = 3 1 −1 , −2 2 4 3 −1 3 1 1 −1 ; M12 (A) = ; M13 (A) = −2 4 2 4 −2 2 0 5 1 5 1 0 M22 (A) = M23 (A) = ; ; 2 4 −2 4 −2 2 1 5 1 0 0 5 M33 (A) = ; M32 (A) = ; 1 −1 3 −1 3 1
C11 (A) = (−1)2 (6); C12 (A) = (−1)3 (10); C13 (A) = (−1)4 (8) C21 (A) = (−1)3 (−10); C22 (A) = (−1)4 (14); C23 (A) = (−1)5 (2) C31 (A) = (−1)4 (−5); C32 (A) = (−1)5 (−16); C33 (A) = (−1)6 (1)
100
CAP´ ITULO 3. DETERMINANTES
en consecuencia
6 −10 8 Cof (A) = 10 14 −2 −5 16 1
y
6 10 −5 Adj(A) = −10 14 16 8 −2 1
Observaci´ on: En textos mas avanzados de Algebra Lineal, el t´ermino adjunta tiene otra interpretaci´ on adicional, puesto que ese concepto no ser´a estudiado en este escrito, no corremos riesgo de confusi´ on. Proposici´ on 14 Si A ∈ M (n, n) y i, l son enteros positivos tales que 1 ≤ i, l ≤ n con l 6= i, entonces k=n X aik Clk (A) = 0 k=1
Prueba.− Consideramos B la matriz que se obtiene de A al reemplazar la fila −l− por la fila −i− de A
A1
Ai ←− f ila − i− B= Ai ←− f ila − l− An
entonces puesto que B tiene dos filas iguales, Det(B) = 0. Ahora desarrollamos Det(B) por la fila −l− y obtenemos 0 = Det(B) =
k=n P
(−1)l+k blk Det [B(l|k)] =
k=1
k=n P k=1
aik Clk (A)
3.3. DETERMINANTE Y MATRIZ INVERSA
101
Proposici´ on 15 Sea A ∈ M (n, n). Si j, r son enteros positivos tales que 1 ≤ j, r ≤ n y j 6= r entonces k=n X akj Ckr (A) = 0 k=1
Prueba.− La prueba es conceptualmente id´entica a la anterior y queda como ejercicio para el lector. Proposici´ on 16 Sea A ∈ M (n, n) entonces A (Adj(A)) = Adj(A)A = Det(A)I(n) Prueba.− Basta probar que A(Adj(A)) = Det(A)I(n) ; ahora bien, por la proposici´on 3.2.1 y la definici´on de determinante, tenemos: (AAdj(A))ij = k=n P
k=n P
aik Cjk (A) =
k=1
k=1
(
aik (Adj(A))kj =
0 |A|
si si
i 6= j i=j
es decir
(AAdj(A)) =
|A| 0 .. . 0
0 .. |A| 0 . .. = |A| I(n) . 0 0 |A| 0 · · · 0 |A| 0
···
102
CAP´ ITULO 3. DETERMINANTES
El lector interesado que prob´ o la proposici´on 3.2.2 reforzar´ a su aprendizaje probando la igualdad Adj(A)A = Det(A)I(n) . Proposici´ on 17 Sea A ∈ M (n, n) entonces A es no singular si y solamente si Det(A) 6= 0. En tal caso 1 Adj(A) Det(A)
A−1 =
Prueba.− Suponemos A no singular entonces A tiene inversa y AA−1 = I(n) por lo tanto Det(A)Det(A−1 ) = Det(AA−1 ) = Det(I(n) ) = 1 en consecuencia Det(A) 6= 0. Rec´ıprocamente, si Det(A) 6= 0, basta multiplicar la expresi´ on AAdj(A) = Adj(A)A = Det(A)I(n) por
1 Det(A)
y obtenemos A
1 Adj(A) Det(A)
=
1 Adj(A) A = I(n) Det(A)
Ejemplo 5 Nuevamente tomemos
1 0 5 A = 3 1 −1 −2 2 4
3.4. REGLA DE CRAMER
103
Det(A) = 46 6= 0 en consecuencia
A−1
6 10 −5 1 1 Adj(A) = = −10 14 16 |A| 46 8 −2 1
Es inmediato verificar que 1 0 5 6 10 −5 46 0 0 3 1 −1 −10 14 16 = 0 46 0 −2 2 4 8 −2 1 0 0 46 es decir
3.4
6 10 −5 1 0 0 1 0 5 1 −10 14 16 = 0 1 0 3 1 −1 46 8 −2 1 0 0 1 −2 2 4
REGLA DE CRAMER
Proposici´ on 18 Sea A ∈ M (n, n) no singular, entonces para toda matriz vector columna B ∈ M (n, 1) el sistema de ecuaciones lineales AX = B tiene una u ´nica soluci´on. Prueba.− El lector conoce la prueba desde el cap´ıtulo 2. Proposici´ on 19 (Regla de Cramer) Sean A ∈ M (n, n) no singular y B ∈ M (n, 1), entonces la soluci´on del sistema de ecuaciones lineales AX = B viene dada por xj =
Det(A [B|j]) Det(A)
104
CAP´ ITULO 3. DETERMINANTES
donde A [B|j] es la matriz que se obtiene de A al reemplazar su columna j, por la matriz vector columna B de los t´erminos independientes.
Prueba.− La soluci´on del sistema AX = B obviamente es X = A−1 B, es decir
1 Adj(A) B X= Det(A) 1 (Cof (A))T B X= Det(A)
es decir
x1 x2 .. . xj .. . xn
=
C11 (A) Det(A) C12 (A) Det(A)
C21 (A) Det(A) C22 (A) Det(A)
C1j (A) Det(A)
C2j (A) Det(A)
C1n (A) Det(A)
C21 (A) Det(A)
.. . .. .
.. .
··· ···
.. .
Ci1 (A) Det(A) Ci1 (A) Det(A)
···
Cij (A) Det(A)
···
Cnj (A) Det(A)
Ci1 (A) Det(A)
···
Cnn (A) Det(A)
.. . .. .
···
···
Cn1 (A) Det(A) Cn2 (A) Det(A)
.. . .. .
b1 b2 .. . .. . .. . bn
En consecuencia
1 xj = (C1j (A)b1 + C2j (A)b2 + · · · + Cnj (A)bn ) = Det(A)
k=n P
bk Ckj (A)
k=1
Det(A)
(3.1)
Por otra parte si desarrollamos por la columna −j−, el determinante de la matriz
105
3.4. REGLA DE CRAMER
a11 a21 .. .
a12 a22 .. .
· · · a1,j−1 · · · a2,j−1 .. .
b1 b2 .. .
a1,j+1 a2,j+1 .. .
· · · a1n · · · a2n .. .
A [B|j] = ai1 ai2 . . . ai,j−1 bi ai,j+1 · · · ain .. .. .. .. .. .. . . . . . . · · · ann an1 an2 · · · an,j−1 bn an,j+1 obtenemos: Det(A [B|j]) =
k=n P
bk Ckj (A),
k=1
que es precisamente el numerador de la expresi´ on (3.1).
106
CAP´ ITULO 3. DETERMINANTES
Cap´ıtulo 4
VECTORES DEL ESPACIO USUAL, R2 Y R3
En este momento, en diferentes asignaturas, el lector ha tenido ocasi´ on de escuchar y trabajar con t´erminos como segmento, vector, parejas, triplas ordenadas de n´ umeros reales as´ı como adici´on de estos elementos y multiplicaci´on por un “escalar”, pretendemos en este cap´ıtulo precisar, organizar y generalizar estos conceptos de tal forma que los procedimientos de c´alculo y resoluci´ on de problemas resulten mas seguros, claros y sencillos. En este tratamiento y para todo el cap´ıtulo, asumimos todos los conceptos y resultados b´asicos de la Geometr´ıa Euclidiana del plano y del espacio,por costumbre llamado espacio usual, y siempre que lo consideremos oportuno usaremos sus propios argumentos.
4.1
VECTORES EN EL ESPACIO USUAL
Definici´ on 1 −−→ Un vector AB del espacio usual, es un segmento dirigido con punto inicial A y punto final B, que tiene magnitud, direcci´on y sentido. 107
108
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
Definici´ on 2 −−→ La magnitud de AB es un n´ umero real no negativo determinado de manera un´ıvoca por los puntos A y B.(Longitud de AB ).
Definici´ on 3 −−→ La direcci´ on del vector AB es la direcci´on geom´etrica de la recta determinada por A y B.
Definici´ on 4 −−→ El sentido del vector AB es el determinado cuando decimos “ punto inicial A y punto final B ”.
−−→ −−→ −−→ − − − − Usualmente notamos los vectores por AB, CD, XY , etc o tambi´en → v ,→ u,→ w,→ z etc.
Definici´ on 5 −−→ −−→ Decimos que dos vectores AB y CD son iguales si y solamente si tienen la misma magnitud, la misma direcci´on y el mismo sentido.
109
4.1. VECTORES EN EL ESPACIO USUAL
Ejemplo 1
B
.. ..... ... ..... ... ... ... ... . . . . .. .... ... ......... ..... ... . ........ ... ... .. ... . . ... . ... .. .. . . . . . . .. .. . . . . . . .. .. .. ... ... .. ... ... .. ... ... .. ... ... . . . . . .. .. .. ... ... .. ... ... .. ... ... .. ... ... .......... . ... ... ... ... . . .. ... ... ... ... . . .. ... ... ... ... . . . ... ... ... ... ..... . ...
~z
A
E
C
~u
D ..... .. .
~v
La gr´ afica muestra ejemplos de vectores del espacio usual, si asumimos las condiciones geom´etricas del dibujo podemos afirmar que: −−→ → − • AB, − u y → z tienen la misma direcci´on.
−−→ −−→ → • AB, CD y − u tienen la misma magnitud.
→ − • − u y → z tienen sentidos opuestos. −−→ − • AB y → z tienen sentidos opuestos.
−−→ • CE y
− → v tienen la misma magnitud.
−−→ → • AB = − u La definici´on 5 nos permite en adelante y siempre que lo encontremos conveniente, considerar los vectores del espacio usual con un punto inicial com´ un. Definici´ on 6 → → Dos vectores − v ,− u del espacio usual se denominan paralelos si y solo si tienen la misma direcci´on.
110
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
Sea S el conjunto de todos los vectores del espacio usual, definimos sobre S una adici´ on. Definici´ on 7 → − → → Si − v ,→ u ∈ S, tomados con punto inicial com´ un, la suma − v +− u es el vector → − w ∈ S cuyo punto inicial es el com´ un y cuyo punto final es el v´ertice opuesto → − en el paralelogramo determinado por − v ,→ u.
... .......... ..... ........ .. ... ........ ... ........ ... . . . . . . . . . . .. .. .. ........ ... ........ .. ... ........ .. ... ........ .. ........ ... . . . . . . . . . . . .... .. .. ........ ... ........ .. ... ........ .. ... ........ .. ... ............... . . . . ... .. ... ........... .. ......... ......
~u
~v + ~u
~v
→ → Observaci´ on.- Obtenemos el mismo resultado si decimos − v +− u es el vector → − − → w ∈ S que se obtiene haciendo coincidir el punto inicial de u ,con el punto → → − final de − v , y tomando como punto inicial de − w , el punto inicial de → v y como → − − → punto final de w el punto final de u . Coloquialmente decimos que colocamos → − → u “a continuaci´ on de” − v
...... .............. ........ .. . ........ ..... ........ . . . . . . . . . . .. . ........ ... ........ ... ........ ... ........ ... ........ . . . . . . . . . . . ... ........ ... ........ ... ........ ... ........ ... ........ . . . . . . . . . . ... ... ........ ...........................................................................................................................
w =v+u
u
v
Proposici´ on 1 La adici´on as´ı definida goza de las siguientes propiedades:
4.1. VECTORES EN EL ESPACIO USUAL
111
− → → → → 1. Para todo → v ,− u ∈ S la suma − w =− v +− u ∈ S. − → → 2. Para todo → v ,− u,− z ∈ S;
→ → → → → → (− v +− u)+− z =− v + (− u +− z ).
→ − → 3. Existe 0 ∈ S, tal que para todo − v ∈ S;
− → − → − − → v + 0 = 0 +→ v = v.
→ − − → → → → → → 4. Para todo − v ∈ S existe − w ∈ S tal que − v +− w =− w +− v = 0. → w se − → − → − → denomina el opuesto de v y se nota w = − v . − → 5. Para todo → v ,− u ∈ S;
− → → → → v +− u =− u +− v
Prueba.−
1. Evidente 2. Basta observar cuidadosamente el siguiente dibujo que representa (~u + ~v ) + ~z. ... .......... ... ... .. ... ... ... . . . .. .. .. ... ... .. ... .. .. .. ... .. .. ... . . . .. .. . . . .. . .. . . . .. . .. . . . .. .. ... . . .. .......... .... .. . . .. .. . ... . . .. . ... .. ... .... ........... . . .. ..... ... . . .... ... . ... .. . . . .... . . ... ... . . ......... ... ... . .... .... ...... ... ..... . .. .. ..... ... ... . .. ... . . . . . ... ... ... ... ..... ... .. ..... ... ... ... .. ..... ... ..... ... ... .. ..... . ... . .. ... . . . . . ... .. ..... ... ... ... ..... .. ... ........ .......... .. ... .... ...... .. ... ...... ...... . .............. .. ........... .. .......... .. .......... .......... . .. ............. ..
(~ u + ~v ) + ~z
~z
~v
~ u + ~v
~u
y comparalo con el siguiente dibujo que representa ~u + (~v + ~z)
112
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
..... .......... ........ .... .. ... .. .... .. .... .. . . . ........... .. ..... ... ... . ... . . .. . . . ... . .. ... .. . . . ... .. . .. ... . ... .. .. ... ... .. .. .. ... ... .. .. .. .. .. ... . . . .. .. .. . ... .. ... .. .. ... ..... .. .. ... ... .. ... .. . . . ... . ..... . . ......... ... . .. ... ... . . . ... . .. .. ... . . .. . ... ... . . . . . . . ... ... ..... ... ... ... ... . .. ... .. ... ... .. .... ... . . .. . ... ... . ... . .. . . ... ... .. .. .. ... ... .. .... . ... .. . ... . .. ... . .. . . . ... .. .. ... .. . . ... . .. ... .... .... .... .. ... ... .. .. ... ... ... ... .. ... .. ... .. .. . . ... .. ... .. ... ........ .. .......... ....... .. .......... .. .......... .......... .......... ..... ...........
~ u + (~v + ~z)
~v + ~z
~z
~v
~ u
→ − 3. El vector 0 es el vector cuyos puntos inicial y final coinciden. −−→ −−→ → − − → → → → − 4. Si → v = AB entonces − w = BA es tal que − v +− w =− w +→ v = 0. 5. Evidente
→ → → → → − Escribimos − v −− w , que leemos “− v menos − w ” y significa − v + (−→ w). −−→ −→ −−→ → − − → − → − → Geom´etricamente si v = AB y w = AC entonces v − w = CB
C
........ ........... ........ ..... ........ ... ........ . . . . . . . . . . ... ........ ... ........ ... ........ ... ........ ... ........ . . . . . . . . . . .. . ........ ... ........ ... ........ ... ........ ... ........ . . . . . . . . . . ........ .... ........ .........
w ~
A
~v
B
~v − w ~
Definici´ on 8 → Sean λ ∈ R, − v ∈ S definimos el producto del n´ umero real λ por el vector − → → − − → v ,(en ese orden), como el vector w = λv, obtenido de la siguiente manera: − → − → − • Si λ = 0, → w = λv = 0 .
4.1. VECTORES EN EL ESPACIO USUAL
113
− → → − • Si λ > 0, − w = λv es un vector de la misma direcci´on y sentido que → v − → y de magnitud λ por la magnitud de v . − → → − • Si λ < 0, − w = λv es un vector de la misma direcci´on que → v , sentido → − → − opuesto al de v y de magnitud (−λ) por la magnitud de v . Ejemplo 2
...... ......... ....... ....... ....... . . . . . . ...... ....... ....• ....... ....... ....... . . . . . . ... ....... .... ....... ..... ......... .......• ....... ....... ....... ....... ....... ....... . . . . ....... . . . . . . . . ....... ..... ..... . . . . . . . 5 . . . . . . . . . . . . ... .... .... ....... ....... ....... 2............• ......• ....... . ....... ....... ....... ....... . . . . . . . . . . . . .... ....... ....... ....... ....... ....... ....... • ....... ....... ....... ........... ....... ....... . . . . . . .... ....... .......• ....... ...........
~v
~ 4v
− ~v
√ − 2~v
La multiplicaci´ on de un real por un vector, as´ı definida, goza de las siguientes propiedades: Proposici´ on 2 → 1. Para todo λ ∈ R y para todo − v ∈ S,
− → − → w = λv ∈ S.
→ → → 2. Para todo λ, µ ∈ R y para todo − v ∈ S, (λ(µ− v )) = (λµ)− v. → → → − 3. Para todo λ, µ ∈ R y para todo − v ∈ S, (λ + µ)− v = λ− v + µ→ v. → → 4. Para todo λ ∈ R, y para todo − v ,− u ∈ S; → 5. 1 ∈ R, − v ∈V;
→ → − − λ(− v +− u ) = λ→ v + λ→ u
→ → 1− v =− v
En raz´on de la definici´on, la prueba de la proposici´on exige argumentos geom´etricos e involucra la necesidad de un procedimiento eficaz para medir la magnitud
114
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
de un vector que al momento no tenemos, en consecuencia solo mostraremos algunos ejemplos con n´ umeros enteros que ilustran los resultados. Ejemplo 3 → → 2(−3− v ) = −6− v ~v ........
.. ......
p
~ −3v
p
p
........
~ 2(−3v)
........
~ −6v
p
p
p
p
p p
p
p
Este ejemplo ilustra la proposici´on 2 parte 2. Ejemplo 4 → → → → 2− v + 3− v = (2 + 3)− v = 5− v
~v
...... ..
~ 2v
p
...... ..
~ p 3v p
.. ......
~ + 3v ~ 2v
p
p
~ 5v
p
p
...... ..
p
Este ejemplo ilustra la proposici´on 2 parte 3.
...... ..
4.2. R2 Y R3
115
Ejemplo 5 → → → → 3(− v +− w ) = 3− v + 3− w
. .......... .. .. ......... .. .. .......... ..... ....... .. .. .. ..... .. .............. ... .. .... . . . . . . . . . . . .... .. .. ........ .. ..... .. ........... .. ..... .. .. ....... ..... .. .. ........ ..... .. .. ................ . . . . . . .... .. .. ...... .. .... .. .. ........ ... ..... .. . ........... ..... .. .. ........ .............. .. .. ........ . . . . . . . . . . . .. .. .... ....... .. .. .. ..... ........ .. .. .. ..... ........ .... .. .. ..... ........ .. .. ................ .. .... . . . . . . . . . . . . . .. ...... ......
~ 3v
~ + 3v ~ 3u
~v
~ u
~ 3u
Este ejemplo ilustra la proposici´on 2 parte 4.
4.2
R 2 y R3
La soluci´on definitiva de la dificultad anterior se encuentra en la identificaci´ on de los puntos del plano y puntos del espacio usual con parejas y triplas ordenadas de n´ umeros reales respectivamente. En este momento es importante recordar que el sistema de los n´ umeros reales R, es un sistema num´erico tal que sus elementos est´an en correspondencia con los puntos de una recta de tal forma que a cada n´ umero real corresponde un u ´nico punto en la recta y a cada punto en la recta corresponde un u ´nico n´ umero real, decimos entonces que a la recta le hemos asignado un sistema de coordenadas, la denominamos recta real y hablamos de forma indiferente del punto o del n´ umero real correspondiente.
116
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
........
•
0
1
x
..... ....
El punto x o el n´ umero x. Definici´ on 9 La expresi´ on (a, b) donde a, b ∈ R, se denomina una pareja ordenada de n´ umeros reales, a se denomina la primera componente o coordenada, b se denomina la segunda componente o coordenada. Definici´ on 10 Si (a1 , b1 ) y (a2 , b2 ) son parejas ordenadas de n´ umeros reales (a1 , b1 ) = (a2 , b2 ) si y solo si a 1 = b1 , a 2 = b2 . Coloquialmente afirmamos que dos parejas ordenadas son iguales si tienen iguales sus correspondientes coordenadas es decir primera igual a primera y segunda igual a segunda. Escribimos R2 , que leemos “Erre dos” y no “erre al cuadrado” para referirnos al conjunto de todas las parejas ordenadas de n´ umeros reales, R2 = {(x, y)| x ∈ R, y ∈ R}
117
4.2. R2 Y R3
Identificamos el plano euclideo con R2 , de la siguiente forma: Tomamos dos rectas reales que se corten en ´angulo recto, generalmente una horizontal y una vertical y cuyos ceros (Or´ıgenes) coincidan, a las que denominamos ejes de coordenadas, por cada punto P del plano trazamos paralelas a los ejes hasta que los corten, el corte a, con el eje horizontal lo llamamos abcisa; el corte b, con el eje vertical lo denominamos ordenada, de esta forma cada punto del plano determina una pareja ordenada (a, b) de manera un´ıvoca. Inversamente cada pareja ordenada (r, s) determina de manera un´ıvoca un punto en el plano, basta trazar una paralela al eje vertical por el punto r sobre el eje horizontal y una paralela al eje horizontal por el punto s sobre el eje vertical, el punto de corte de las paralelas es el determinado por (r, s). Por costumbre denominamos al eje de abcisas como eje “equis” y al eje de ordenadas como eje “ye” ........
y
........
P
b
•
0
a
..... ....
x
Decimos que hemos dotado al plano de un sistema de coordenadas cartesianas y nos referimos indistintamente al punto del plano o a la pareja ordenada correspondiente, tanto que escribimos P = (a, b).
Definici´ on 11 La expresi´ on (a, b, c) donde a, b, c ∈ R,
se denomina una tripla ordenada
118
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
de n´ umeros reales, a se denomina la primera componente o coordenada, b se denomina la segunda componente o coordenada y c se denomina la tercera componente o coordenada. Definici´ on 12 Si (a1 , b1 , c1 ) y (a2 , b2 , c2 ) son triplas ordenadas de n´ umeros reales (a1 , b1 , c1 ) = (a2 , b2 , c2 ) si y solo si a 1 = b1 , a 2 = b2 , a 3 = b3 . Coloquialmente afirmamos que dos triplas ordenadas son iguales si tienen iguales sus correspondientes coordenadas es decir primera igual a primera, segunda igual a segunda y tercera igual a tercera. Escribimos R3 , que leemos “Erre tres” y no “erre al cubo” para referirnos al conjunto de todas las triplas ordenadas de n´ umeros reales, R3 = {(x, y, z)| x ∈ R, y ∈ R, z ∈ R} An´ alogamente a como lo hicimos con el plano, identificamos el espacio usual con R3 , para tal efecto tomamos el plano cartesiano y por el origen trazamos una recta real perpendicular y cuyo cero coincida con el origen, e identificamos (a, b, c) con el v´ertice opuesto al origen del paralelep´ıpedo constru´ıdo sobre los segmentos Oa, Ob, Oc. De la misma forma que en el plano decimos que hemos dotado al espacio usual de un sistema de coordenadas cartesianas y nos referimos de manera indistinta al punto o a la tripla ordenada correspondiente, escribimos entonces P = (a, b, c). Al nuevo eje lo denominamos eje “zeta”.
119
4.2. R2 Y R3
z
. .....
c
.... .......... .......... .......... .......... . . . . . . . . . .. ..........
........
. .... .... .... .... . . . .. .... ........ .......... .......... .......... . . . . . . . . . . ........ ...............
a
.... .......... .......... .......... .......... . . . . . . . . . .. ..........
P•
......... .......... .......... .......... . . . . . . . . . ....... ..........
b
..... ...
y
x
.....
Auncuando en el encabezamiento de la secci´ on escribimos R2 y R3 , en lo que sigue del cap´ıtulo enunciamos las definiciones y presentamos los resultados solamente en R3 ; con excepci´ on del producto vectorial (Cruz) de vectores de R3 , el lector interesado podr´a reconstruir las unas y los otros, con alg´ un cuidado pero sin mayor dificultad, solamente cambiando espacio por plano, tripla por pareja y naturalmente R3 por R2 , adem´ as los dibujos que justifican argumentos geom´etricos, son realizados en un plano.
Definici´ on 13 Si (a1 , b1 , c1 ), (a2 , b2 , c2 ) ∈ R3 , definimos (a1 , b1 , c1 ) + (a2 , b2 , c2 ) = (a1 + a2 , b1 + b2 , c1 + c2 ) La adici´on as´ı definida goza de las siguientes propiedades:
120
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
Proposici´ on 3 1. Para todo (a1 , b1 , c1 ), (a2 , b2 , c2 ) ∈ R3 la suma (a1 , b1 , c1 ) + (a2 , b2 , c2 ) ∈ R3 2. Para todo (a1 , b1 , c1 ), (a2 , b2 , c2 ), (a3 , b3 , c3 ) ∈ R3 (a1 , b1 , c1 )+[(a2 , b2 , c2 ) + (a3 , b3 , c3 )] = [(a1 , b1 , c1 ) + (a2 , b2 , c2 )]+(a3 , b3 , c3 ) 3. Existe (0, 0, 0) ∈ R3 , tal que para todo (a, b, c) ∈ R3 (0, 0, 0) + (a, b, c) = (a, b, c) + (0, 0, 0) = (a, b, c) 4. Para todo (a, b, c) ∈ R3 existe (x, y, z) ∈ R3 tal que (a, b, c) + (x, y, z) = (x, y, z) + (a, b, c) = (0, 0, 0) 5. Para todo (a1 , b1 , c1 ), (a2 , b2 , c2 ) ∈ R3 (a1 , b1 , c1 ) + (a2 , b2 , c2 ) = (a2 , b2 , c2 ) + (a1 , b1 , c1 ) Prueba.−
1. Evidente. 2. De un lado, (a1 , b1 , c1 ) + [(a2 , b2 , c2 ) + (a3 , b3 , c3 )] = (a1 , b1 , c1 ) + (a2 + a3 , b2 + b3 , c2 + c3 ) = (a1 + a2 + a3 , b1 + b2 + b3 , c1 + c2 + c3 ) Por otra parte, [(a1 , b1 , c1 ) + (a2 , b2 , c2 )] + (a3 , b3 , c3 ) = (a1 + a2 , b1 + b2 , c1 + c2 ) + (a3 , b3 , c3 ) = (a1 + a2 + a3 , b1 + b2 + b3 , c1 + c2 + c3 ) 3. Evidente. 4. Basta tomar (x, y, z) = (−a, −b, −c)
4.2. R2 Y R3
121
5. Se tiene que (a1 , b1 , c1 ) + (a2 , b2 , c2 ) = (a1 + a2 , b1 + b2 , c1 + c2 ) = (a2 + a1 , b2 + b1 , c2 + c1 ) = (a2 , b2 , c2 ) + (a1 , b1 , c1 ) Definici´ on 14 Si (a, b, c) ∈ R3 , λ ∈ R, definimos λ.(a, b, c) = (λa, λb, λc) La multiplicaci´ on de un real por una tripla, as´ı definida, goza de las siguientes propiedades: Proposici´ on 4 1. Para todo λ ∈ R y para todo (a, b, c) ∈ R3 , λ.(a, b, c) = (λa, λb, λc) ∈ R3
2. Para todo λ, µ ∈ R y para todo (a, b, c) ∈ R3 , λ [µ.(a, b, c)] = (λµ)(a, b, c) 3. Para todo λ, µ ∈ R y para todo (a, b, c) ∈ R3 , (λ + µ).(a, b, c) = λ(a, b, c) + µ(a, b, c) 4. Para todo λ ∈ R, y para todo (a, b, c) ∈ R3 , (r, s, t) ∈ R3 ; λ. [(a, b, c) + (r, s, t)] = λ(a, b, c) + λ(r, s, t) 5. 1 ∈ R, (a, b, c) ∈ R3 , 1.(a, b, c) = (a, b, c) Prueba.−
1. Evidente.
122
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
2. λ [µ.(a, b, c)] = λ(µa, µb, µc) = (λ(µa), λ(µb), λ(µc)) = ((λµ)a, (λµ)b, (λµ)c) = (λµ)(a, b, c) 3. (λ + µ).(a, b, c) = ((λ + µ)a, (λ + µ)b, (λ + µ)c) = = (λa + µa, λb + µb, λc + µc) = (λa, λb, λc) + (µa, µb, µc) = = λ(a, b, c) + µ(a, b, c) 4. λ. [(a, b, c) + (r, s, t)] = λ(a + r, b + s, c + t) = = (λ(a + r), λ(b + s), λ(c + t)) = (λa + λr, λb + λs, λc + λt) = = (λa, λb, λc) + (λr, λs, λt) = λ(a, b, c) + λ(r, s, t) 5. Evidente.
Finalmente, los sistemas de coordenadas cartesianas permiten identificar los vectores en el espacio usual S con las triplas ordenadas de n´ umeros reales, basta identificar la tripla (a, b, c) con el vector de punto inicial el origen O y → punto final el de coordenadas (a, b, c), escribimos − v = (a, b, c)
z
. ....
c
... .......... .......... .......... .......... .......... . . . . . . . . . ....
.... .......... .......... ..........
P....•................................... .. ... ...
~v.........
. ...
.. ... O .... ....
........
.. .... .... .... .... . . . . . . . . ....... .......... .......... .......... . .......... ..............
a
....... .......... .......... .......... .......... . . . . . . . . . .........
y
b
... .....
x
x
..... .
La identificaci´ on V ector ←→ T ripla, es compatible con las operaciones definidas sobre el conjunto S de vectores del espacio usual y las definidas sobre el conjunto R3 , es decir es indiferente operar en S o en R3 .
4.2. R2 Y R3
123
Proposici´ on 5 → → Si − v = (x1 , y1 , z1 ) y − u = (x2 , y2 , z2 ) entonces → − → − v + u = (x1 , y1 , z1 ) + (x2 , y2 , z2 ) = (x1 + x2 , y1 + y2 , z1 + z2 )
Gr´ af ico Compatibilidad Prueba.− Basta observar la gr´ afica.
Adicionalmente, la identificaci´ on V ector ←→ T ripla, nos provee de un procedimiento sencillo para encontrar la magnitud de un vector. Definici´ on 15 → → − Sea − v = (x, y, z) ∈ R3 , definimos la magnitud o norma de − v , notada k→ v k; como p → k− v k = x2 + y 2 + z 2 Observaci´ on.- Claramente la magnitud no es otra cosa que la longitud del segmento OA donde O es el origen y A = (x, y, z) Proposici´ on 6 La magnitud o norma goza de las siguientes propiedades: − 1. Para todo → v ∈ R3 , − 2. Para todo → v ∈ R3
→ − → → → k− v k ≥ 0 y k− v k = 0 si y solo si − v = 0.
−
→ → y para todo λ ∈ R, λv = |λ| k− v k.
− → → → → → 3. Para todo → v ,− w ∈ R3 , k− v +− w k ≤ k− v k + k− w k (Desigualdad triangular ). Prueba.−
124
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
p → 1. Es claro que k− vk = x2 + y 2 + z 2 ≥ 0 por la definici´on de ra´ız cuadrada. p Adem´ as, si x2 + y 2 + z 2 = 0 entonces x2 + y 2 + z 2 = 0 y en consecuencia x = y = z = 0. √ → → Rec´ıprocamente, si − v = (0, 0, 0) entonces k− v k = 02 + 02 + 02 = 0. − → − 2. Suponemos → v = (x, y, z) por tanto λv = (λx, λy, λz) y
−
q
→ 2 2 2
λv = (λx) + (λy) + (λz) p = λ2 (x2 + y 2 + z 2 ) √ p = λ2 x 2 + y 2 + z 2 → = |λ| k− vk
− → → 3. (a) Si los vectores son paralelos es decir − w = λv entonces
y
→
→ − → → → → v k = |1 + λ| k− v k, v + λv = k(1 + λ)− k− v +− w k = −
→ → → → → − |1 + λ| k− v k ≤ (1 + |λ|) k− v k = k− v k + |λ| k− v k = k− v k + k→ wk (b) Si los vectores no son paralelos, usamos un argumento geom´etrico, simplemente evocamos el teorema de la Geometr´ıa Euclidiana que dice “En todo tri´ angulo la longitud de un lado es menor que la suma de las longitudes de los otros dos”
......... ........ ....... .................. ...... . . . ......... . . ........ ........ .......... ........ ........ ................. .......... ...... .......... ........ . . ..... ...... ..... ...... ........ . . . ......... ... . . ... ...... ..... . . ... ...... ..... . ... ...... . .. ... ..... ... . . ..... .. ... ... . . ..... .. ... ... . ..... . ... ...... ... ... . ... ......... ... .. ... ...
~v
w ~
~v + w ~
125
4.2. R2 Y R3
Proposici´ on 7 → → Si λ ∈ R, − v = (a, b, c) entonces λ.− v = (λa, λb, λc) Prueba.−
z...
......
λc......
... ... ... ... ... ... ... c ... ............ λ~ v ... ......... ... ....... . . ... . . . . .................. ~ v .................. ... λb b O................. ..... ... ... . . . . .... . .... ..... . . . . ... .... .... ....... . . . . . . . . . . . . . . . . . . ... .. ... ...... . . . . . . . . . . . . . . . . . . a ...... . .... ... .... .......... ... .... .......... .... ... .......... ... ........ .......... λa ... .......... . . . . . . . . . . . . ..........
y
x
Basta observar elgr´ afico.
Definici´ on 16 − → Un vector → v ∈ R3 , tal que k− v k = 1, se denomina un vector unitario. Ejemplo 6 − → → − − → Los vectores i = (1, 0, 0), j = (0, 1, 0), k = (0, 0, 1) son vectores unitarios. Ejemplo 7 → − √2 v = √314 , √−1 es un vector unitario, puesto que , 14 14
126
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
s
3 √ 14
2
+
−1 √ 14
2
+
2 √ 14
2
=1
Ejemplo 8 − → → → → → 1 − v , es un vector Dado cualquier vector − v ∈ R3 , − v 6= 0 , el vector − w = − vk k→ → − → → − v unitario en la misma direcci´on y sentido que − v y el vector − u = −→ w = −1 → vk k− → es un vector unitario en la misma direcci´on de − v y sentido opuesto.
Observaci´ on.− → − → − → → → 1. Si − v = (a, b, c) ∈ R3 , entonces − v = a i + b j + c k y decimos que a − → → es la componente de − v en la direcci´on de i ; b es la componente de − → → − → v en la direcci´on de j y c es la componente de − v en la direcci´on de → − k. 2. En lo que sigue, auncuando formalmente no hay diferencia, usaremos letras may´ usculas A, B, C, P, Q etc, para referirnos a puntos del espacio , usaremos las expresiones (x, y, z) para referirnos a los elementos de R3 , − → − → − → → y usaremos expresiones − v = a i + b j + c k para referirnos a vectores − → del espacio usual; tambi´en en algunos casos escribimos P para expresar −−→ OP .
4.3
PRODUCTO PUNTO DE VECTORES DE R2 y R3
Definici´ on 17 − → → − → → − → − − → − → − − − Dados → v = a1 i + a2 j + a3 k , − w = b1 i + b2 j + b3 k definimos → v ·→ w , que → − → − leemos “ v punto w ”, por − → → v ·− w = a 1 b1 + a 2 b2 + a 3 b3 .
4.3. PRODUCTO PUNTO DE VECTORES DE R2 Y R3
127
Hemos definido una nueva operaci´ on entre vectores de R3 , que denominamos producto escalar o producto punto, con un comportamiento diferente a las operaciones entre n´ umeros y mas bien con una semejanza al producto de matrices → → fila por matrices columna, vale decir, − v ·− w es num´ericamente igual a b1 (a1 a2 a3 ) b2 . b3 En particular es importante observar que el producto escalar opera dos vectores y produce como resultado un n´ umero real. PROPIEDADES DEL PRODUCTO PUNTO
Proposici´ on 8 − → → → 1. Para todo → v ∈ R3 , − w ∈ R3 , − v ·− w ∈R 2 − → → → 2. Para todo → v ∈ R3 , − v ·− v = k− vk
− → → → → − 3. Para todo → v ∈ R3 , − v ·− v ≥0 y − v ·− v = 0 si y solo si → v =0 − → 4. Para todo → v ∈ R3 , − w ∈ R3 ,para todo λ ∈ R, → → → → → → (λ− v)·− w = λ(− v ·− w) = − v · (λ− w) − → → → → → 5. Para todo → v ∈ R3 , − w ∈ R3 , − v ·− w =− w ·− v − → − → → → → − − − 6. Para todo → v ∈ R3 , − w ∈ R3 , → z ∈ R3 , − v · (− w +− z)=− v ·→ w +→ v ·→ z Prueba.− 1. Evidente. 2. Evidente.
128
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
− → → − − → − 3. Sea → v = a i + b j + c k entonces − → → v ·− v = a 2 + b2 + c 2 ≥ 0 Adem´ as − → → v ·− v = a2 + b2 + c2 = 0 si y solo si a2 = b2 = c2 = 0 es decir a=b=c=0 − → → − → → − − → − → − → − 4. Sean → v =a i +bj +ck , − w = r i + s j + t k ,λ ∈ R entonces − → → λv · − w = (λa)r + (λb)s + (λc)t = λar + λbs + λct −→ → = λ(ar + bs + ct)− v · λw
= a(λr) + b(λs) + c(λt) = aλr + bλs + cλt
→ → = λ(ar + bs + ct)λ(− v ·− w)
= λ(ar + bs + ct)
y el resultado es obvio. − → → − → → − → − − → − → → 5. − v =a i +bj +ck , − w = r i + s j + t k , entonces − → → v ·− w = ar + bs + ct = ra + sb + tc → → = − w ·− v
− → → → → → − → − − → − → − → − − → − → → 6. Sean − v = a i +b j +c k , − w = r i +s j +t k y − z = x i +y j +z k entonces − → → − − → − → − → − → → − → → v · (− w +− z ) = (a i + b j + c k ) + ((r + x) i + (s + y) j + (t + z) k ) = a(r + x) + b(s + y) + c(t + z)
= (ar + bs + ct) + (ax + by + cz) → → → → = − v ·− w +− v ·− z
4.3. PRODUCTO PUNTO DE VECTORES DE R2 Y R3
129
Proposici´ on 9 Desigualdad de Cauchy-Schwarz-Bunyakovski. → → Para todo − v ∈ R3 , − w ∈ R3 ,
→ → → → |− v ·− w | ≤ k− v k k− wk.
Prueba.−
Definici´ on 18 −→ → −−→ − → − Sean → v ,− w ∈ R3 , → v = OA, − w = OB definimos el ´angulo θ entre los vectores → − → − v y w , como el ´ angulo entre los segmentos OA, OB. Proposici´ on 10 → − Sea θ el ´ angulo entre dos vectores no nulos − v ,→ w ∈ R3 , entonces − → → v ·− w cos θ = − → → k v k k− wk Prueba.−
B ......... .... ..... ... ......... ..... ... . . ..... . ..... ... ..... ... ..... ... . ..... . .. ..... . . ..... .. . . ..... .. . ..... . ..... .. . . ..... .... . . ..... . .. ...... ..... . . ... ..... .. . . ..... ... ...... ... . . ... ......... ...
~v − w ~
w ~
O
θ
~v
A
−→ − −−→ → Suponemos − v = OA, → w = OB, aplicamos al tri´ angulo ∆AOB el Teorema del Coseno de la trigonometr´ıa elemental, entonces:
130
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
(AB)2 = (OA)2 + (OB)2 − 2 (OA) (OB) cos θ es decir, 2 2 2 → → → → → → k− v −− w k = k− v k + k− w k − 2 k− v k k− w k cos θ
es decir, 2 2 → → → → → → → → (− v −− w ) · (− v −− w ) = k− v k + k− w k − 2 k− v k k− w k cos θ 2 2 2 2 → − → → → → → → k− vk −2 → v ·− w + k− w k = k− v k + k− w k − 2 k− v k k− w k cos θ
en consecuencia − → → → → v ·− w = k− v k k− w k cos θ es decir − → → v ·− w cos θ = − → → k v k k− wk Proposici´ on 11 → − → → Sean − v ,→ w ∈ R3 , vectores no nulos entonces − v y − w son perpendiculares si → − → − y solo si v · w = 0 Prueba.− − → Suponemos que → v y − w son perpendiculares es decir θ = cos θ = 0 y por lo tanto − → → v ·− w =0
π 2
entonces
4.3. PRODUCTO PUNTO DE VECTORES DE R2 Y R3
131
− → Rec´ıprocamente si → v ·− w = 0 entonces
− → → v ·− w − → → k v k k− wk = 0
cos θ =
y en consecuencia θ = arccos (0) π = 2 Observaci´ on.- Auncuando en la visi´on geom´etrica que estamos haciendo de los vectores de R3 , el t´ermino perpendicular es claro y preciso tambi´en usamos ”ortogonal”, t´ermino mas general (no solo de la geometr´ıa eucl´ıdea) pero con el mismo significado en este momento.
Proposici´ on 12 − → → → Sean → v ,− w ∈ R3 , vectores no nulos entonces − v y − w son paralelos si y solo si → → → → |− v ·− w | = k− v k k− wk Prueba.− − → → → Suponemos que → v y − w son paralelos, entonces − w = λ− v , λ 6= 0, entonces − → − → − → → v · λv v ·− w
= → → →
−
→ k− v k k− wk k− v k λv =
= es decir
2 → λ k− vk → → |λ| k− v k k− vk λ |λ|
− − → → v ·w =1 → → k− v k k− w k
132
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
o sea → → → → |− v ·− w | = k− v k k− wk Rec´ıprocamente si → → → → |− v ·− w | = k− v k k− wk entonces
− − → → v ·w =1 → → k− v k k− w k
es decir
|cos θ| = 1 y en consecuencia θ=0 o
θ=π
− − es decir → v y → w son paralelos.
Definici´ on 19 −→ → −−→ − Sean → v = OA, − w = OB vectores no nulos del espacio usual, C el pie de la ←→ −−→ → perpendicular desde A a la recta OB. El vector − u = OC se denomina la → → → → componente de − v a lo largo de − w o la proyecci´ on de − v a lo largo de − w.
A
........ ...... . ...... ...... ...... . . . . . . ...... ...... ...... ...... ...... . . . . . . ...... ...... ...... ...... ...... . . . . . . ..... ...... ...
~v
~u
O
C
w ~
..... ...
B
4.4. PRODUCTO VECTORIAL DE VECTORES DE R3
133
Proposici´ on 13 −→ → −−→ −−→ → − Sean − v = OA, − w = OB vectores no nulos del espacio usual, → u = OC la → → componente de − v a lo largo de − w entonces − → → v ·− w− − → → − → − → − → u = − 2 w y (v − u)· w =0 → kwk Prueba.− 2 − → → → → Claramente → u = λ− w entonces − u ·− w = λ k− w k es decir λ=
− → → u ·− w 2 − → kwk
Por otra parte ! − → → v ·− w− − → → → v − − ·− w 2 w → kwk → → → → = (− v ·− w −− v ·− w)
− → → (→ v −− u)·− w =
= 0
4.4
PRODUCTO VECTORIAL DE VECTORES DE R3
Definici´ on 20 − → − → → − → − → → − − → − − → v ×→ w, w = b1 i + b2 j + b3 k definimos → Dados − v = a1 i + a2 j + a3 k , − → − − → − → − → que leemos “ v cruz w ” o “el producto vectorial de v y w ”, por → − − → − → − → → v ×− w = (a2 b3 − a3 b2 ) i + (a3 b1 − a1 b3 ) j + (a1 b2 − a2 b1 ) k Observaci´ on.- Auncuando solo hemos estudiado matrices de entradas reales, para las cuales su determinante es un n´ umero real, como ayuda mnemot´ecnica recordaremos el producto cruz de vectores como el determinante de una matriz
134
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
h → i − → − → − formal de tama˜ no tres por tres cuya primera fila es i j k , su segunda → → las componentes de − v y su tercera las componentes de − w (desarrollado por la primera fila), → − → − v ×w =
→ − − → → − i j k → a a − − 1 3 → a1 a2 → a2 a3 − i − j + k a1 a2 a3 = b1 b3 b1 b2 b2 b3 b1 b2 b3
sinembargo es claro que las componentes son determinantes de matrices dos por dos de entradas reales y en consecuencia podemos aplicar todos los resultados probados para determinantes de matrices de entradas reales. Ejemplo 9 − → − → j × i =
→ − → − → − i j k −→ 0 1 0 = −k 1 0 0
→ − − → i × j =
→ − − → → − i j k → − 1 0 0 = k, 0 1 0
→ → − − j × k =
→ − − → → − i j k → − → − → − 0 1 0 = i, k × j = 0 0 1
→ − → − → − i j k → − 0 0 1 =−i 0 1 0
→ − − → k × i =
→ − − → → − i j k → → − → − − 0 0 1 = j, i × k = 1 0 0
→ − → − → − i j k → − 1 0 0 =−j 0 0 1
Ejemplo 10
Ejemplo 11
4.4. PRODUCTO VECTORIAL DE VECTORES DE R3
135
Ejemplo 12 → − → − − → − → − → − → − → i × i = j × j = k × k = 0 Observaci´ on.- Los ejemplos 8,9,10 y 11 muestran todas las posibilidades de → − → − →− productos entre los vectores unitarios i , j, k .. Proposici´ on 14 − → → → 1. Para todo → v ∈ R3 , − w ∈ R3 , − v ×− w ∈ R3 − → − → → 2. Para todo → v ∈ R3 , − v ×− v = 0 − → − → → − → − → 3. Para todo → v ∈ R3 , − v × 0 = 0 ×− v = 0 → → 4. Para todo − v ∈ R3 , − w ∈ R3 ,para todo λ ∈ R, → → → → → → (λ− v)×− w = λ(− v ×− w) = − v × (λ− w) → → 5. Para todo − v ∈ R3 , − w ∈ R3 , − → − → → → → → → → (− v ×− w) · − v = 0 y (− v ×− w) · − w = 0 − → → → → → 6. Para todo → v ∈ R3 , − w ∈ R3 , − v ×− w = − (− w ×− v) → → → → − − − − → − v × (− w +− u) = − v ×→ w +→ v ×→ u 7. Para todo → v ∈ R3 , − w ∈ R3 , → u ∈ R3 − − → → → → → → → → → 8. Para todo → v ∈ R3 , − w ∈ R3 , − u ∈ R3 , (− v +− u )×− w =− v ×− w +− u ×− w → → − 9. Para todo − v ∈ R3 , − w ∈ R3 , → u ∈ R3 , − → → → → → → → → → v × (− u ×− w ) = (− v ·− w)− u − (− v ·− u)− w → → − 10. Para todo − v ∈ R3 , − w ∈ R3 , → u ∈ R3 , → → → → → → → → → (− v ×− u)×− w = (− v ·− w)− u − (− u ·− w)− v Prueba.−
136
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
Probamos las afirmaciones 7. y 9. las dem´as las dejamos como ejercicio al lector, en todos los casos es suficiente aplicar la definici´on en forma ordenada y cuidadosa. − → → → → → − → − − → − → − → − − → − → → 7. Sean − v = a i +b j +c k , − w = r i +s j +t k y − u = x i +y j +z k entonces i j → − → − → − v × (w + u ) = a b r+x s+y b c = s+y t+z =
= =
=
k c t+z
− − c − b → → a → a i − j + k r+x t+z r+x s+y → − − → → − [b(t + z) − c(s + y)] i − [a(t + z) − c(r + x)] j + [a(s + y) − b(r + x)] k − → → − [(bt − cs) + (bz − cy)] i − [(at − cr) + (az − cx)] j + − → + [(as − br) + (ay − bx)] k h → −i − → − → (bt − cs) i − (at − cr) j + +(as − br) k + h − →i − → − → + (bz − cy) i − (az − cx) j (ay − bx) k − → → → → v ×− w +− v ×− u
− → → − → → → − → − − → − → − → − → → − → 9. Sean − v = a i +b j +c k , − u = x i +y j +z k y − w = r i +s j +t k entonces − → − → − → i j k → − → → v × (− u ×− w) = a b c yt − sz rz − xt xs − ry − → → − = [b(xs − ry) − c (rz − xt)] i − [a (xs − ry) − c (yt − sz)] j + − → + [a (rz − xt) − b (yt − sz)] k Ahora
4.4. PRODUCTO VECTORIAL DE VECTORES DE R3
137
→ − − − − → − → → → → − (− v ·− w )− u = (ar + bs + ct) x i + (ar + bs + ct) y j + (ar + bs + ct) z k (→ v ·→ u )→ w − → − → = (ax + by + cz) r i + (ax + by + cz) s j + − →→ − → → → → + (ax + by + cz) t k (− v ·→ w )− u − (− v ·− u )− w − → → − = [b (sx − yr) + c (xt − zr)] i + [a (ry − sx) + c (ty − sz)] j + − → + [a (rz − tx) + b (sz − yt)] k y claramente se verifica que − → → → → → → → → → v × (− u ×− w ) = (− v ·− w )− u − (− v ·− u )− w Observaci´ on.1. El numeral cinco de la proposici´on 14 afirma que el producto cruz de vectores es simultaneamente ortogonal a sus factores, resultado de gran utilidad en soluci´on de muchos problemas geom´etricos. → → Una regla pr´actica para determinar el sentido de − v ×− w es la denominada “regla de la mano derecha” que dice: “ Se coloca la mano derecha → → − − sobre el vector − v y se gira hacia el vector − w , el sentido de → v ×→ w es el que indica el dedo pulgar”, ver dibujos.
Graf ico 15 Graf ico 16 2. Los numerales 7,8, de la proposici´on 14 muestran que es suficiente recor− → − → −→ dar los resultados del producto cruz de los vectores unitarios i , j, k para calcular el producto cruz de cualquier par de vectores de R3
138
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
Proposici´ on 15 − → → − → → − → − − → − → → Si − v = a1 i + a2 j + a3 k , − w = b1 i + b2 j + b3 k entonces − → → − → − → − → − → − → − → v ×− w = a1 b1 i × i + a1 b2 i × j + a1 b3 i × k + − − − → → − → − → → − → +a2 b1 j × i + a2 b2 j × j + a2 b3 j × k + − − − → − → → − → − → → +a3 b1 k × i + a3 b2 i × i + a3 b3 k × k Prueba.− → − → − − → − − → → − → a 1 i + a 2 j + a 3 k × b1 i + b2 j + b3 k − − → − → − → − → − → → − → → − = a 1 i × b1 i + b2 j + b 3 k + a 2 i × b1 i + b2 j + b 3 k + − − → → − → − → + a 3 i × b1 i + b 2 j + b 3 k − − − → → − → − → → − → = a 1 b1 i × i + a 1 b2 i × j + a 1 b3 i × k + − − − → → − → − → → − → +a2 b1 j × i + a2 b2 j × j + a2 b3 j × k + − − − → − → → − → − → → +a3 b1 k × i + a3 b2 k × j + a3 b3 k × k
− → → v ×− w =
Proposici´ on 16 − → Para todo → v ∈ R3 , − w ∈ R3 , 2 2 → 2 2 → − → → → k− v ×→ w k = k− v k k− w k − (− v .− w) Prueba.− − → → − → → − → − − → − → − Sean → v = a1 i + a2 j + a3 k , − w = b1 i + b2 j + b3 k entonces 2 → − k− v ×→ w k = (a2 b3 − a3 b2 )2 + (a3 b1 − a1 b3 )2 + (a1 b2 − a2 b1 )2
= a22 b23 − 2a2 b3 a3 b2 + a23 b22 + a23 b21 − 2a3 b1 a1 b3 + a21 b23 + a21 b22 − 2a1 b2 a2 b1 + a22 b21
Por otra parte:
4.4. PRODUCTO VECTORIAL DE VECTORES DE R3
139
2 → 2 2 → → → k− v k k− w k − (− v .− w ) = a21 + a22 + a23 b21 + b22 + b23 − (a1 b1 + a2 b2 + a3 b3 )2
= a21 b21 + a21 b22 + a21 b23 + a22 b21 + a22 b22 + a22 b23 + a23 b21 + a23 b22 + a23 b23
− (a21 b21 + a22 b22 + a23 b23 + 2a1 b1 a2 b2 + 2a1 b1 a3 b3 + 2a2 b2 a3 b3 )
= a21 b22 + a21 b23 + a22 b21 + a22 b23 + a23 b21 + a23 b22 − 2a1 b1 a2 b2 − 2a1 b1 a3 b3 − 2a2 b2 a3 b3
Claramente las dos expresiones finales a la derecha del igual son id´enticas. Proposici´ on 17 → → Para todo − v ∈ R3 , − w ∈ R3 , → → → → → → Si θ el ´ angulo entre − v y− w entonces k− v ×− w k = k− v k k− w k |sen θ| Prueba.− → → → → Basta recordar que − v ·− w = k− v k k− w k cos θ y reemplazar en la conclusi´ on de la proposici´on anterior 2 2 → 2 2 2 → 2 2 → → → → → → → → k− v ×− w k = k− v k k− w k − (− v .− w ) = k− v k k− w k − (k− v k k− w k cos θ) 2 → 2 → = k− v k k− w k 1 − cos2 θ 2 → 2 → = k− v k k− w k sen2 θ
en consecuencia
→ → → → k− v ×− w k = k− v k k− w k |sen θ|
Proposici´ on 18 → → Para todo − v ∈ R3 , − w ∈ R3 , → → → → Si θ , 0 < θ < π es el ´ angulo entre − v y− w entonces k− v ×− w k es el ´area del → → paralelogramo constru´ıdo sobre los vectores − v y− w . Prueba.−
140
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
B
P
..................................................................................................................................................................................................... ............................................................................................................... ................................................................................................................................................................. .............................................................................................................................................................. ....................................................................................................................................................................................................................................................................... . . . . . . . ................................................................................................................................................................ ............................................................................................................................................................... ............................................................................................................................................................... .............................................................................................................. ....................................................................................................................................................................................................................................................................... . . . . . .................................................. . .............................................................................................................. ............................................................................................................................................................... ............................................................................................................................................................... .............................................................................................................. ...................................................................................................................................................................................................................................................................... . . . . . .................................................. . ..........................................................................................................................................................................................................
w ~
O
θ
~v
R
Si observamos la gr´ afica y llamamos A el ´area del paralelogramo OAP B tenemos: → → → → v k) (k− w k sen θ) = k− v ×− wk A = OA RB = (k−
Definici´ on 21 − → − → → → Dados → v ,− w,→ u ∈ R3 el producto − v ·− w ×− u ,se denomina el producto triple → − − escalar de los vectores − v ,→ w,→ u. Proposici´ on 19 − → → − → → → − → − → − − → − → − → → − → Si − v = a1 i + a2 j + a3 k , − w = b1 i + b2 j + b3 k , − u = c1 i + c2 j + c3 k entonces a a a 1 2 3 − → → → v ·− w ×− u = b1 b2 b3 c1 c2 c3 Prueba.− De un lado:
4.4. PRODUCTO VECTORIAL DE VECTORES DE R3
141
→ − → → v · (− w ×− u ) = (a1 , a2 , a3 ) · [b2 c3 − b3 c2 , b3 c1 − b1 c3 , b1 c2 − b2 c1 ]
= a1 (b2 c3 − b3 c2 ) + a2 (b3 c1 − b1 c3 ) + a3 (b1 c2 − b2 c1 )
Por otra parte, desarrollando el determinante por la fila 1:
a a a b b b b b b 1 2 3 1 2 1 3 2 3 + a3 − a2 b1 b2 b3 = a1 c1 c2 c1 c3 c2 c3 c1 c2 c3
= a1 (b2 c3 − b3 c2 ) − a2 (b1 c3 − b3 c1 ) + a3 (b1 c2 − b2 c1 )
Claramente las dos expresiones finales a la derecha del igual son id´enticas. Proposici´ on 20 − → → → → → → → → Si → v ,− w,− u ∈ R3 , entonces − v ·− w ×− u =− v ×− w ·− u
Prueba.− − → → − → → → − → − → − − → − → − → → − → Si − v = a1 i + a2 j + a3 k , − w = b1 i + b2 j + b3 k , − u = c1 i + c2 j + c3 k entonces a a a 1 2 3 − → → → v ·− w ×− u = b1 b2 b3 . c1 c2 c3
142
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
Por otra parte:
c c 1 2 → − → − → − − → − → − → v × w · u = u · v × w = a1 a2 b1 b2 a 1 = (−1) c1 b1
c3 a3 b3
a2 a3 c2 c3 b2 b3
a a a 1 2 3 = (1−)(−1) b1 b2 b3 c1 c2 c3 a a a 1 2 3 = b1 b2 b3 c1 c2 c3
Proposici´ on 21 − → → − − − Si → v ,− w,− u ∈ R3 , vectores no paralelos y no coplanares entonces → v ·→ w ×→ u − → → − → − es el volumen del paralelep´ıpedo constru´ıdo sobre los vectores v , w y u .
Prueba.−
143
4.5. RECTAS EN EL PLANO
..... ..... .......... .. .......... .. .......... .. .......... .... .......... .......... .. .......... .. .......... . . . . . . . . . . . . . . . . . . . . . ... ..... . .......... .......... ... .. .......... .......... ... .......... .......... .. • .. .... ........... .. .. .. . . . . . . . .. ... ... ... .. ... ... ... .. ... ... ... .. .. .. .. . . . . . ... ... ... .. ... ... ... .. .. .. ... .. .. .. .. . . . . . . . .. .. .. .................................................................................................................... ............. ................................................................................................................................ ........................................................................................................... ... ........................................................................................................................................................................................................................................................ . . . .. . . . . . . . . ....................................................................................................................................................... ... ........................................................................................................ ... ..................................................................................................................................................................................................................................................................... ................................................................................................................................................................................................................. ........ ..
Q
C
β
~u
w ~
O
~v
Si observamos la gr´ afica y tenemos:
B
P
A
llamamos V
el volumen del paralelep´ıpedo
V = (Area de la base)(Altura) = (Area de OAP B)(OQ) → → → = k− v ×− w k k− u k cos β
→ → → =− v ×− w ·− u − → − → − → = v ·w× u
Auncuando los conceptos de punto, recta y plano son conceptos primitivos (No definidos) de la geometria eucl´ıdea, la identificaci´ on punto ↔ tripla induce de manera natural descripciones anal´ıticas de la recta en el plano y en el espacio y del plano en el espacio que presentamos en las secciones siguientes.
4.5
RECTAS EN EL PLANO
Comenzamos con la recta, recordando la caracterizaci´ on geom´etrica que dice que una recta est´a un´ıvocamente determinada por un punto P0 por el cual
144
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
pasa y una direcci´on, asumimos en lo que sigue que nuestro universo es el plano cartesiano R2 . Definici´ on 22 − → Dados P0 un punto en el plano y V ∈ R2 , la recta l que pasa por P0 y tiene → − como direcci´on la de V es el conjunto de puntos P tales que el vector de punto − → inicial P0 y punto final P es paralelo a V .
Proposici´ on 22
−−→ o n − → l = P ∈ R2 P0 P = t V , t ∈ R
− → Dados P0 un punto en el plano y V ∈ R2 , P 6= P0 pertenece a la recta que → − − → − → → − pasa por P0 y tiene a V como vector direcci´on si y solo si P = P0 + t V , con t ∈ R. Prueba.− → − Suponemos que P 6= P0 pertenece a la recta que pasa por P0 y tiene a V como −−→ − → − → − → → − vector direcci´on entonces P0 P es paralelo a V es decir P − P0 = t V , con → − − → − → t ∈ R es decir P = P0 + t V , con t ∈ R. → − − → − → − → − → → − Rec´ıprocamente si P = P0 + t V , con t ∈ R entonces P − P0 = t V , con − → t ∈ R es decir P pertenece a la recta que pasa por P0 y tiene a V como vector direcci´on. Definici´ on 23 → − − → − → La ecuaci´ on P = P0 + t V , con t ∈ R se denomina la ecuaci´ on vectorial de − → la recta que pasa por P0 y tiene a V como vector direcci´on. − → − → Evidentemente la direcci´on de V y la de cualquier vector W paralelo, es la misma, en consecuencia la recta que pasa por P0 y tiene como direcci´on la de → − − → V , o la de W , es la misma.
4.5. RECTAS EN EL PLANO
145
Proposici´ on 23 − → → − Si W = λ V , λ 6= 0 y t, k ∈ R entonces −−→ −−→ n − →o − →o n P ∈ R2 P0 P = t V = P ∈ R2 P0 P = k W Prueba.− n −−→ − →o A ∈ P ∈ R2 |P0 P = t V si y solo si
− → − → − → A = P0 + t V
es decir
es decir
− → − → A = P0 + t n
→ 1 − W λ
−−→ − →o A ∈ P ∈ R |P0 P = k W . 2
− → − → − → Adem´ as, si suponemos P0 = (x0 , y0 ) , V = a i + b j y P = (x, y) la → − − → − → ecuaci´ on P = P0 + t V se transforma en (x, y) = (x0 , y0 ) + t(a, b) y al comparar coordenadas se obtienen las ecuaciones ( x = x0 + ta t∈R y = y0 + tb Definici´ on 24 Las ecuaciones
(
x = x0 + ta y = y0 + tb
t∈R
se denominan las ecuaciones param´etricas, con par´ ametro t, de la recta, que − → − → − → pasa por P0 = (x0 , y0 ) y tiene a V = a i + b j como vector direcci´on. Adicionalmente, si suponemos ab 6= 0, despejamos el par´ ametro t de las ecuaciones param´etricas e igualamos, obtenemos: t=
x − x0 y − y0 = a b
146
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
o lo que es lo mismo bx + (−a)y + (ay0 − bx0 ) = 0 que es equivalente a la ecuaci´ on de la forma Ax + By + C = 0 con A = b, B = −a, C = ay0 − bx0 , que es la forma general de la ecuaci´ on de la recta en el plano cartesiano. Ejemplo 13 La ecuaci´ on vectorial de la recta que pasa por P0 = (2, 3) y que tiene a → − − → → − V = i − 5 j como vector direcci´on, es: − → P = (2, 3) + t(1, −5) con t ∈ R y sus ecuaciones param´etricas (
x=2+t y = 3 − 5t
t∈R
y al eliminar el par´ ametro t obtenemos x − 2 =
y−3 −5
es decir 5x + y − 13 = 0
Proposici´ on 24 n− n− → − → − →o → − → − → − →o → − y l2 = P P = Q0 + k W se cortan Dos rectas: l1 = P P = P0 + t V si y solo si existen n´ umeros reales t0 y k0 , no necesariamente iguales y tales − → → − − → − → que P0 + t0 V = Q0 + k0 W Prueba.− Suponemos C = l1 ∩ l2 entonces C ∈ l1 por tanto existe t0 tal que → − − → → − − → − → − → C = P0 + t0 V , igualmente C ∈ l2 por tanto existe k0 tal que C = Q0 + k0 W − → − → − → − → − → y en consecuencia P0 + t0 V = C = Q0 + k0 W
4.5. RECTAS EN EL PLANO
147
Rec´ıprocamente si existen n´ umeros reales t0 y k0 , no necesariamente iguales y − → → − − → − → − → tales que P0 + t0 V = Q0 + k0 W = C entonces C ∈ l1 y C ∈ l2 . Ejemplo 14 − → Consideremos las rectas l1 de ecuaci´ on P = (1, 3) + t(−1, 1) y l2 de ecuaci´ on → − P = (−2, 5) + k(3, −2), t y k en R, entonces l1 y l2 se cortan si y solo si (1, 3) + t(−1, 1) = (−2, 5) + k(3, −2) para un par de reales t y k, es decir si y solo si ( 1 − t = −2 + 3k 3 + t = 5 − 2k es un sistema de dos ecuaciones con dos inc´ognitas cuya u ´nica soluci´on es t = 0, k = 1 en consecuencia (1, 3) + (0)(−1, 1) = (1, 3) ∈ l1 y tambi´en (1, 3) = (−2, 5) + (1)(3, −2) ∈ l2 Ejemplo 15 − → Consideremos las rectas l1 de ecuaci´ on P = (1, 2) + t(2, −1) y l2 de ecuaci´ on → − P = (4, 0) + k(−4.2) entonces l1 y l2 se cortan si y solo si (1, 2) + t(2, −1) = (4, 0) + k(−4, 2) para un par de reales t y k, es decir si y solo si ( 1 + 2t = 4 − 4k 2 − t = 2k
es un sistema de dos ecuaciones lineales con dos inc´ognitas cuya matriz aumentada ! 2 4 3 −1 −2 −2
148
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
es equivalente por filas a
! 1 2 0 0 0 1
en consecuencia el sistema es inconsistente, es decir l1 y l2 no se cortan. Si observamos con detenimiento encontramos que los vectores direcci´on de l1 → − − → − → − → → → − − y l2 , a saber: − v =2i − j y − u = −4 i + 2 j son tales que → u = (−2)→ v es decir son paralelos.
Definici´ on 25 Sean l1 y l2 rectas que se cortan, el ´angulo α entre ellas es precisamente el ´angulo α entre sus vectores direcci´on. Definici´ on 26 Dos rectas l1 y l2 se denominan paralelas si y solo si no se cortan. Proposici´ on 25 n− n− → − → − → − →o → − → − → − →o P P = P0 + t V y l2 = P P = Q0 + k W son → − − → paralelas si y solo si V = λW
Dos rectas: l1 =
Prueba.− → − − → Suponemos V = λW y Z ∈ l1 ∩ l2 es decir existen t1 , k1 ∈ R tales que − → − → − → − → − → P0 + t1 V = Z = Q0 + k1 W en consecuencia − → − → − → − → P0 = Q0 − t1 V + k1 W − → − → − → = Q0 − t1 λW + k 1 W − → − → = Q0 + (k1 − t1 λ) W
4.5. RECTAS EN EL PLANO
149
− → es decir P0 ∈ l2 . An´ alogamente: − → − → − → − → Q0 = P0 + t1 V − k1 W − → − → 1 k1 V = P0 + t1 − λ − → es decir Q0 ∈ l1 , en consecuencia l1 y l2 coinciden.
Sean − → → − → − → − − → − → P0 = (x0 , y0 ), Q0 = (x′0 , y0′ ), V = a i + b j , W = c i + d j . Decir l1 ∩ l2 = φ significa que no existen t1 , k1 ∈ R tales que − → − → − → − → − → P0 + t1 V = Z = Q0 + k1 W es decir el sistema ′
ax − cy = x0 − x0 bx − dy = y0′ − y0 no tiene soluci´on o lo que es lo mismo a c b d
=0
− → − → lo que significa ad = bc es decir a = λc y b = λd es decir V = λW
Proposici´ on 26 n − → − →o → − / l. entonces Sean l = P P = P0 + t V una recta y P1 un punto tal que P1 ∈
−
− → − → − →
→ la distancia d de P1 a l es P 1 − P 0 − U donde U es la componente de → − → − − → P 1 − P 0 a lo largo de V . Prueba.−
150
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
P1...........................
........ ........ ... . ...... ... d ..... ... . . . . . . . ... .. .. ... ...... ... ... ..... ... ... ........... ... ........ ... . . . . . . . . . .. ........ ... ..... ... ...... ... ...... ... ..... . . . . . . .. ...... ... ..... ... ...... ... ...... ... ..... . . . . . . .. ..... ... ..... ... ...... ... ...... ... .......... . . .. .... ......... ......... ...... ..... . . . . . 0 ...... ...... ..... . ....... ..........
l
~ U
P
Basta observar en la gr´ afica.
−
→ → − → −
− · V P − P 1 0 − → − → − → − → → −
→
d= P1− P0 − U = P1− P0 − V
−
→ 2
V Ejemplo 16 Consideremos la recta del ejemplo 12 de ecuaci´ on vectorial
− → P = (2, 3) +
4.5. RECTAS EN EL PLANO
151
t(1, −5) y el punto P1 = (4, 1) entonces la distancia d de P1 a la recta es
−
→ → − → −
− · V P − P 1 0 − → − →
→ V d= P1− P0 −
−
→ 2
V
((4, 1) − (2, 3)) · (1, −5) = (1, −5)
((4, 1) − (2, 3)) −
2 k(1, −5)k
(2, −2) · (1, −5) (1, −5) =
(2, −2) − 26
6
(2, −2) − (1, −5) =
13
20 4
=
13 , 13 √ 4 26 = 13
Por otra parte, en el ejemplo 12 encontramos que la ecuaci´ on cartesiana de la recta l, es: 5x + y − 13 = 0 y de la geometr´ıa anal´ıtica sabemos que la distancia del punto P1 = (4, 1) a l,es 5(4) + (1) − 13 √ d= 26 8 =√ 26 √ 8 26 = 26 √ 4 26 = 13
El resultado del ejemplo anterior no es una coincidencia. Proposici´ on 27 n − → − →o → − on cartesiana Sean l = P P = P0 + t V una recta con ecuaci´ Ax + By + C = 0
152
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
y P1 un punto tal que P1 ∈ / l, entonces la distancia d de P1 a l es d=
|Ax1 + By1 + C| √ A2 + B 2
Prueba.− Si suponemos − → − → − → P = (x, y), P0 = (x0 , y0 ), P1 = (x1 , y1 ) y V = a i + b j Entonces
→ → − → −
−
d= P1− P0 − U
(x1 − x0 ) a + (y1 − y0 ) b
(a, b) = (x1 − x0 , y1 − y0 ) −
2 2 a +b
1
(x1 − x0 ) a2 + b2 − ((x1 − x0 ) a + (y1 − y0 ) b) a, (y1 − y0 ) a2 + b2 − ((x1 − x0 ) a + (y1 = 2 2 (a + b )
1
(x1 − x0 ) b2 − (y1 − y0 ) ba, (y1 − y0 ) a2 − (x1 − x0 ) ab = 2 2 (a + b ) 1 = 2 k((x1 − x0 ) b − (y1 − y0 ) a) b, ((y1 − y0 ) a − (x1 − x0 ) b) ak (a + b2 ) rh i 1 2 2 2 2 2 2 (x − x ) b + (y − y ) a − 2ab (x − x ) (y − y ) = 2 1 0 1 0 1 0 1 0 (a + b ) (a + b2 ) √ q a 2 + b2 = 2 [b(x1 − x0 ) − a (y1 − y0 )]2 (a + b2 ) 1 |b(x1 − x0 ) − a (y1 − y0 )| =√ 2 a + b2 1 |bx1 + (−a)y1 + (ay0 − bx0 )| =√ 2 a + b2 y si recordamos que la forma cartesiana de la ecuaci´ on de la recta l, es precisamente bx + (−a)y + (ay0 − bx0 ) = 0 se tiene el resultado.
4.6. RECTAS EN EL ESPACIO
4.6
153
RECTAS EN EL ESPACIO
Definici´ on 27 − → Dados P0 un punto del espacio y V ∈ R3 , la recta l que pasa por P0 y tiene − → como direcci´on la de V es el conjunto de puntos P tales que el vector de punto − → inicial P0 y punto final P es paralelo a V .
Proposici´ on 28
o n −−→ − → l = P P0 P = t V , t ∈ R
− → Dados P0 un punto del espacio y V ∈ R3 , P 6= P0 pertenece a la recta que − → − → − → → − pasa por P0 y tiene a V como vector direcci´on si y solo si P = P0 + t V , con t ∈ R. Prueba.−
→ − Suponemos que P 6= P0 pertenece a la recta que pasa por P0 y tiene a V como −−→ − → − → − → → − vector direcci´on entonces P0 P es paralelo a V es decir P − P0 = t V , con → − − → − → t ∈ R es decir P = P0 + t V , con t ∈ R. → − − → − → − → − → → − Rec´ıprocamente si P = P0 + t V , con t ∈ R entonces P − P0 = t V , con − → t ∈ R es decir P pertenece a la recta que pasa por P0 y tiene a V como vector direcci´on. Definici´ on 28 → − − → − → La ecuaci´ on P = P0 + t V , con t ∈ R se denomina la ecuaci´ on vectorial de − → la recta que pasa por P0 y tiene a V como vector direcci´on. − → − → Evidentemente la direcci´on de V y la de cualquier vector W paralelo, es la misma, en consecuencia la recta que pasa por P0 y tiene como direcci´on la de → − − → V , o la de W , es la misma.
154
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
Proposici´ on 29 − → → − Si W = λ V y t, k ∈ R, entonces
n −−→ − →o − → o n −−→ P P0 P = t V = P P0 P = k W
Prueba.− Ejercicio para el lector.
− → − → − → − → Si suponemos P0 = (x0 , y0 , z0 ) , V = a i + b j + c k y P = (x, y, z) la → − − → → − ecuaci´ on P = P0 + t V se transforma en (x, y, z) = (x0 , y0 , z0 ) + t(a, b, c) y al comparar coordenadas se obtienen las ecuaciones
Definici´ on 29
x = x0 + ta y = y0 + tb z = z0 + tc
t∈R
x = x0 + ta y = y0 + tb z = z0 + tc
t∈R
Las ecuaciones
se denominan las ecuaciones param´etricas de la recta que pasa por P0 = − → − → − → − → (x0 , y0 , z0 ) y con vector direcci´on V = a i + b j + c k , t se denomina el par´ ametro. Ejemplo 17 La ecuaci´ on vectorial de la recta que pasa por P0 = (2, 3, −1) y que tiene a → − → − − → → − V = i − 2 j + 7 k como vector direcci´on es: − → P = (2, 3, −1) + t(1, −2, 7) con t ∈ R
4.6. RECTAS EN EL ESPACIO
155
y sus ecuaciones param´etricas x=2+t y = 3 − 2t z = −1 + 7t
t∈R
− → − → − → − → Finalmente si suponemos que V = a i + b j + c k es tal que abc 6= 0, al despejar el par´ ametro t, de las ecuaciones param´etricas, obtenemos t=
x−x0 a
=
y−y0 b
=
z−z0 c
Definici´ on 30 0 0 0 Las ecuaciones x−x = y−y = z−z se denominan ecuaciones sim´etricas o a b c ecuaciones cartesianas de la recta.
Ejemplo 18 Las ecuaciones cartesianas de la recta del ejemplo 1, son: y−3 z − (−1) x−2 = = 1 (−2) 7 es decir x−2=
z+1 3−y = 2 7
Observaci´ on.- Es importante tener en cuenta que tanto en el caso param´etrico, como en el cartesiano hablamos en plural, vale decir: ecuaciones param´etricas y ecuaciones cartesianas de la recta.
Proposici´ on 30 n− n− → − → − → − →o → − → − → − →o se cortan y l 2 = P P = Q0 + k W Dos rectas: l1 = P P = P0 + t V si y solo si existen n´ umeros reales t0 y k0 , no necesariamente iguales y tales − → → − − → − → que P0 + t0 V = Q0 + k0 W
156
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
Prueba.− Suponemos C = l1 ∩ l2 entonces C ∈ l1 por tanto existe t0 tal que − → − → − → C = P0 + t0 V , igualmente C ∈ l2 por tanto existe k0 tal que − → − → − → C = Q0 + k 0 W y en consecuencia
− → − → − → − → − → P0 + t0 V = C = Q0 + k0 W
Rec´ıprocamente si existen n´ umeros reales t0 y k0 , no necesariamente iguales y tales que − → − → − → − → − → P0 + t0 V = Q0 + k0 W = C entonces C ∈ l1 y C ∈ l2 .
Ejemplo 19 − → Consideremos las rectas l1 de ecuaci´ on P = (1, 2, 3) + t(2, −1, 1) y l2 de → − ecuaci´ on P = (−2, 8, 6) + k(−1, 2, 1) entonces l1 y l2 se cortan si y solo si (1, 2, 3) + t(2, −1, 1) = (−2, 8, 6) + k(−1, 2, 1) para un par de reales t y k, es decir si y solo si 1 + 2t = −2 − k 2 − t = 8 + 2k 3+t=6+k
es un sistema de tres ecuaciones con dos inc´ognitas cuya u ´nica soluci´on es t = 0, k = −3 en consecuencia (1, 2, 3) + (0)(2, −1, 1) = (−2, 8, 6) + (−3)(−1, 2, 1) = (1, 2, 3) ∈ l1 ∩ l2
157
4.6. RECTAS EN EL ESPACIO
Ejemplo 20 − → Consideremos las rectas l1 de ecuaci´ on P = (1, 2, 3) + t(2, −1, 1) y l2 de → − ecuaci´ on P = (4, 0, 2)+k(1, 1, 2) entonces l1 y l2 se cortan si y solo si (1, 2, 3)+ t(2, −1, 1) = (4, 0, 2) + k(1, 1, 2) para un par de reales t y k, es decir si y solo si 1 + 2t = 4 + k 2−t=k 3 + t = 2 + 2k
es un sistema de tres ecuaciones con dos inc´ognitas cuya matriz 2 −1 3 2 −1 1 1 2 equivalente por filas a 0 3 1 −2 −1 0 0
aumentada es 3 4 1
en consecuencia el sistema es inconsistente es decir l1 y l2 no se cortan. Definici´ on 31
Sean l1 y l2 rectas que se cortan. El ´angulo α entre ellas es precisamente el ´angulo α entre sus vectores direcci´on. Ejemplo 21 − → Sabemos que las rectas l1 de ecuaci´ on P = (1, 2, 3) + t(2, −1, 1) y l2 de → − ecuaci´ on P = (−2, 8, 6) + k(−1, 2, 1) se cortan en (1, 2, 3) entonces el ´angulo α entre ellas es tal que cos α =
−3 1 (2, −1, 1) · (−1, 2, 1) = √ √ =− k(2, −1, 1)k k(−1, 2, 1)k 2 6 6
en consecuencia 1 2 α = arccos − = π 2 3
158
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
Ejemplo 22 − → Las rectas l1 de ecuaci´ on P = t(2, −1, 1) y l2 de ecuaci´ on → − 1 1 2 P = (1, 1, 1) + k(1, 4, 2) se cortan en ( 3 , − 3 , 3 ) y puesto que (2, −1, 1) · (1, 4, 2) = 0 las rectas son perpendiculares. Definici´ on 32 − → − → Sean l1 y l2 rectas que se no cortan, con vectores direcci´on V y W respectivamente entonces → − − → • Si V y W son paralelos decimos que las rectas son paralelas. → − − → • Si V y W no son paralelos decimos que las rectas se cruzan. Ejemplo 23 − → Las rectas l1 de ecuaci´ on P = t(2, −1, 1) y l2 de ecuaci´ on → − P = (1, 1, 1) + k(4, −2, 2) son paralelas − → → − Las rectas l1 de ecuaci´ on P = (1, 2, 3) + t(2, −1, 1) y l2 de ecuaci´ on P = (4, 0, 2) + k(1, 1, 2) no se cortan y no son paralelas es decir se cruzan. Proposici´ on 31 n − → − →o → − Sean l = P P = P0 + t V una recta y P1 un punto tal que P1 ∈ / l. entonces
− → − → − − →
→
la distancia d de P1 a l es P 1 − P 0 − U donde U es la componente de → − → − − → P 1 − P 0 a lo largo de V . Prueba.− Graf ico 19 Basta observar la gr´ afica.
4.6. RECTAS EN EL ESPACIO
−
− → − → →
−
· V P − P 1 0 → − − → − → − → − →
→ V d = P1− P0 − U = P1− P0 −
−
2 →
V
159
Proposici´ on 32 Sean P0 , P1 dos puntos en el espacio, entonces la ecuaci´ on vectorial de la recta − → − → − → determinada por P0 y P1 es P = (1 − t) P 0 + t P 1 , t ∈ R. Prueba.−
−−−→ Basta observar que el vector P0 P1 es un vector direcci´on de la recta, en consecuencia la ecuaci´ on vectorial es → − → − → − − → P = P0 + t P 1 − P 0 es decir → − → − → − P = (1 − t) P 0 + t P 1 , t ∈ R. − → − → − → Observaci´ on.- La ecuaci´ on P = (1 − t) P 0 + t P 1 con t ∈ [0, 1] , describe los puntos del segmento P0 P1 . Ademas si suponemos P = (x, y, z), P0 = (x0 , y0 , z0 ) y P1 = (x1 , y1 , z1 ) reemplazamos en la ecuacion e igualamos componentes obtenemos x = (1 − t)x0 + tx1 = x0 + t(x1 − x0 ) y = (1 − t)y0 + ty1 = y0 + t(y1 − y0 ) z = (1 − t)z0 + tz1 = z0 + t(z1 − z0 ) que son las ecuaciones param´etricas de la recta y despejando t en cada una e igualando tenemos: t=
y − y0 z − z0 x − x0 = = x1 − x0 y1 − y0 z1 − z0
que son las ecuaciones sim´etricas o cartesianas de la recta.
160
4.7
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
PLANOS EN EL ESPACIO
Para el plano, recordamos la caracterizaci´ on geom´etrica que dice que un plano est´a un´ıvocamente determinado por un punto P0 por el cual pasa y una recta perpendicular al mismo.
Definici´ on 33 − → Dados P0 un punto del espacio y N ∈ R3 , el plano P que pasa por P0 y tiene → − a N como vector normal es el conjunto de puntos P tales que el vector de − → punto inicial P0 y punto final P es perpendicular a N . n −−→ − →o P = P P0 P es perpendicular a N
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ....................................................................................................................................................... . . . . . . . . . . . . . . . . . ............................................................................................................................................................................................................................................................................................................................................................ . . . . . ................................................................................................................................................................................................................................................................................................... . . . . . ..................................................................................................................................................... ............................................................................................................................................................................................................................. .............................................................................................................................................................................................................................. ............................................................................................................................................................................................................................... .................................................................................................................................................................................................................................................................................................................................................................................. . . . . ........................................................... .........................................................................................0 ................................................................................................................................................................................................................................. .............................................................................................................................................................................................................................. .............................................................................................................................................................................................................................. ................................................................................................................................................................................................................................................................................................................................................................................... . . . . . . .............................................................................................................................................................................................................................. ................................................................................................................................................................................................................................................................................................................................................. ... ... ... ... ... ... ..
P
P
4.7. PLANOS EN EL ESPACIO
161
~ N
.... ......... ... ... ... ... .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................................................................................................................. . . . . . . . . . ............................................................................................................................................................................................................................................................................................................................................. . . . . . ........................................................................................................................................................................................................................................................................................................ . . . . . .............................................................................................................................................................................................................................. ............................................................................................................................................................................................................................... .............................................................................................................................................................................................................................. .............................................................................................................................................................. ................................................................................................................................................................................................................................................................................................................................................................................. . . . . ............................................................................................................................................................................................................................. .................................................................................................................................................................................................................................................................................................. .................................. .....................................................................................................................0 ............................................................................................................................................................................................................................. ............................................................................................................................................................................................................................................................................................................................................................................ . . . .......................................................................... ...................................................................................................................................................... ................................................................................................................................................................................................................................................................................................................................................. ... ... ... ... ... ... ..
P
P
Proposici´ on 33 − → Dados P0 un punto del espacio y N ∈ R3 , P pertenece al plano que pasa por → − − → − → − → − → P0 y tiene a N como vector normal si y solo si P · N = P 0 · N Prueba.− −−→ Suponemos P un punto del plano entonces el vector P0 P es perpendicular a → − N en consecuencia −−→ → → − → → − → − → − − → − → − − P0 P · N = 0 es decir P − P 0 · N = 0 o lo que es lo mismo P · N = P 0 · N .
− → − → − → → − Rec´ıprocamente suponemos P un punto tal que P · N = P 0 · N entonces → − −−→ → − − → − → P − P 0 · N = 0 es decir P0 P es perpendicular a N . Definici´ on 34 → − − → − → − → La ecuaci´ on P · N = P 0 · N se denomina la ecuaci´ on vectorial del plano P
162
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
Ejemplo 24 La ecuaci´ on vectorial del plano −xy− es la ecuaci´ on del plano que pasa por → − → − →− → − (0, 0, 0) y es perpendicular al eje z es decir P . k = 0 · k = 0 La ecuaci´ on vectorial del plano −xz− es la ecuaci´ on del plano que pasa por − →− → − → → − (0, 0, 0) y es perpendicular al eje y es decir P . j = 0 · j = 0 La ecuaci´ on vectorial del plano −yz− es la ecuaci´ on del plano que pasa por − →− → − → → − (0, 0, 0) y es perpendicular al eje x es decir P . i = 0 · i = 0 − → − → Evidentemente si M es un vector paralelo a N , cualquier vector perpendicular → − − → a N tambi´en es perpendicular a M , en consecuencia el plano que pasa por P0 → − − → y tiene a N como vector normal y el que pasa por P0 y tiene a M como vector normal , es el mismo. Proposici´ on 34 n − → → − Si M = λ N entonces P Prueba.−
−−→ − →o n P P es perpendicular a N = P 0
−−→ − →o P P es perpendicular a M 0
Ejercicio para el lector. → − → − → − → − Ademas, si suponemos P0 = (x0 , y0 , z0 ), N = a i + b j + c k y P = (x, y, z) → − − → − → − → la ecuaci´ on P · N = P 0 · N se transforma en (x, y, z) · (a, b, c) = (x0 , y0 , z0 ) · (a, b, c) es decir ax + by + cz = ax0 + by0 + cz0 o tambi´en ax + by + cz = D donde ax0 + by0 + cz0 = D. Definici´ on 35 La ecuaci´ on ax + by + cz = ax0 + by0 + cz0 = D se denomina la ecuaci´ on
4.7. PLANOS EN EL ESPACIO
163
→ − → − cartesiana del plano P que pasa por P0 = (x0 , y0 , z0 ) y tiene a N = a i + → − → − b j + c k como vector normal. Rec´ıprocamente toda ecuaci´ on de la forma ax + by + cz = D , a, b, c no todos → − − → − → − → cero, describe un plano P cuyo vector normal es N = a i + b j + c k
P = {(x, y, z) |ax + by + cz = D }
Ejemplo 25 La ecuaci´ on cartesiana del plano −xy− es z = 0 es decir {(x, y, z) |z = 0 } La ecuaci´ on cartesiana del plano −xz− es y = 0 es decir {(x, y, z) |y = 0 } La ecuaci´ on cartesiana del plano −yz− es x = 0 es decir {(x, y, z) |x = 0 }
Ejemplo 26 La ecuaci´ on 3x − 2y + 5z = 0 describe un plano que pasa por el origen y − → − → − → − → tiene como vector normal N = 3 i − 2 j + 5 k
Ejemplo 27 La ecuaci´ on ax + by = 0, ab 6= 0, describe un plano “paralelo al eje z” que contiene la recta ax + by = 0 del plano −xy−
164
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
z....... ......................... .... .......................................... .... ............................................................................. .... ......................................................................................................................................................................................................... . . . . . . . . . . .......................................................................................................................................... ....................................................................................................................................... .................................................................................................................................................................................... .................................................................................................................................................................................... .................................................................................................................................................................................... .................................................................................................................................................................................... .................................................................................................................................................................................... .................................................................................................................................................................................... .................................................................................................................................................................................... .................................................................................................................................................................................... ........................................................................................................................................................................................... ....................................................................................................................................................... ............................................................................................... .................. . .............. . . . . . . . . . ....... . . . . . . . . . ....... . . . . . . . . . ..... ...................
O
ax + by = 0
.... ......
y
x
Cuando decimos “paralelo al eje z” significa si el punto o − n que − → → → − P0 = (x0 , y0 , 0) ∈ P entonces toda la recta P P = P 0 + t k ⊂ P
Definici´ on 36
n − n → → − → − →o → − → − →o → − − − ′ Dos planos P = P P · N = P 0 · N y P = P P · M = P 1 · M tales − → − → que P ∩ P ′ = φ y M = λ N se dicen paralelos. Definici´ on 37 − n − → − → − →o → → − − →o → − → − P · N = P 0 · N y P′ = P P · M = P 1 · M tales que P ∩ P ′ = 6 φ el ´ angulo α entre P y P ′ es el ´angulo α entre sus vectores normales. n Dados dos planos P = P
Proposici´ on 35 Sean P0 , P1 , P2 tres puntos no colineales en el espacio, entonces la ecuaci´ on vectorial del plano determinado por P0 , P1 y P2 es − → − → −−−→ −−−→ P − P 0 · P0 P1 × P0 P2 = 0
4.7. PLANOS EN EL ESPACIO
165
Prueba.− −−−→ −−−→ Puesto que P0 , P1 , P2 son puntos no colineales P0 P1 y P0 P2 no son paralelos −−−→ −−−→ − → en consecuencia P0 P1 × P0 P2 6= 0 y resulta un vector normal al plano de ecuaci´ on − → − → −−−→ −−−→ P − P 0 · P0 P1 × P0 P2 = 0
Ahora bien, tres puntos no colineales determinan un u ´nico plano, en consecuencia basta probar que P0 , P1 y P2 satisfacen la ecuaci´ on. En efecto: Claramente P0 satisface la ecuaci´ on, adem´ as → − → −−−→ −−−→ −−−→ −−−→ −−−→ − ( P 1 − P 0 ) · P0 P1 × P0 P2 = P0 P1 · P0 P1 × P0 P2 = 0 es decir P1 satisface la ecuaci´ on, → − → −−−→ −−−→ −−−→ −−−→ −−−→ − ( P 2 − P 0 ) · P0 P1 × P0 P2 = P0 P2 · P0 P1 × P0 P2 = 0 es decir P2 satisface la ecuaci´ on. Ejemplo 28 − → − → − → Consideremos los puntos P 0 = (1, 2, 3), P 1 = (−2, 1, 0), P 2 = (4, 2, −1) −−−→ −−−→ entonces P0 P1 = (−3, −1, −3), P0 P2 = (3, 0, −4) en consecuencia −−−→ −−−→ P0 P1 × P0 P2 =
→ − → − → − i j k −3 −1 −3 3 0 −4
− → − → − → = 4 i − 21 j + 3 k
− → − → −−−→ −−−→ P − P 0 · P0 P1 × P0 P2 = (x − 1, y − 2, z − 3) · (4, −21, 3) = 4x − 21y + 3z + 29
En consecuencia la ecuaci´ on del plano es 4x − 21y + 3z + 29 = 0 En la pr´actica la ecuaci´ on del plano determinado por los puntos → − → − − → P 0 = (x0 , y0 , z0 ), P 1 = (x1 , y1 , z1 ), P 2 = (x2 , y2 , z2 ) es simplemente
166
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
x y z x 1 − x 0 y1 − y 0 z 1 − z 0 x 2 − x 0 y2 − y 0 z 2 − z 0
x0 y0 z0 = x 1 − x 0 y1 − y 0 z 1 − z 0 x 2 − x 0 y2 − y 0 z 2 − z 0
Otra caracterizaci´ on geom´etrica de un plano dice que “un plano est´a un´ıvocamente determinado por dos rectas que se cortan”, anal´ıticamente podemos entonces afirmar: Proposici´ on 36 n− n− − − → − →o → → → − → − →o → − P P = P0 + t V , l2 = P P = P0 + k W , − → − → − → − → una ecuaci´ on del plano determinado por l1 y l2 es P = P 0 + t V + k W , t, k ∈ R Dadas dos rectas que se cortan l1 =
Prueba.−
Graf ico 20 Basta observar la gr´ afica → − − → − → → − Ahora, si suponemos P = (x, y, z), P0 = (x0 , y0 , z0 ), V = a1 i + b1 j + c1 k , → − − → → − → − W = a2 i + b2 j + c2 k y comparamos coordenadas obtenemos x = x0 + a1 t + a2 k y = y0 + b1 t + b2 k t, k ∈ R z = z0 + c 1 t + c 2 k
que denominamos ecuaciones param´etricas del plano, t, k se denominan los par´ ametros. Ahora bien, si miramos las ecuaciones param´etricas x − x0 = a1 t + a2 k y − y0 = b1 t + b2 k (∗) z − z0 = c 1 t + c 2 k
4.7. PLANOS EN EL ESPACIO
167
como un sistema gen´erico de tres ecuaciones con dos inc´ognitas e intentamos resolverlo, su matriz aumentada ser´a:
a1 a2 b1 b2 c1 c2
x−x 0 y − y0 z − z0
y al reducirla a forma escalonada obtenemos:
a2 a1 0 −b1 a2 + a1 b2 0 0
x − x0 −b1 (x − x0 ) + a1 (y − y0 ) −c1 b2 (x − x0 ) + c1 a2 (y − y0 ) + b1 c2 (x − x0 ) − b1 a2 (z − z0 ) −a1 c2 (y − y0 ) + a1 b2 (z − z0 )
es decir el sistema tiene soluci´on si y solo si
−c1 b2 (x − x0 )+c1 a2 (y − y0 )+b1 c2 (x − x0 )−b1 a2 (z − z0 )−a1 c2 (y − y0 )+a1 b2 (z − z0 ) = 0 o lo que es lo mismo (x − x0 ) (b1 c2 − c1 b2 ) + (y − y0 ) (c1 a2 − a1 c2 ) + (z − z0 ) (a1 b2 − b1 a2 ) = 0 y al observar cuidadosamente esta u ´ltima ecuaci´ on vemos que es la ecuaci´ on cartesiana del plano que pasa por P0 y tiene como vector normal → − → − − → − → N = (b1 c2 − c1 b2 ) i + (c1 a2 − a1 c2 ) j + (a1 b2 − b1 a2 ) k → − − → = V × W. Es decir, hemos mostrado que la eliminaci´on de los par´ ametros t, k de las ecuaciones param´etricas (*) nos conduce a la ecuaci´ on vectorial − → − → → − → − → − → − P · V ×W = P0· V ×W que evidentemente es la ecuaci´ on vectorial del plano mencionado.
Proposici´ on 37 n − → − → − →o → − un plano que no contiene al origen, la disSea P = P P · N = P 0 · N
tancia d del origen al plano es d =
− → → − P ·N
−
→
N
168
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
Prueba.−
.. .....
z
... ...................... .................................. ......................................... ............................................................................. . . . . . . . . . . . . . . . ....................... ................ . . . . . . . . . . . . . . . . . . . . . . . ...... ............... ............................................................. .......................................................................................... ................................................................................................................................................................................................ ................................................................................................ ........................................................................................................................................... ................................................................................................ ................................................................................................. ................................................................................................ ................................................................................................. ................................................................................................ ............................................................................................... ................................................................................................ ........................................................................................................................................... ................................................................................................. ................................................................................................. ................................................................................................ ........................................................................................................................................... ................................................................................................. ....................................................................................................... .................................................................................................... ............................................................................................................................................. ................................................................................................... ..... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ... .................................................................................................... ..... .............................................................................................................................................................................................. . .... ................................................................................................ .1 . . . . ..................................................................................................... ... ................................................................................................ ..... ...................................................................................... ..... ................................................................................................. ..... . . ........................................................... . ... . ................................................. . . . ....................................... ... . . . . ............................... ... ...... . ............. . . . ......... ...... . . .... . . . . . . . ....... . . . . . . . . . ...... . . . . . . . . . ....... . . . . . . . . . . . .. ................
P~
x
..... ..
− − → − →
→ Si observamos la gr´ afica d = P 1 donde P1 ∈ P y P 1 = λ N , por tanto − → − → → − − → → − − → 1·N por lo tanto P 1 · N = λ N · N es consecuencia λ =
P− →
2
N
− − → → − → − →
−
P · N 0 → → → P 1 · N −
→ −
−
− d = P 1 = λ N = |λ| N = 2 N =
→ → −
N N
Proposici´ on 38 n − n − → − → − →o → − → − →o → − → − y P ′ = P P · N = P 1 · N planos parSean P = P P · N = P 0 · N alelos entonces la distancia d entre P y P ′ est´a dada por − → − → − → → − P 0 · N − P 1 · N
− d=
→
N
Prueba.−
169
4.7. PLANOS EN EL ESPACIO
Ejercicio para el lector.
.. .....
z
x
............ ........................... ..................................... ................................................ ................................................................................... . . . . . . . . . . . . . . . ........... ..................................................... .................................................................................. ................ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..... ............................................................................................................................................................................................................ ........................................................ ....... ........................................... ..................................................................................................................................................... ............................................................................................................. ... . ......... . . . . . . . . . . . . . . . . . . . . ... . . . . . . . . . . . . . . . .... ............................................................................................................... ............... .................................................................................................................................................................................................... ............... ................................................................................................... . . . . . . . . . . . . . . ........ ..................................................................................................... ..... .................................................................................................... ..... .............................................................................................................................................. ..... ..................................................................................................... ..... ..................................................................................................... ..... .................................................................................................. ..... .................................................................................................. ..... ..................................................................................................... ..... .................................................................................................................................... ..... ....................................................................................................................... ..... ..... ................................................................................................ ..... ....................................................................................................... ..... ...... . . . . . . . . . . . . . . . . . . . . . . . . .... . . . . . . . . . . . . . . . . ... ..... .......................................................................................................... ..... ..... ................................................................................................................................................................................................... . . ..... . . .................................................................................................... ... ..... . . ....................................................................................................... . . . . .... ..... ................................................................................................ ..... ....... ....................................................... .................................. ..... ......... ................................................................................................... ....... ........................................................... ..... . . ..... ................................................. ... ....... . . . ..... ........................................ . ..... .... ..... . ............................... . . . . ..... ...... .. .... .............. . . .......... . . . . . . . ..... .... ............... ....... . . . . . . . . . . . . . . . . . . . . . . . . . ..... ......... . ....... . . . . . . . . . . . . . . . . . . . . . . . . . ..... ........ ...... . . . . . . . . . . . . . . . . . . . . . . . . . . ..... ... ..... ..... .. .......... ............... ..... ................ ............... ............................
y
...... .
Finalmente, si miramos una a una las ecuaciones cartesianas de la recta que − → − → − → − → pasa por P0 = (x0 , y0 , z0 ) y tiene a V = a1 i + b1 j + c1 k como vector direcci´ on,tenemos: 0 = y−y es decir b(x − x0 ) − a(y − y0 ) = 0 ecuaci´ on de un plano paralelo b al eje z. z−z0 x−x0 es decir a(z − z0 ) − c(x − x0 ) = 0 ecuaci´ on de un plano paralelo c = a al eje y. y−y0 0 = z−z es decir c(y − y0 ) − b(z − z0 ) = 0 ecuaci´ on de un plano paralelo b c al eje x.
x−x0 a
En conclusi´ on toda recta en el espacio se puede ver como la intersecci´on de tres planos uno paraleloal eje x, uno paralelo al eje y y uno paralelo al eje z.
Gr´ af ico
170
CAP´ ITULO 4. VECTORES DEL ESPACIO USUAL, R2 Y R3
Cap´ıtulo 5
ESPACIOS VECTORIALES REALES
5.1
´ Y PROPIEDADES DEFINICION
Definici´ on 1 Consideramos un conjunto V 6= φ y R el campo de los n´ umeros reales. Sea + una adici´on definida sobre V tal que: → → → → → 1. Para todo − v ,− u ∈ V , la suma − w =− v +− u ∈ V. (P ropiedad Clausurativa) → → → → → → → → → 2. Para todo − v ,− u,− z ∈ V , (− v +− u )+− z =− v +(− u +− z ). (P ropiedad Asociativa) → − − → → − → → − 3. Existe 0 ∈ V, tal que para todo − v ∈ V, − v + 0 = 0 +→ v = v. (P ropiedad M odulativa) → → 4. Para todo − v ∈ V existe − w ∈ V − → 0 . (P ropiedad Invertiva)
→ → − − tal que − v +− w = → w +→ v =
− → → → → → 5. Para todo → v ,− u ∈V, − v +− u =− u +− v . (P ropiedad Conmutativa) Sea adem´ as, (·) una multiplicaci´ on de un n´ umero real por un elemento de V , tal que: → → → 6. Para todo λ ∈ R y para todo− v ∈V, − w =λ·− v ∈V 171
172
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
→ → − 7. Para todo λ, µ ∈ R y para todo − v ∈ V , (λ · (µ · − v )) = (λµ) · → v → → → − 8. Para todo λ, µ ∈ R y para todo − v ∈ V , (λ + µ) · − v =λ·− v +µ·→ v → − → → − − 9. Para todo λ ∈ R y para todo − v ,→ u ∈ V , λ · (− v +− u) =λ·→ v +λ·→ u − → → 10. Para todo → v ∈ V y para 1 ∈ R, 1 · − v =− v Decimos entonces hV, +, ·i es un espacio vectorial real a izquierda. Los elementos del conjunto V se denominan vectores y los n´ umeros reales se − → − denominan escalares. En adelante, la operaci´on λ · v se escribir´ a como λ→ v; adem´ as, se notar´ a un espacio vectorial hV, +, ·i simplemente por V . Observaci´ on. Puesto que en nuestro tratamiento solo utilizamos el campo R como campo de escalares y en el producto de un escalar por un vector el escalar siempre aparece a la izquierda, no hay confusi´ on si solo nos referimos a espacios vectoriales y as´ı lo haremos. → − Notaci´ on. 0 ∈ V, se denomina el m´ odulo o elemento id´entico de V y para − → → − − → → → → → cada v ∈ V el vector w ∈ V tal que − v +− w =− w +− v = 0 se denomina → → → → el opuesto de − v y se nota −− v , (− w = −− v ) en consecuencia reescribimos la − → − → − → → → ecuaci´ on de la propiedad 4, as´ı. v + (− v ) = (−− v)+− v = 0 El lector observar´ a que ya conocemos algunos ejemplos de espacios vectoriales. Ejemplo 1 V el conjunto de vectores en el espacio usual con la adici´on de vectores y multiplicaci´ on de un real por un vector, usuales. Ejemplo 2 V = Rn , n = 1, 2, 3 con las operaciones usuales de adici´on de elementos de Rn , n = 1, 2, 3 y de multiplicaci´ on de un real por un elemento de Rn , n = 1, 2, 3.
´ Y PROPIEDADES 5.1. DEFINICION
173
Ejemplo 3 V = Mm×n , n y m enteros positivos, con las operaciones usuales de adici´on de matrices y de multiplicaci´ on de un real por una matriz. Otros ejemplos: Ejemplo 4 n− o → − → V = Rn = X | X = (x1 , x2 , ..., xn ) , xi ∈ R, n ∈ Z+
con las operaciones definidas as´ı:
→ − − → Si X = (x1 , x2 , ..., xn ) ∈ Rn y Y = (y1 , y2 , ..., yn ) ∈ Rn , entonces − − → → X + Y = (x1 + y1 , x2 + y2 , ..., xn + yn ) , → − y si X = (x1 , x2 , ..., xn ) ∈ Rn y λ ∈ R − → λ X = (λx1 , λx2 , ..., λxn ) Ejemplo 5 V = P2 [x] = p(x) p(x) = a0 + a1 x + a2 x2 , a0 , a1 , a2 ∈ R
con las operaciones definidas as´ı:
Si p(x) = a0 + a1 x + a2 x2 y q(x) = b0 + b1 x + b2 x2 , entonces r(x) = p(x) + q(x) = (a0 + b0 ) + (a1 + b1 ) x + (a2 + b2 ) x2 y si λ ∈ R y p(x) = a0 + a1 x + a2 x2 entonces λ(p(x)) = λp(x) = λa0 + λa1 x + λa2 x2
174
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Ejemplo 6
V = P [x] = p(x) | p(x) = a0 + a1 x + a2 x2 + · · · + an xn , a0 , a1 , · · · , an ∈ R, n ∈ Z+ con las operaciones definidas as´ı:
Si p(x) = a0 + a1 x + · · · + an xn y q(x) = b0 + b1 x + · · · + bn xn entonces r(x) = p(x) + q(x) = (a0 + b0 ) + (a1 + b1 ) x + · · · + (an + bn ) xn Si λ ∈ R y p(x) = a0 + a1 x + · · · + an xn entonces λ · (p(x)) = λp(x) = λa0 + λa1 x + · · · + λan xn Ejemplo 7
V = F (x) = {f | f es una funci´on de variable real con valor real} con las operaciones definidas as´ı: Si f, g ∈ F (x) entonces (f + g) (x) = f (x) + g(x) y si λ ∈ R y f ∈ F (x) entonces λ · (f (x)) = λf (x). El lector verificar´a en cada caso el cumplimiento de las propiedades. Ejemplo 8
V = {(x, y) | Ax + By = 0, x, y ∈ R, A, B reales fijos} con las operaciones usuales en R2 .
´ Y PROPIEDADES 5.1. DEFINICION
175
Verificaci´ on.Basta verificar las propiedades (1),(3),(4) y (6) de la definici´on 1 puesto que las otras se verifican de manera inmediata por el hecho que V ⊂ R2 , as´ı tenemos: Propiedad 1. Suponemos (x1 , y1 ) ∈ V, (x2 , y2 ) ∈ V , es decir Ax1 + By1 = 0 y Ax2 + By2 = 0 y por tanto (Ax1 + By1 ) + (Ax2 + By2 ) = 0 + 0 = 0 y como A (x1 + x2 ) + B (y1 + y2 ) = (Ax1 + By1 ) + (Ax2 + By2 ) = 0 entonces (x1 + x2 , y1 + y2 ) ∈ V . Propiedad 3. Puesto que A(0) + B(0) = 0 entonces (0, 0) ∈ V y obviamente para todo (x, y) ∈ V, (x, y) + (0, 0) = (0, 0) + (x, y) = (x, y). Propiedad 4. Si (x1 , y1 ) ∈ V entonces Ax1 + By1 = 0 y en consecuencia A(−x1 ) + B(−y1 ) = −(Ax1 + By1 ) = −0 = 0 es decir (−x1 , −y1 ) ∈ V y claramente (x1 , y1 ) + (−x1 , −y1 ) = (−x1 , −y1 ) + (x1 , y1 ) = (0, 0) .
176
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Propiedad 6. Si λ ∈ R y (x1 , y1 ) ∈ V es decir si λ ∈ R y Ax1 + By1 = 0 entonces A (λx1 ) + B (λy1 ) = λ (Ax1 + By1 ) = λ 0 = 0, es decir (λx1 , λy1 ) = λ (x1 , y1 ) ∈ V. Si evocamos la identificaci´ on geom´etrica de R2 con el plano, hemos probado que toda recta que pasa por el origen tiene estructura de espacio vectorial.
Proposici´ on 1 Sea V un espacio vectorial. → − 1. El m´ odulo 0 ∈ V es u ´nico. − → 2. Para cada → v ∈ V su opuesto (−− v ) es u ´nico. Prueba.− → − → → − − → − → − 1. Si suponemos 0′ ∈ V otro m´ odulo entonces 0 = 0 + 0′ = 0′ .
→ − → → → → − 2. Si suponemos − w1 y − w 2 opuestos de − v entonces − w1 = → w1 + 0 = − → → → − → → → → → → w 1 + (− v +− w 2 ) = (− w1 + − v)+− w2 = 0 + − w2 = − w2
Proposici´ on 2 − → Sea V un espacio vectorial, 0 ∈ R, 0 ∈ V, entonces − → − → 1. Para todo → v ∈ V, 0− v = 0. − → − → 2. Para todo λ ∈ R, λ 0 = 0 .
− → → 3. Para todo → v ∈ V, (−1)− v = −− v.
→ − − → − → 4. Si λ→ v = 0 entonces λ = 0 o − v = 0.
Prueba.−
177
5.2. SUBESPACIOS
1. Como
→ → → → 0− v + 0− v = (0 + 0)− v = 0− v
entonces por la proposici´on 1.1 − → → 0− v = 0 2. Como
− → − → − → − → − → λ0 =λ 0 + 0 =λ0 +λ0
entonces por la proposici´on 1
− → − → λ0 = 0 3. Como
− → → → → → 0 =0− v = (1 + (−1))− v =− v + (−1)− v
entonces por la proposici´on 1.2 → → (−1)− v = −− v → − − 4. Si λ→ v = 0 y λ 6= 0 entonces 1 1 1 − → → − → − − → − → − → v =1v = 0 = 0. λ v = (λ v ) = λ λ λ
5.2
SUBESPACIOS
Definici´ on 2 Sea hV, +, ·i un espacio vectorial, W ⊂ V tal que hW, +, ·i es un espacio vectorial, decimos que hW, +, ·i es un subespacio de hV, +, ·i Ejemplo 9 → = Sea V un espacio vectorial, entonces V y V− 0 spacios, los denominamos subespacios triviales.
n− →o 0 , claramente son sube-
178
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Ejemplo 10 Sea W = {(x, y, z)| Ax + By + Cz = 0} es un subespacio de R3 . Verificaci´on.Basta verificar las propiedades (1),(3),(4) y (6) de la definici´on 1. puesto que las otras se verifican de manera inmediata por el hecho que W ⊂ R3 , as´ı tenemos: Propiedad 1- Suponemos que (x1 , y1 , z1 ) ∈ W, (x2 , y2 , z2 ) ∈ W, es decir Ax1 + By1 + Cz1 = 0 y Ax2 + By2 + Cz2 = 0 y por tanto (Ax1 + By1 + Cz1 ) + (Ax2 + By2 + Cz2 ) = 0 + 0 = 0 es decir A (x1 + x2 )+B (y1 + y2 )+C(z1 +z2 ) = (Ax1 + By1 + Cz1 )+(Ax2 + By2 + Cz2 ) = 0 es decir (x1 + x2 , y1 + y2 , z1 + z2 ) ∈ W Propiedad 3- Puesto que A(0) + B(0) + C(0) = 0 entonces (0, 0, 0) ∈ W y obviamente para todo (x, y, z) ∈ W, (x, y, z) + (0, 0, 0) = (0, 0, 0) + (x, y, z) = (x, y, z) Propiedad 4- Si (x1 , y1 , z1 ) ∈ W entonces Ax1 + By1 + Cz1 = 0
5.2. SUBESPACIOS
179
y en consecuencia A(−x1 ) + B(−y1 ) + C(−z1 ) = −(Ax1 + By1 + Cz1 ) = −0 = 0 es decir (−x1 , −y1 , −z1 ) ∈ W y claramente (x1 , y1 , z1 ) + (−x1 , −y1 , −z1 ) = (−x1 , −y1 , z1 ) + (x1 , y1 , z1 ) = (0, 0.0) . Propiedad 6- Si λ ∈ R y (x1 , y1 , z1 ) ∈ W es decir si λ ∈ R y Ax1 +By1 +Cz1 = 0 entonces A (λx1 ) + B (λy1 ) + C (λz1 ) = λ (Ax1 + By1 + Cz1 ) = λ 0 = 0, es decir (λx1 , λy1 , λz1 ) = λ (x1 , y1 , z1 ) ∈ W. Si evocamos la identificaci´ on geom´etrica de R3 con el espacio, hemos mostrado que todo plano que pasa por el origen tiene estructura de subespacio de R3 . Ejemplo 11 Sea n entero positivo, W = {A ∈ Mn×n (R)| A es sim´etrica} es un subespacio de Mn×n (R) Verificaci´on.Nuevamente basta verificar las propiedades (1),(3),(4) y (6) de la definici´on 1. puesto que las otras se verifican de manera inmediata por el hecho que W ⊂ Mn×n (R), as´ı tenemos: Propiedad 1. Si A, B son matrices n × n sim´etricas, es decir AT = A y B T = B, entonces (A + B)T = AT + B T = A + B es decir (A + B) es una matriz n × n sim´etrica.
180
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Propiedad 3. Evidentemente la matriz 0n×n es sim´etrica. Propiedad 4. Si A es una matriz sim´etrica n × n, es decir AT = A, entonces (−A)T = [(−1)A]T = (−1)AT = (−1)A = −A y claramente A + (−A) = (−A) + A = 0. Propiedad 6. Si λ ∈ R y A es una matriz sim´etrica n × n, (λ A)T = λ AT = λ A es decir λ A es una matriz sim´etrica n × n. Ejemplo 12 Sea AX = 0 un sistema homog´eneo de ecuaciones lineales, A ∈ Mn×m (R) y W = {(a1 , a2 , · · · , am ) ∈ Rm |(a1 , a2 , · · · , am ) es una soluci´on de AX = 0} , entonces W es un subespacio de Rm . Verificaci´on.Nuevamente basta verificar las propiedades (1),(3),(4) y (6) de la definici´on 1. puesto que las otras se verifican de manera inmediata por el hecho que W ⊂ Rm y la dejamos al lector. Ejemplo 13 Sea W = {p(x) ∈ P2 [x] |a0 = a1 + a2 + 1} puesto que el polinomio 0 = 0 + 0x + 0x2 ∈ / W , W no satisface la propiedad 3, en consecuencia W no es un subespacio de P2 [x] . Ejemplo 14 Sea W = (x, y) ∈ R2 : xy ≥ 0 ,puesto que (−1, −4) ∈ W, (4, 5) ∈ W y sin embargo (−1, −4)+(4, 2) = (3, −2) y 3(−2) = −6 < 0 es decir [(−1, −4) + (4, 2)] ∈ / 2 W, en consecuencia W no es un subespacio de R .
181
5.2. SUBESPACIOS
Si observamos cada una de las verificaciones en los ejemplos, vemos que para verificar que un cierto subconjunto de un espacio vectorial, con las mismas operaciones, tiene estructura de espacio vectorial y por lo tanto es subespacio basta verificar las propiedades (1),(3),(4) y (6) de la definici´on 1. en consecuencia enunciamos y probamos el siguiente criterio. Proposici´ on 3 Sea V un espacio vectorial W ⊂ V , W es un subespacio de V si y solamente si 1. W 6= φ − → → → 2. Para todo → w 1 ∈ W, − w2 ∈ W − w1 + − w2 ∈ W → 3. Para todo λ ∈ R y para todo − w ∈ W;
−→ λw ∈ W.
Prueba.− Si suponemos W un subespacio de V , la propiedad (1) de la definici´on 1 es precisamente la condici´ on (2), la propiedad (6) de la definici´ on 1 es precisamente la condici´ on (3) y la propiedad (3) de la definici´on 1 verif´ıca la condici´ on (1). Rec´ıprocamente, suponemos las condiciones (1),(2),(3) y verificamos la definici´on 1: Propiedad 1. Es la condici´ on (2). Propiedad 2. Se cumple en W puesto que se cumple en V. − → → Propiedad 3. Por la condici´ on (1), sea − w ∈ W entonces 0 ∈ V → − → expresar como 0 = 0− w ∈ W.
se puede
→ − Propiedad 4. Para todo − w ∈ W, la condici´ on (3) garantiza que (−1)→ w = → −− w ∈ W.
182
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Propiedad 5. Se cumple en W puesto que se cumple en V. Propiedad 6. Es la condici´ on (3). Propiedad 7. Se cumple en W puesto que se cumple en V. Propiedad 8. Se cumple en W puesto que se cumple en V. Propiedad 9. Se cumple en W puesto que se cumple en V. Propiedad 10. Se cumple en W puesto que se cumple en V.
Obviamente en lo que sigue, cada vez que necesitemos probar que un subconjunto W de un espacio vectorial V tiene calidad de subespacio, solo utilizaremos el criterio probado en la proposici´on anterior, adem´ as por costumbre, para − → verificar la condici´ on (1) probamos que 0 ∈ W. Ejemplo 15 Claramente el conjunto P de puntos del espacio que constituyen un plano que no pasa por el origen no tiene estructura de subespacio de R3 puesto que → − 0 ∈ / P. Ejemplo 16 Sean V = F (x) , W = Fp (x) = {f ∈ F (x) : f es una funci´on par} 1. Claramente la funci´on id´enticamente 0, es decir f (x) = 0 para todo x ∈ R, es tal que f (−x) = f (x) = 0, es decir es una funci´on par. 2. Si f y g son funciones pares entonces, (f + g) (−x) = f (−x) + g(−x) = f (x) + g(x) = (f + g)(x) para todo x ∈ R es decir (f + g) es una funci´on par.
5.2. SUBESPACIOS
183
3. Si λ ∈ R y f es un funci´on par entonces (λf ) (−x) = λf (−x) = λf (x) = (λf )(x) para todo x ∈ R es decir (λf ) es una funci´on par. En consecuencia Fp (x) es un subespacio de F (x) Ejemplo 17 Sean V = F (x) , W = C (x) = {f ∈ F (x) : f es una funci´on continua en R} 1. Claramente la funci´on id´enticamente 0, es decir f (x) = 0 para todo x ∈ R, es una funci´on continua en R. 2. Si f y g son funciones continuas en R, entonces (f + g) es una funci´on continua en R. 3. Si λ ∈ R y f es un funci´on continua en R entonces (λf ) es una funci´on continua en R. En consecuencia C (x) es un subespacio de F (x) . Ejemplo 18 Una funci´on f ∈ F (x) , se dice una funci´on polin´ omica si est´a definida por una ecuaci´ on de la forma: f (x) = a0 + a1 x + a2 x2 + · · · + an xn , a0 , a1 , · · · , an ∈ R, n ∈ Z+ . Sean V = F (x) , W = P (x) = {f ∈ F (x) : f es una funci´on polin´ omica} . 1. Claramente la funci´on id´enticamente 0, es decir f (x) = 0 para todo x ∈ R, es una funci´on polin´ omica.
184
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
2. Si f y g son funciones polin´ omicas, es decir f (x) = a0 + a1 x + a2 x2 + · · · + an xn , a0 , a1 , · · · an ∈ R, n ∈ Z+ y g(x) = b0 + b1 x + b2 x2 + · · · + bn xn , b0 , b1 , · · · , bn ∈ R, n ∈ Z+ entonces (f + g)(x) = (a0 + b0 ) + (a1 + b1 ) x + (a2 + b2 ) x2 + · · · + (an + bn ) xn es decir (f + g) es una funci´on polin´ omica. 3. Si λ ∈ R y f una funci´on polin´ omica entonces f (x) = a0 + a1 x + a2 x2 + · · · + an xn , a0 , a1 , · · · , an ∈ R, n ∈ Z+ y
λf (x) = λ a0 + a1 x + a2 x2 + · · · + an xn = λa0 +λa1 x+λa2 x2 +· · ·+λan xn
es decir λf es una funci´on polin´ omica.
En consecuencia P (x) es un subespacio de F (x) . Ejemplo 19 Sea W = {(x, y, z) | x ≥ 0, y ≥ 0, z ≥ 0} ⊂ R3 → − 1. Obviamente 0 ∈ W .
2. Adem´ as si (x1 , y1 , z1 ) ∈ W y (x2 , y2 , z2 ) ∈ W es claro que (x1 , y1 , z1 ) + (x2 , y2 , z2 ) ∈ W, sin embargo si (x1 , y1 , z1 ) ∈ W es claro que (−1)(x1 , y1 , z1 ) = (−x1 , −y1 , −z1 ) ∈ / W, en consecuencia W no es un subespacio de R3 .
5.2. SUBESPACIOS
185
Ejemplo 20 Consideremos un sistema homog´eneo de ecuaciones lineales AX = 0, donde A ∈ M (m, n), el conjunto S = {B ∈ M (n, 1) | AB = 0 } es un subespacio de M (n, 1) denominado el espacio de soluciones del sistema. 1. Claramente 0n×1 ∈ S. 2. Si B, C ∈ M (n, 1) son tales que AB = 0 y AC = 0 entonces A(B + C) = 0. 3. Si λ ∈ R, B ∈ M (n, 1) son tales que AB = 0 entonces A (λB) = λ(AB) = 0 En consecuencia S es un subespacio. Proposici´ on 4 Sea V un espacio vectorial, W1 y W2 subespacios de V entonces W1 ∩ W2 es un subespacio de V. Prueba.− → − − → − → 1. Claramente 0 ∈ W1 y 0 ∈ W2 en consecuencia 0 ∈ W1 ∩ W2 . → → → − 2. Suponemos − w 1 ∈ W1 ∩ W2 , − w 2 ∈ W1 ∩ W2 entonces − w 1 ∈ W1 , → w2 ∈ − → − → W1 y puesto que W1 es subespacio entonces w 1 + w 2 ∈ W1 ; de la misma → → forma − w 1 ∈ W2 , − w 2 ∈ W2 y puesto que W2 es subespacio entonces − → → − → → w 1 + w 2 ∈ W2 en consecuencia − w1 + − w 2 ∈ W1 ∩ W2 . → 3. Suponemos λ ∈ R, − w ∈ W1 ∩ W2 entonces puesto que W1 es subespacio → − entonces λ w ∈ W1 ; de la misma forma puesto que W2 es subespacio → → entonces λ− w ∈ W2 y en consecuencia λ− w ∈ W1 ∩ W2 .
186
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Proposici´ on 5 Sea V un espacio vectorial, W1 y W2 subespacios de V , sea → → → → − W1 ⊕ W2 = {− v ∈V :v=− w1 + − w 2 para − w 1 ∈ W1 , → w 2 ∈ W2 } entonces W1 ⊕ W2 es un subespacio de V . Prueba.− → − − → − → − → − → 1. Claramente 0 ∈ W1 y 0 ∈ W2 en consecuencia 0 = 0 + 0 ∈ W1 ⊕W2 . → 2. Suponemos − v 1 ∈ W1 ⊕ W2 , → − → con w 1 ∈ W1 , − w 2 ∈ W2 y en consecuencia,
− → → − − v 2 ∈ W1 ⊕ W2 entonces − v1=→ w1 + → w2 − → − → − → − → → − ′ ′ ′ ′ v 2 = w 1 + w 2 con w 1 ∈ W1 , w 2 ∈ W2
→ → → → → − → → → → w ′1 + − w ′2 = − w1 + − w ′1 + − w2 + → w ′2 ∈ W1 ⊕W2 . (− v1+− v 2 ) = (− w1 + − w 2 )+ − 3. Suponemos λ ∈ R, v ∈ W1 ⊕W2 entonces v = w1 +w2 con w1 ∈ W1 , w2 ∈ W2 y en consecuencia λv = λ (w1 + w2 ) = λw1 + λw2 ∈ W1 ⊕ W2 Definici´ on 3 → → → Sea V un espacio vectorial, − v 1, − v 2, · · · , − v n vectores de V y λ1 , λ2 , · · · , λn ∈ R y sea − → → → → w = λ1 − v 1 + λ2 − v 2 + · · · + λn − vn=
k=n X
→ λk − vk
k=1
− → − → decimos que → w es una combinaci´ on lineal de {− v 1, → v 2, · · · , − v n }.
187
5.2. SUBESPACIOS
Ejemplo 21 → → → Sea V un espacio vectorial, − v 1, − v 2, · · · , − v n vectores de V, puesto que − → → → → 0 = 0− v 1 + 0− v 2 + · · · + 0− vn → − → → − afirmamos que 0 es combinaci´on lineal de {− v 1, − v 2, · · · , → v n }. Ejemplo 22 Sea V = R2 y puesto que (0, 0) = (2)(3, 4) + (−1)(6, 8) afirmamos que (0, 0) es combinaci´on lineal de los vectores {(3, 4), (6, 8)} Ejemplo 23 Sea V = M2×2 (R) puesto que 0 −1 1 4
!
podemos afirmar que
es combinaci´on lineal de
(
= (1)
0 −1 1 0
!
0 0 0 1
+ (4)
!
,
! 0 −1 1 4 ! !) 0 −1 0 0 , . 1 0 0 1
Ejemplo 24 Sea V = M2×2 (R) puesto que 0 −1 1 4
!
= (−1)
0 1 0 0
!
+ (1)
0 0 1 0
!
+ (4)
0 0 0 1
!
,
188
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
podemos afirmar que
es combinaci´on lineal de
(
! 0 −1 1 4 ! ! 0 1 0 0 , , 1 0 0 0
0 0 0 1
!)
Ejemplo 25 Sea V = M2×3 (R) puesto que
1 3 −2 0 1 2
!
= (1)
1 0 0 0 1 0
!
+ (−2)
0 0 1 0 0 −1
!
+ (3)
!
,
!)
.
0 1 0 0 0 0
podemos afirmar que
es una combinaci´on lineal de
(
! 1 3 −2 0 1 2 ! ! 1 0 0 0 0 1 , , 0 1 0 0 0 −1
0 1 0 0 0 0
Ejemplo 26 Sea V = R3 . Observe que (3, 2, 1) = (−1)(1, 2, 3) + (4)(0, −1, 2) + (4)(1, 2, −1) + (0)(5, 0, 1) y que (3, 2, 1) = (6)(1, 2, 3) + (−16)(0, −1, 2) + (−13)(1, 2, −1) + (2)(5, 0, 1) y que adem´ as, 5 9 (3, 2, 1) = ( )(1, 2, 3) + (−6)(0, −1, 2) + (− )(1, 2, −1) + (1)(5, 0, 1) 2 2
189
5.2. SUBESPACIOS
es decir, (3, 2, 1) ha sido escrito como combinaci´on lineal de {(1, 2, 3), (0, −1, 2), (1, 2, −1), (5, 0, 1)} de varias formas diferentes. ¿Puede el lector encontrar otra? Proposici´ on 6
→ − Sea V un espacio vectorial, W 6= ∅, W ⊂ V y sea L(W ) = {− v ∈V :→ v es una combinaci´on lineal de vecto entonces L(W ) es un subespacio de V. Prueba.− − → − → 1. Sea → w ∈ W entonces 0 = 0− w ∈ L(W ). → → → − − 2. Suponemos − v ∈ L(W ), − v ′ ∈ L(W ), entonces existen − w 1, → w 2, · · · , → wn ∈ W tales que − → → → → v = λ1 − w 1 + λ2 − w 2 + · · · + λn − wn =
k=n X
− → → → → v ′ = µ1 − w 1 + µ2 − w 2 + · · · + µn − wn =
k=n X
→ λk − wk
k=1
y → µk − wk
k=1
para algunos λ1 , λ2 , · · · , λn ∈ R y µ1 , µ2 , · · · , µn ∈ R entonces, − → → → → → → → − v +− v ′ = (λ1 − w 1 + λ2 − w 2 + · · · + λn − w n ) + (µ1 − w 1 + µ2 − w 2 + · · · + µn → w n) → → − = (λ + µ ) − w + (λ + µ ) − w + · · · + (λ + µ ) → w 1
=
k=n X k=1
1
1
2
2
2
n
n
n
→ (λk + µk ) − w k ∈ L(W )
→ → → − 3. Suponemos λ ∈ R, − v ∈ L(W ) entonces existen − w 1, − w 2, · · · , → wn ∈ W tales que
190
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
− → → → → v = λ1 − w 1 + λ2 − w 2 + · · · + λn − wn = y en consecuencia
k=n X
→ λk − wk
k=1
→ → → → λ− v = λ (λ1 − w 1 + λ2 − w 2 + · · · + λn − w n) =
=
k=n X
k=1 k=n X k=1
→ λ (λk − w k) → (λλk ) − w k ∈ L(W )
Definici´ on 4 Sea V un espacio vectorial, W 6= φ, W ⊂ V , el subespacio L(W ) se denomina el subespacio de V generado por W o tambi´en la envolvente lineal de W. Definici´ on 5 Sea V un espacio vectorial, W = φ, definimos el subespacio L(φ) = {0} . Notaci´on.- L(W ) tambi´en se nota como Gen [W ] o
[W ] o hW i.
Ejemplo 27 Sea W = {(1, 2)} ⊂ R2 entonces L(W ) = (x, y) ∈ R2 : (x, y) = λ(1, 2) = (x, y) ∈ R2 : x = λ y y = 2λ, λ ∈ R = (x, y) ∈ R2 | y = 2x Si recordamos la interpretaci´ on geom´etrica de R2 , el ejemplo muestra que L ({(1, 2)}) es precisamente la recta determinada por los puntos (0, 0) y (1, 2).
5.2. SUBESPACIOS
191
Ejemplo 28 Sea W = {(1, 2, 3)} ⊂ R3 entonces L(W ) = (x, y, z) ∈ R3 : (x, y, z) = λ(1, 2, 3) = (x, y, z) ∈ R3 : x = λ, y = 2λ y z = 3λ, λ ∈ R Si recordamos la interpretaci´ on geom´etrica de R3 y la descripci´ on param´etrica de una recta en el espacio, el ejemplo muestra que L ({(1, 2, 3)}) es precisamente la recta que pasa por el origen y el punto A = (1, 2, 3). Ejemplo 29 Sea W = {(1, 2, 3) , (4, 5, 6)} ⊂ R3 entonces L(W ) = (x, y, z) ∈ R3 : (x, y, z) = λ(1, 2, 3) + µ(4, 5, 6), λ, µ ∈ R = (x, y, z) ∈ R3 : x = λ + 4µ, y = 2λ + 5µ y z = 3λ + 6µ, λ, µ ∈ R . Si recordamos la interpretaci´ on geom´etrica de R3 y la descripci´ on param´etrica de un plano en el espacio, el ejemplo muestra que L ({(1, 2, 3), (4, 5, 6)}) es precisamente el plano determinado por los puntos O = (0, 0, 0), A = (1, 2, 3), B = (4, 5, 6); adem´ as, si resolvemos el sistema λ + 4µ = x 2λ + 5µ = y 3λ + 6µ = z
para las inc´ognitas λ, µ obtenemos tambi´en
L ({(1, 2, 3), (4, 5, 6)}) = {(x, y, z)| x − 2y + z = 0} , que es la descripci´ on cartesiana del mismo plano.
192
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Ejemplo 30 Sea n − → → − →o → − − → − → − → − w 1 = a 1 i + b1 j + c 1 k , − w 2 = a2 i + b2 j + c2 k ⊂ R3 , W = →
− → → − → → → → con a1 , a2 , b1 , b2 , c1 , c2 ∈ R y − w 1 6= 0 , − w 2 6= 0 y − w 1, − w 2 no paralelos entonces, → → → → L(W ) = {− v : − v = λ− w 1 + µ− w 2 , λ, µ ∈ R} n → −o − → − → → − v : → v = (λa1 + µa2 ) i + (λb1 + µb2 ) j + (λc1 + µc2 ) k = −
Ahora, haciendo x = λa1 + µa2 , y = λb1 + µb2 , z = λc1 + µc2 , λ, µ ∈ R o n − → − → − → → → v : − v = x i + y j + z k , λ, µ ∈ R L(W ) = − Ahora, si resolvemos el sistema a1 λ + a2 µ = x b1 λ + b2 µ = y c1 λ + c2 µ = z
,
para las inc´ognitas λ, µ obtenemos
− → → − − → → L(W ) = {− v = x i + y j + z k : (b1 c2 − c1 b2 ) x+
(c1 a2 − a1 c2 ) y + (a1 b2 − b1 a2 ) z = 0}
es decir, L (W ) es el plano que pasa por el origen y tiene como vector normal → − − → a N =→ w1 × − w 2. Ejemplo 31 Sean V = R3 y W = {(1, 2, 3), (0, −1, 2), (1, 2, −1), (5, 0, 1)} entonces L(W ) = R3
5.2. SUBESPACIOS
193
Verificaci´on.Basta observar que todo vector (a, b, c) ∈ R3 se escribe en la forma (a, b, c) = λ1 (1, 2, 3) + λ2 (0, −1, 2) + λ3 (1, 2, −1) + λ4 (5, 0, 1), es decir basta probar que el sistema de ecuaciones lineales =a λ1 + 0λ2 + λ3 + 5λ4 2λ1 − λ2 + 2λ3 + 0λ4 = b 3λ1 + 2λ2 − λ3 + λ4 =c
tiene soluci´on para todo valor real de a, b y c. En efecto la matriz aumentada del sistema es
1 0 1 5 a 2 −1 2 0 b 3 2 −1 1 c
cuya forma escalonada reducida es
1 0 0 − 72 0 1 0 10 0 0 1 17 2
− 43 a + 14 c 2a − b 1 1 7 4a − 2b − 4c
1 2b
es decir la inc´ognita λ4 es libre y para cada escogencia de a, b y c, el sistema correspondiente tiene infinitas soluciones. Proposici´ on 7 Sea V un espacio vectorial, W ⊂ V entonces L(W ) es el menor subespacio de V que contiene a W. Prueba.−
194
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
n− →o Si W = φ entonces L (W ) = L (φ) = 0 . Por otro lado, si W 6= φ, es evidente que L(W ) es un subespacio de V que contiene a W . → Adem´ as si U es un subespacio de V que contiene a W y − v ∈ L(W ) entonces − → v =
k=n X
→ λk − wk
k=1
− → con → w k ∈ W, para todo 1 ≤ k ≤ n y en consecuencia − v ∈ U es decir L(W ) ⊂ U.
5.3
SISTEMAS DE GENERADORES
Definici´ on 6 Sea V un espacio vectorial, W ⊂ V, W 6= φ, si L(W ) = V decimos que W es un sistema de generadores de V o simplemente que W genera V. Claramente, decir que W es un sistema de generadores de V significa que todo − vector → v ∈ V es una combinaci´on lineal de vectores de W. Ejemplo 32 El ejemplo 31 prueba que W = {(1, 2, 3), (0, −1, 2), (1, 2, −1), (5, 0, 1)} es un sistema de generadores de R3 . Ejemplo 33
(
! ! 1 0 0 1 Sean V = M2×2 (R) y W = , , 0 0 0 0 entonces W es un sistema de generadores de V Verificaci´ on.Basta observar que, para todo valor de a, b, c, d ∈ R,
0 0 1 0
!
,
0 0 0 1
!)
195
5.3. SISTEMAS DE GENERADORES
a b c d
!
=a
1 0 0 0
!
+b
0 1 0 0
!
+c
0 0 1 0
!
+d
0 0 0 1
!
Ejemplo 34 Puesto que ya mostramos que L ({(1, 2, 3), (4, 5, 6)}) = {(x, y, z)| x − 2y + z = 0} = 6 3 R ,afirmamos que W = {(1, 2, 3), (4, 5, 6)} no es un sistema de generadores de R3 . Ejemplo 35 Sean V = P3 [x] y W = p0 (x) = 1, p1 (x) = x, p2 (x) = x2 . Es inmediato verificar que q(x) = x3 ∈ / L(W ) en consecuencia podemos afirmar que W no es un sistema de generadores de V. Ejemplo 36 Sea W = {(1, 2, 3) , (1, 0, 2) , (0, 1, −1)} ⊂ R3 , ¿C´omo decidir si W es o n´o un sistema de generadores de R3 ? Basta responder la pregunta ¿Para todo (a, b, c) ∈ R3 existen escalares λ, µ, γ tales que (a, b, c) = λ (1, 2, 3) + µ (1, 0, 2) + γ (0, 1, −1)? Pregunta equivalente a ¿Para todo a, b, c ∈ R el sistema de ecuaciones
λ+µ=a 2λ + γ = b 3λ + 2µ − γ = c
tiene soluci´on para las inc´ognitas λ, µ, γ?
196
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Para responder, miramos la matriz aumentada del sistema 1 1 0 a 2 0 1 b 3 2 −1 c
y al reducir por filas obtenemos
1 0 0 0 1 0 0 0 1
1 3b − 5 3a − 4 3a +
2 3a 1 3b 1 3b
en consecuencia la respuesta es, s´ı porque 2 1 1 λ = b − a + c, 3 3 3
+ 13 c − 13 c − 23 c
5 1 1 µ = a − b − c, 3 3 3
4 1 2 γ = a+ b− c 3 3 3
Afirmamos entonces que W = {(1, 2, 3) , (1, 0, 2) , (0, 1, −1)} es un sistema de generadores de R3 . Ejemplo 37 Sean V = M2×2 (R) y W =
(
1 2 −1 0
!
,
0 1 1 1
!
,
−2 0 1 −1
!)
¿C´omo decidir si W es o n´o un sistema de generadores de M2×2 (R)? Es suficiente responder ! la pregunta: a b ¿Para todo ∈ M2×2 (R) existen escalares λ1 , λ2 , λ3 , tales que c d ! ! ! ! −2 0 0 1 1 2 a b ? + λ3 + λ2 = λ1 1 −1 1 1 −1 0 c d Pregunta equivalente a:
5.3. SISTEMAS DE GENERADORES
197
¿Para todo a, b, c, d ∈ R el sistema de ecuaciones λ1 − 2λ3 = a 2λ1 + λ2 = b −λ1 + λ2 + λ3 = c λ2 − λ3 = d tiene soluci´on para las inc´ognitas λ1 , λ2 , λ3 ?
Para responder, miramos la matriz aumentada del sistema
1 2 −1 0
y al reducir por filas obtenemos
1 0 0 0
0 −2 a 1 0 b 1 1 c 1 −1 d
a 0 −2 1 4 b − 2a 0 −5 c − b + 3a 0 0 a+c−d
en consecuencia la respuesta es NO, basta por ejemplo observar que cualquier escogencia de a, b, c, d que no satisfaga la condici´ on a + c − d = 0, nos muestra un vector A ∈ M2×2 (R) que no puede ser escrito como combinaci´on lineal de vectores de W, por ejemplo si a = c = d = 1, b = 5 obtenemos 1 5 1 1
A=
!
∈ M2×2 (R),
tal que A ∈ / L(W ) pues obviamente el sistema cuya matriz aumentada es
1 0 0 0
0 −2 1 1 4 −1 0 −5 −1 0 0 1
198
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
no tiene soluci´on. En consecuencia afirmamos que ( ! 1 2 W = , −1 0
0 1 1 1
!
,
−2 0 1 −1
!)
no es un sistema de generadores de V = M2×2 (R). Ejemplo 38 Consideremos el sistema homog´eneo de ecuaciones
reescrito como
x + 2y − 5v z + 4v w − 4v
=0 =0
(5.1)
=0
x + 2y + 0z + 0w − 5v = 0 0x + 0y + z + 0w + 4v = 0 0x + 0y + 0z + w − 4v = 0
cuya matriz de coeficientes es 1 2 0 0 −5 −5 A = 0 0 1 0 4 4 , 0 0 0 1 −4 −4
que es una matriz escalonada reducida, los pivotes aparecen en las columnas 1,3,4 en consecuencia las inc´ognitas x, z, w son ligadas y las inc´ognitas y, v son libres. Al despejar las inc´ognitas ligadas en t´erminos de las libres obtenemos: cx = −2y + 5v
z
= −4v
w
= 4v
199
5.3. SISTEMAS DE GENERADORES
y para cada asignaci´ on y = a, v = b obtenemos la soluci´on: x y
z w v
o
= −2a + 5b =a .
= −4b = 4b =b
X=
2a + 5b a −4b 4b b
,
a, b ∈ R es decir
2a + 5b a W = −4b 4b b
, a, b ∈ R
es el subespacio de M (5, 1) de soluciones del sistema y es f´acil verificar que
2a + 5b a −4b 4b b
= a
en consecuencia podemos afirmar que
2 1 0 0 0
+ b
5 0 −4 4 1
200
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
B=
2 1 0 0 0
,
5 0 −4 4 1
es un sistema de generadores del espacio de soluciones del sistema (5.1) Aun cuando la decisi´ on sobre si un conjunto es o no es un sistema de generadores de un cierto espacio vectorial exige una prueba espec´ıfica para cada caso, hay algunas afirmaciones generales al respecto. Proposici´ on 8 Sean V un espacio vectorial, W ⊂ S ⊂ V, W 6= ∅, si W es un sistema de generadores de V. entonces S es un sistema de generadores de V. Prueba.− − Decir que W es un sistema de generadores de V significa que para todo → v ∈V → − → − existen w 1 , · · · , w n ∈ W tales que − → → → → v = λ1 − w 1 + λ2 − w 2 + · · · + λn − wn
− − y por la hip´ otesis → w 1, · · · , → w n ∈ S es decir
− → → → → v = λ1 − w 1 + λ2 − w 2 + · · · + λn − w n ∈ L(S)
por tanto V ⊂ L(S) y en consecuencia V = L(S). Proposici´ on 9 → → Si W = {− w 1, − w 2 } ⊂ R3 , entonces W no es un sistema de generadores de R3 Prueba.−
5.3. SISTEMAS DE GENERADORES
201
→ → Suponemos − w 1 = (a11 , a21 , a31 ), − w 2 = (a12 , a22 , a32 ) ∈ R3 , un vector arbitrario − → v = (A, B, C) ∈ R3 → → es una combinaci´on lineal de {− w 1, − w 2 } si y solo si existen escalares λ, µ ∈ R tales que − → → → v = λ− w 1 + µ− w 2 = λ(a11 , a21 , a31 ) + µ(a12 , a22 , a32 ) es decir si y solo si el sistema de ecuaciones lineales λa11 + µa12 = A λa21 + µa22 = B λa31 + µa32 = C
tiene soluci´on para las inc´ognitas λ, µ; pero como la matriz de coeficientes de este sistema es tama˜ no 3 × 2, su forma escalonada reducida tiene por lo menos una fila de ceros y en consecuencia existe una escogencia de A, B, C para la cual el sistema es inconsistente, es decir existe por lo menos un vector de R3 → − que no puede ser escrito como combinaci´on lineal de {− w 1, → w 2} . Proposici´ on 10 En Rn todo conjunto finito con k < n elementos no es un sistema de generadores de Rn . Prueba.− → → Suponemos − w 1 = (a11 , · · · , a1n ), · · · , − w k = (ak1 , · · · , akn ) ∈ Rn , un vector → − − arbitrario − v = (A1 , · · · , An ) ∈ Rn es una combinaci´on lineal de {→ w 1, · · · , → w k} si y solo si existen escalares λ1 , · · · , λk ∈ R tales que − → → → v = λ1 − w 1 + · · · + λk − w k = λ1 (a11 , · · · , an1 ) + · · · + λk (a1k , · · · , ank )
202
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
es decir si y solo si el sistema de ecuaciones lineales λ1 a11 + · · · + λk a1k = A1 λ1 a21 + · · · + λk a2k = A2 .. . λ1 an1 + · · · + λk ank = An
tiene soluci´on para las inc´ognitas λ1 , · · · , λk , pero como la matriz de coeficientes de este sistema es tama˜ no n × k, con k < n, su forma escalonada reducida tiene por lo menos una fila de ceros y en consecuencia existe una escogencia de A1 , · · · , An para la cual el sistema es inconsistente, es decir existe por lo menos un vector de Rn que no puede ser escrito como combinaci´on → → lineal de {− w 1, · · · , − w k} . Proposici´ on 11 El conjunto W = {p0 (x) = 1, p1 (x) = x, · · · , pn (x) = xn , · · · n ∈ Z+ } es un sistema de generadores de P [x] . Prueba.− Basta observar que si q(x) = a0 + a1 x + a2 x2 + · · · + an xn entonces q(x) = a0 p0 (x) + a1 p1 (x) + a2 p2 (x) + · · · + an pn (x) es decir P [x] ⊂ L(W ) y por lo tanto P [x] = L(W ).
5.4. DEPENDENCIA E INDEPENDENCIA LINEAL
203
Proposici´ on 12 El espacio vectorial V = P [x] = {p(x) | p(x) es un polinomio con coeficientes reales} no tiene un sistema de generadores con un n´ umero finito de elementos. Prueba.− Sea W = {p0 (x), p1 (x), · · · , pk (x)} un subconjunto de P [x] con un n´ umero finito de elementos y sea m = max {grad(p0 (x)), grad(p1 (x)), · · · , grad(pk (x))} es claro que el polinomio q(x) = xm+1 ∈ / L(W ), es decir hay por lo menos un vector de q(x) ∈ V que no puede ser escrito como combinaci´on lineal de vectores de W. Puesto que W es cualquier subconjunto finito de V , se tiene la conclusi´ on.
5.4
DEPENDENCIA E INDEPENDENCIA LINEAL
Definici´ on 7 → − → Sea V un espacio vectorial − v 1, → v 2, · · · , − v n vectores de V si − → → → → 0 = λ1 − v 1 + λ2 − v 2 + · · · + λn − vn decimos que la combinaci´on lineal es una combinaci´ on lineal nula. Definici´ on 8 Sea V un espacio vectorial, W ⊂ V decimos que W es un conjunto de vectores linealmente dependientes si existe una combinaci´on lineal nula de vectores de W donde no todos los escalares que aparecen como coeficientes son cero, es
204
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
→ → − decir, si existen − w 1, − w 2, · · · , → w n ∈ W y escalares λ1 , λ2 , · · · , λn no todos cero y tales que − → → → → λ1 − w 1 + λ2 − w 2 + · · · + λn − wn = 0 Ejemplo 39 Puesto que (2)(3, 4) + (−1)(6, 8) = (0, 0) el conjunto W = {(3, 4), (6, 8)} es un conjunto de vectores linealmente dependientes. Ejemplo 40 Puesto que (−3)(1, 0, 3) + (1)(2, −1, 0) + (8)(0, 0, 1) + (1)(1, 1, 1) = (0, 0, 0) el conjunto W = {(1, 0, 3), (2, −1, 0), (0, 0, 1), (1, 1, 1)} es un conjunto de vectores linealmente dependientes de R3 Ejemplo 41 Sean V = M2×2 (R) y W =
(
1 2 −1 0
!
,
0 1 1 1
!
,
3 4 −5 −2
!)
¿C´omo decidir si W es o n´o un conjunto de vectores linealmente dependientes de M2×2 (R)? Es suficiente responder la pregunta: ¿Existen escalares λ1 , λ2 , λ3 , no todos cero y tales que: 0 0 0 0
!
= λ1
1 2 −1 0
!
+ λ2
0 1 1 1
!
+ λ3
3 4 −5 −2
!
?
205
5.4. DEPENDENCIA E INDEPENDENCIA LINEAL
Esta pregunta equivalente a: ¿El sistema homog´eneo de ecuaciones λ1 + 3λ3 2λ + λ + 4λ 1
2
=0 =0
3
−λ1 + λ2 − 5λ3 λ2 − 2λ3
=0 =0
tiene soluci´on diferente de la trivial para las inc´ognitas λ1 , λ2 , λ3 ? Para responder, observamos que la matriz de coeficientes del sistema y su reducci´ on por filas son respectivamente:
1 2 −1 0
0 3 1 4 1 −5 1 −2
−→
1 0 0 0
0 3 1 −2 0 0 0 0
en consecuencia la respuesta es s´ı, puesto que el sistema tiene infinitas soluciones debido a que la inc´ognita λ3 es libre. Si asignamos λ3 = 1 obtenemos λ1 = −3, λ2 = 2 y es f´acil verificar que
(−3)
1 2 −1 0
!
+ (2)
0 1 1 1
!
3 4 −5 −2
+ (1)
!
=
0 0 0 0
Afirmamos entonces que W =
(
1 2 −1 0
!
,
0 1 1 1
!
,
3 4 −5 −2
!)
es un conjunto de vectores linealmente dependiente de M2×2 (R).
!
206
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Ejemplo 42 Para saber si W =
1 −1
0 1 −2 , ,
2 0
1
1
0 −1
1
es un conjunto de vectores linealmente dependientes de M2×2 (R), se debe saber si existen escalares λ1 , λ2 , λ3 , no todos cero, tales que: 0 0 0 0
!
= λ1
1 2 −1 0
!
+ λ2
0 1 1 1
!
+ λ3
−2 0 1 −1
!
Lo cual equivale a saber si el sistema homog´eneo de ecuaciones: λ1 − 2λ3 2λ + λ 1 2 −λ1 + λ2 + λ3 λ2 − λ3
=0 =0 =0 =0
tiene soluci´on diferente de la trivial para las inc´ognitas λ1 , λ2 , λ3 . Para saber esto, se reduce por filas la matriz de coeficientes del sistema:
1 2 −1 0
1 0 −2 1 0 0 −→ 0 1 1 1 −1 0
0 1 0 0
0 0 1 0
en consecuencia la respuesta es no, ya que el sistema tiene una u ´nica soluci´on que es la trivial, vale decir λ1 = λ2 = λ3 = 0. Por esta raz´on afirmamos, entonces, que: W =
(
1 2 −1 0
!
,
0 1 1 1
!
,
−2 0 1 −1
!)
no es un conjunto de vectores linealmente dependientes de M2×2 (R).
5.4. DEPENDENCIA E INDEPENDENCIA LINEAL
207
Observaci´ on. Si miramos los ejemplos (41) y (42) observamos que los vectores
1 2 −1 0
y
0 1 1 1
pertenecen en un caso a un conjunto de vectores linealmente dependientes y en el otro pertenecen a un conjunto de vectores que no es un conjunto de vectores linealmente dependientes, es decir la propiedad de dependencia lineal es global del conjunto y no individual de sus elementos. Proposici´ on 13 − → Sean V un espacio vectorial, W ⊂ V . Si 0 ∈ W entonces W es un conjunto de vectores L.D. Prueba.− − → − → Basta observar que la combinaci´on lineal 1. 0 = 0 es una combinaci´on lineal nula y claramente 1 6= 0. Proposici´ on 14 Sea V un espacio vectorial, W ⊂ S ⊂ V , si W es un conjunto de vectores linealmente dependientes entonces S tambi´en lo es. Prueba.− − − − Si W es un conjunto de vectores linealmente dependientes, existen → w 1, → w 2, · · · , → wn ∈ W y escalares λ1 , λ2 , · · · , λn no todos cero tales que − → → → → λ1 − w 1 + λ2 − w 2 + · · · + λn − wn = 0 → → → y como W ⊂ S, se tiene que − w 1, − w 2, · · · , − w n ∈ S es decir S es un conjunto de vectores linealmente dependientes.
208
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Proposici´ on 15 Sea V un espacio vectorial, W ⊂ V un conjunto de vectores linealmente → dependientes entonces existe por lo menos un vector − w ∈ W que puede ser escrito como combinaci´on lineal otros vectores de W. Prueba.− Si W es un conjunto de vectores linealmente dependientes entonces existe una combinaci´on lineal nula de vectores de W, − → → → → λ1 − w 1 + λ2 − w 2 + · · · + λn − wn = 0 tal que por lo menos uno de los λ′ s es diferente de cero, sin perder generalidad, podemos asumir que λ1 6= 0 y en consecuencia λ3 − λn − λ2 − → → → → − w2 + − w2 + ··· + − w n, w1 = − λ1 λ1 λ1 − → − es decir → w 1 ha sido escrito como combinaci´on lineal de {− w 2, · · · , → w n} .
Definici´ on 9 Sea V un espacio vectorial, W ⊂ V, decimos que W es un conjunto de vectores linealmente independientes si W no es un conjunto de vectores linealmente dependientes. Proposici´ on 16 Sea V un espacio vectorial, W ⊂ V , W es un conjunto de vectores linealmente independientes si para toda combinaci´on lineal − → → → → λ1 − w 1 + λ2 − w 2 + · · · + λn − wn = 0 − → → con → w 1, − w 2, · · · , − w n ∈ W, necesariamente λ1 = λ2 = · · · = λn = 0
5.4. DEPENDENCIA E INDEPENDENCIA LINEAL
209
Prueba.− − → → → → Sea λ1 − w 1 + λ2 − w 2 + · · · + λn − w n = 0 una combinaci´on lineal nula de vectores de W, si λk 6= 0 para alg´ un valor o valores de k, W es un conjunto de vectores linealmente dependientes en consecuencia λ1 = λ2 = · · · = λn = 0. Ejemplo 43 Sea V = R4 , W = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} es un conjunto de vectores linealmente independientes. Verificaci´ on.Suponemos λ1 (1, 0, 0, 0) + λ2 (0, 1, 0, 0) + λ3 (0, 0, 1, 0) + λ4 (0, 0, 0, 1) = (0, 0, 0, 0) entonces (λ1 , λ2 , λ3 , λ4 ) = (0, 0, 0, 0) por tanto λ1 = 0, λ2 = 0, λ3 = 0, λ4 = 0. Ejemplo 44 V = R3 , W = {(1, 2, 3), (4, 5, 6), (1, 0, 1)} ¿C´omo decidir si W es o n´o un conjunto de vectores linealmente independientes? Basta tomar una combinaci´on lineal nula de los vectores de W y probar que los escalares que en ella aparecen como coeficientes, deben ser cero. Es decir, suponemos λ(1, 2, 3) + µ(4, 5, 6) + γ(1, 0, 1) = (0, 0, 0) que es equivalente a:
210
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
(λ + 4µ + γ, 2λ + 5µ+, 3λ + 6µ + γ) = (0, 0, 0). En consecuencia, encontrar los posibles valores de λ, µ, γ, equivale a resolver el sistema homog´eneo =0 λ + 4µ + γ 2λ + 5µ =0, 3λ + 6µ + γ = 0
cuya matriz de coeficientes y su forma escalonada reducida son respectivamente:
1 4 1 1 0 0 2 5 0 −→ 0 1 0 , 3 6 1 0 0 1 por lo tanto la u ´nica soluci´on del sistema es la trivial λ = µ = γ = 0. Afirmamos entonces que W es un conjunto de vectores linealmente independientes. Ejemplo 45 Sea V = P [x]. n o W = qk (x) | qk (x) = xk , k = 0, 1, 2, · · · , n; n ∈ N es un conjunto de vectores linealmente independientesVerificaci´ on.Una combinaci´on lineal nula de los vectores de W es: λ0 q0 (x) + λ1 q1 (x) + λ2 q2 (x) + · · · + λn qn (x) = 0(x) es decir λ0 + λ1 x + λ2 x2 + · · · + λn xn = 0 para todo x ∈ R y en consecuencia λ0 = λ1 = λ2 = · · · = λn = 0
211
5.4. DEPENDENCIA E INDEPENDENCIA LINEAL
Ejemplo 46 Sea V = M2×2 (R). En el ejemplo 41 se mostr´o que W =
1 2 −1 0
0 1 −2 , , 1 1
1
0 −1
es un conjunto de vectores linealmente independientes. Ejemplo 47 Consideremos V = R3 y Wa = {(1, 1, 0), (0, 1, 1), (0, 1, a), a ∈ R fijo} ¿Para qu´e valores de a el conjunto Wa es un conjunto de vectores linealmente independientes? Soluci´ on.Basta tomar una combinaci´on lineal nula de vectores de Wa , es decir λ(1, 1, 0) + µ(0, 1, 1) + γ(0, 1, a) = (0, 0, 0) y averiguar los posibles valores de λ, µ, γ. Wa es un conjunto de vectores linealmente independientes para todos aquellos valores de a para los cuales el sistema homogeneo: λ + 0µ + 0γ λ+µ+γ 0λ + µ + aγ
=0 =0 =0
tiene como u ´nica soluci´on la trivial λ = µ = γ = 0 y puesto que la matriz de coeficientes del sistema y su forma escalonada son respectivamente:
212
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
1 0 0 1 0 0 1 0 1 −→ 0 1 a 0 1 a 0 0 1
la u ´nica soluci´on del sistema es la trivial, independientemente del valor de a; es decir, para todo a ∈ R, Wa es un conjunto de vectores linealmente independientes. Ejemplo 48 Consideremos V = R3 y Wa = {(1, 1, 0), (0, 1, 1), (1, 0, 1), (2, −1, a), a ∈ R fijo} ¿Para qu´e valores de a el conjunto Wa es un conjunto de vectores linealmente independientes? Soluci´ on.Basta tomar una combinaci´on lineal nula de vectores de Wa , es decir: λ(1, 1, 0) + µ(0, 1, 1) + γ(1, 0, 1) + ζ(2, −1, a) = (0, 0, 0) y averiguar los posibles valores de λ, µ, γ, ζ; es decir, Wa es un conjunto de vectores linealmente independientes para todos aquellos valores de a para los cuales el sistema homog´eneo: λ + 0µ + γ + 2ζ = 0 λ + µ + 0γ − ζ = 0 0λ + µ + γ + aζ = 0
tiene como u ´nica soluci´on la trivial λ = µ = γ = ζ = 0. Puesto que la matriz de coeficientes del sistema y su forma escalonada reducida son respectivamente: 1 0 1 2 1 0 0 12 − 21 a 1 1 0 −1 −→ 0 1 0 12 a − 32 0 0 1 21 a + 32 0 1 1 a
5.4. DEPENDENCIA E INDEPENDENCIA LINEAL
213
la inc´ognita ζ es libre y por tanto el sistema tiene infinitas soluciones; es decir, no existe a ∈ R, tal que Wa sea un conjunto de vectores linealmente independientes. Ejemplo 49 Consideremos V = R3 y Wa = {(1, 1, 0), (0, 1, 1), (2, −1, a), a ∈ R fijo} ¿Para qu´e valores de a el conjunto Wa es un conjunto de vectores linealmente independientes? Soluci´ on.Basta tomar una combinaci´on lineal nula de vectores de Wa , es decir: λ(1, 1, 0) + µ(01, 1) + γ(2, −1, a) = (0, 0, 0) y averiguar los posibles valores de λ, µ, γ. Wa es un conjunto de vectores linealmente independientes para todos aquellos valores de a para los cuales el sistema homog´eneo: λ + 0µ + 2γ λ+µ−γ 0λ + µ + aγ
=0 =0 =0
tiene como u ´nica soluci´on la trivial λ = µ = γ = 0 y puesto que la matriz de coeficientes del sistema y su forma escalonada son respectivamente: 1 0 2 1 0 2 1 1 −1 −→ 0 1 −3 , 0 1 a 0 0 a+3 entonces, si a 6= −3 la forma escalonada 1 0 0 1 0 0
reducida es: 0 0 , 1
214
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
y el sistema tiene como u ´nica soluci´on la trivial. De otra parte si a = −3 la forma escalonada reducida es: 1 0 2 0 1 −3 0 0 0 y el sistema tiene una variable libre; es decir tiene muchas soluciones, en particular una no trivial. Por tanto Wa es un conjunto de vectores linealmente independientes si y solo si a 6= −3. Ejemplo 50 Consideramos nuevamente el sistema homog´eneo de ecuaciones lineales: x + 2y − 5v z + 4v w − 4v
=0 =0 =0
del ejemplo 38. Es inmediato verificar que el conjunto B=
2 1 0 0 0
,
5 0 −4 4 1
es un conjunto de vectores linealmente independientes.
Notaci´ on.En adelante escribiremos L.I. y L.D. para denotar “Linealmente Independientes” y “Linealmente dependientes” respectivamente.
5.4. DEPENDENCIA E INDEPENDENCIA LINEAL
215
Proposici´ on 17 Sean V un espacio vectorial, U ⊂ W ⊂ V. Si W es un conjunto de vectores L.I. entonces U es un conjunto de vectores L.I. Prueba.− Sea → → → λ1 − u 1 + λ2 − u 2 + · · · + λm − um = 0 una combinaci´on lineal nula de vectores de U, puesto que para todo k, 1 ≤ → k ≤ m se tiene que − u k ∈ W entonces → → → λ1 − u 1 + λ2 − u 2 + · · · + λm − um =0 una combinaci´on lineal nula de vectores de W y por tanto λ1 = λ2 = · · · = λm = 0 y en consecuencia U es un conjunto de vectores L.I.
Proposici´ on 18 − Sea V un espacio vectorial, W un conjunto de vectores L.I. de V y sea → v ∈V → − − → tal que v ∈ / L(W ) entonces W ∪ { v } es un conjunto de vectores L.I. Prueba.− − Consideramos una combinaci´on lineal nula de vectores de W ∪ {→ v }: − → → → → → λ1 − w 1 + λ2 − w 2 + · · · + λn − w n + λ− v = 0 Si λ 6= 0 entonces: λ2 − λn − λ1 − → → → → − w1 + − w2 + ··· + − w n, v = − λ λ λ
216
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
− es decir → v ∈ L(W ); contrario a la hip´ otesis, luego λ = 0, por lo tanto: − → → → → → → → → − w 2 + · · · + λn − w n + λ− v = 0 = λ1 − w 1 + λ2 − w 2 + · · · + λn − w n + 0→ v λ1 − w 1 + λ2 − es una combinaci´on lineal nula de vectores de W y entonces λ1 = λ2 = · · · = → λn = 0 y en consecuencia W ∪ {− v } es un conjunto de vectores L.I. Proposici´ on 19 − → → − Sea W = {→ w 1, − w 2, − w 3, → w 4 } ⊂ R3 entonces W es un conjunto de vectores L.D. Prueba.− Sean − → → → w 1 = (a11 , a21 , a31 ), − w 2 = (a12 , a22 , a32 ), − w 3 = (a13 , a23 , a33 ), − → w 4 = (a14 , a24 , a34 ) ∈ R3 Si
→ → → → λ1 − w 1 + λ2 − w 2 + λ3 − w 3 + λ4 − w4 = 0
que en forma equivalente es: λ1 (a11 , a21 , a31 )+λ2 (a12 , a22 , a32 )+λ3 (a13 , a23 , a33 )+λ4 (a14 , a24 , a34 ) = (0, 0, 0), la dependencia o independencia lineal de W depende de las soluciones del sistema homog´eneo a11 λ1 + a12 λ2 + a13 λ3 + a14 λ4 = 0 a21 λ1 + a22 λ2 + a23 λ3 + a24 λ4 = 0 a31 λ1 + a32 λ2 + a33 λ3 + a34 λ4 = 0
para las inc´ognitas λ1 , λ2 , λ3 , λ4 .
Puesto que la matriz de coeficientes del sistema es tama˜ no 3 × 4 el sistema tiene infinitas soluciones, en particular una diferente de la trivial, es decir W es un conjunto de vectores L.D.
217
5.4. DEPENDENCIA E INDEPENDENCIA LINEAL
Proposici´ on 20 → → → Sea W = {− w 1, − w 2, · · · , − w m } ⊂ Rn con de vectores L.D.
m > n entonces W es un conjunto
Prueba.− Sean − → → w 1 = (a11 , a21 , · · · , an1 ) , − w 2 = (a12 , a22 , · · · , an2 ), · · · , − → w m = (a1m , a2m , · · · , anm ) ∈ Rn , con m > n y sea: i=m X
− → → λi − wi = 0
i=1
una combinaci´on lineal nula de ellos, si desarrollamos e igualamos componentes obtenemos: λ1 a11 + λ2 a12 + · · · + λm a1m λ1 a21 + λ2 a22 + · · · + λm a2m
λ1 ai1 + λ2 ai2 + · · · + λm aim λ1 an1 + λ2 an2 + · · · + λm anm
=0 =0 .. . =0 .. .
,
=0
que es un sistema homog´eneo de n ecuaciones con m inc´ognitas, siendo m > n y el cual tiene infinitas soluciones, en particular una diferente de la trivial, en consecuencia W es un conjunto de vectores L.D. Proposici´ on 21 → → → Sea W = {− w 1, − w 2, · · · , − w n } ⊂ Rn entonces W es un conjunto de vectores L.I. si y solamente si W es un sistema de generadores de Rn .
218
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Prueba.− Consideremos − → → w 1 = (a11 , a21 , · · · , an1 ) , − w 2 = (a12 , a22 , · · · , an2 ), · · · , − → − → w n = (a1n , a2n , · · · , ann ), B = (b1 , · · · , bn ) ∈ Rn , Pi=n → → − − entonces al igualar coordenadas en la combinaci´on lineal i=1 λi w i = B obtenemos el sistema de ecuaciones lineales AX = B donde A = (aij ) es una matriz n × n y
X=
λ1 λ2 .. . λn
,
B=
b1 b2 .. . bn
.
→ − − → Ahora si suponemos B = 0 y W un conjunto de vectores L.I. entonces AX = 0 tiene como u ´nica soluci´on la soluci´on trivial y por la proposici´on 18 del cap´ıtulo 2, A es inversible y en consecuencia para todo B ∈ Rn el sistema AX = B tiene como u ´nica soluci´on X = A−1 B es decir W es un sistema de generadores de Rn . Rec´ıprocamente si suponemos W un sistema de generadores es decir si para todo B el sistema AX = B tiene soluci´on entonces por la misma proposici´on 18 del cap´ıtulo 2 A tiene inversa y por tanto el sistema AX = 0 tiene como u ´nica soluci´on la trivial y en consecuencia W es un conjunto de vectores L.I. Proposici´ on 22 Sea A ∈ M (n, n) entonces las siguientes afirmaciones son equivalentes: (a) A es equivalente por filas a I(n) . (b) A es producto de matrices elementales.
´ 5.5. BASES, DIMENSION, COORDENADAS
219
(c) A es invertible. (d) El sistema homog´eneo AX = 0 tiene una u ´nica soluci´on. (e) Para cada B ∈ M (n, 1), el sistema AX = B tiene una soluci´on. Prueba.− La proposici´on 18 del cap´ıtulo 2 prueba la equivalencia de las afirmaciones (a),(b),(c) y (d) en consecuencia basta probar la equivalencia de la afirmaci´on (e) con cualquiera de las anteriores. En efecto si suponemos (c) la ecuaci´ on matricial AX = B con B ∈ M (n, 1) es tal que su u ´nica soluci´on es X = −1 (A )B y rec´ıprocamente para cada j, 1 ≤ j ≤ n, la soluci´on del sistema AX = (In )(j) resulta ser la columna j de la matriz A−1 .
5.5
´ BASES, DIMENSION, COORDENADAS
Definici´ on 10 Sean V un espacio vectorial real, B ⊆ V, B 6= φ tal que: (i) B es un conjunto de vectores L.I. (ii) B es un sistema de generadores de V decimos que B es una base de V. Ejemplo 51 Consideramos V = R2 el conjunto B =
n− → − →o i , j es una base de V.
Ejemplo 52 Consideramos V = R3 , el conjuto B =
n− →o → − → − i , j , k es una base de V.
220
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Ejemplo 53 Consideramos V = Rn , el conjunto o n− → B = E k |1 ≤ k ≤ n donde
− → E k = (0, ..., 0, 1, 0, ...0), 1
en la k-´esima componente, 0 en las dem´as, es una base de V. Ejemplo 54 Consideramos V = Mn×m (R) , el conjunto B = {Ek,l |1 ≤ k ≤ n, 1 ≤ l ≤ m } donde Ek,l ∈ Mn×m (R) es tal que (Ek,l )ij =
(
1 si i = k, j = l , 0 si i 6= k o j = 6 l
(1 en la entrada ij, 0 en las dem´as), es una base de V. Ejemplo 55 Consideramos V = Pn [x] , el conjunto B = qk (x) qk (x) = xk , 0 ≤ k ≤ n es una base de V. Las bases presentadas en los ejemplos anteriores se denominan usualmente bases estandar o bases can´onicas de los espacios correspondientes. Ejemplo 56 El conjunto B = {(1, 2), (3, 4)} es una base de R2 . Ejemplo 57 El conjunto B = {(1, 2, 3), (3, 4, 5), (1, 0, 1)} es una base de R3 .
221
´ 5.5. BASES, DIMENSION, COORDENADAS
Ejemplo 58 El conjunto B=
(
1 0 0 0
!
1 1 0 0
,
!
1 1 1 0
,
!
,
1 1 1 1
!)
es una base de M2×2 (R) . Verificaci´ on.Primero mostramos que B es un sistema de generadores, para esto planteamos la ecuaci´ on matricial:
α
1 0 0 0
!
+β
1 1 0 0
!
1 1 1 0
+γ
!
+δ
1 1 1 1
!
=
a b c d
!
que da origen al sistema de ecuaciones: α+β+γ+δ =a β+γ+δ =b
γ+δ =c δ=d
cuya matriz de coeficientes es:
1 0 0 0
1 1 0 0
1 1 1 0
1 1 1 1
y que tiene determinante 1, en consecuencia el sistema siempre tiene una u ´nica soluci´on independiente de los valores de los t´erminos a, b, c, d. Para verificar que B es un conjunto L.I. la ecuaci´ on matricial a plantear es ! ! ! ! ! 1 0 1 1 1 1 1 1 0 0 α +β +γ +δ = 0 0 0 0 1 0 1 1 0 0
222
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
que da origen al sistema: α+β+γ+δ =0 β+γ+δ =0 γ+δ =0 δ=0
cuya u ´nica soluci´on es a = b = c = d = 0
Ejemplo 59 Nuevamente consideramos el sistema homog´eneo de ecuaciones lineales x + 2y − 5v z + 4v w − 4v
=0 =0 =0
de los ejemplos 38 y 50 en ellos probamos que el conjunto 2 5 1 0 B = 0 , −4 4 0 0 1
es una base del espacio de las soluciones del sistema.
El lector cuidadoso observar´ a que en los ejemplos anteriores la decisi´ on sobre si un conjunto de vectores es o no una base del correspondiente espacio vectorial se reduce a resolver un sistema de ecuaciones lineales. Igualmente habr´ a observado que en nuestros ejemplos, con excepci´on de los espacios P [x] y F (x) , siempre hemos mostrado sistemas de generadores con un numero finito de elementos, en lo que sigue solo nos interesaremos por este tipo de espacio vectorial, el tratamiento en general est´a fuera del alcance de este escrito.
223
´ 5.5. BASES, DIMENSION, COORDENADAS
Definici´ on 11 Un espacio vectorial V con un sistema de generadores finito se denomina un espacio vectorial de dimensi´ on finita o finitamente generado. Proposici´ on 23 Sea V un espacio vectorial real, → → → W = {− w 1, − w 2, · · · , − w m} un sistema de generadores de V entonces todo conjunto de vectores de V con k vectores, k > m, es un conjunto de vectores L.D. Prueba.− → − → Consideramos U = {− u 1, → u 2, · · · , − u k } ⊂ V un conjunto de vectores con k > m y consideramos una combinaci´on lineal nula de ellos → → → µ1 − u 1 + µ2 − u 2 + · · · + µk − u k = 0, puesto que W es un sistema de generadores existen escalares λij tales que − → → → → u 1 = λ11 − w 1 + λ21 − w 2 + · · · + λm1 − wm → − − → − → − → u 2 = λ12 w 1 + λ22 w 1 + · · · + λm2 w m .. . −−→ → − − → → u = λ w + λ 2kw + · · · + λ − w k
1k
1
11
1
m
mk
al reemplazar en la combinaci´on lineal nula, obtenemos: µ1
i=m X i=1
es decir
− λi1 → wi
!
+ µ2
i=m X
→ λi2 − wi
i=1
j=k X j=1
µj
i=m X i=1
!
+ · · · + µk
→ λij − wi
!
=0
i=m X i=1
→ λik − wi
!
=0
224
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
por tanto i=m X i=1
j=k X → λij µj − wi = 0 j=1
es una combinaci´on lineal nula de vectores de W y naturalmente una escogencia de los escalares es
j=k P j=1
Ahora, el sistema
λij µj = 0, para todo i, 1 ≤ i ≤ m.
λ µ + λ12 µ2 + · · · + λ1k µk 11 1 λ21 µ1 + λ22 µ2 + · · · + λ2k µk
λm1 µ1 + λm2 µ2 + · · · + λmk µk
=0 =0 .. . =0
es un sistema homog´eneo de ecuaciones lineales con mas inc´ognitas que ecuaciones por tanto tiene una soluci´ on no trivial, es decir existen reales α1 , α2 , · · · , αn no todos cero y tales que para todo i, 1 ≤ i ≤ m j=k X
λij αj = 0
j=1
y en consecuencia
→ → → uk = 0 u 2 + · · · + αk − u 1 + α2 − α1 −
→ → → es decir W = {− w 1, − w 2, · · · , − w m } es un conjunto de vectores L.D. Proposici´ on 24 → → → Sea V un espacio vectorial de dimensi´on finita y sea W = {− v 1, − v 2, · · · , − v k } un conjunto de vectores L.I. entonces existe una base B de V tal que W ⊆ B. Prueba.− (i) Si W es un sistema de generadores de V, se tiene el resultado. → (ii) Si L(W ) 6= V , entonces por la proposici´on 19, existe − v k+1 ∈ / L(W ) tal que → → → → W(1) = {− v 1, − v 2, · · · , − v k, − v k+1 } es L.I.
´ 5.5. BASES, DIMENSION, COORDENADAS
225
→ (iii) Si L(W(1) ) 6= V por la misma raz´ on existe − v k+2 ∈ / L(W(1) ) tal que → → → → → W(2) = {− v 1, − v 2, · · · , − v k, − v k+1 , − v k+2 } es L.I. Puesto que V es de dimensi´on finita el proceso debe terminar en un n´ umero finito de pasos, es decir existe m tal que → → → → → → B = {− v 1, − v 2, · · · , − v k, − v k+1 , − v k+2 , · · · , − v m} es una base de V.
Proposici´ on 25 → → → − Sea V un espacio vectorial de dimensi´on finita y sea W = {− v 1, − v 2, · · · , − v m} , → vi= 6 → − 0 un sistema de generadores de V entonces existe U ⊆ W base de V. Prueba.− (i) Si W es un conjunto de vectores L.I. W es una base de V. (ii) Si W es un conjunto de vectores L.D., sin perder generalidad podemos afirmar → que − v m puede ser escrito como combinaci´on lineal de los restantes elementos de W, consideramos → → → W (1) = {− v 1, − v 2, · · · , − v m−1 } afirmamos que W (1) es un sistema de generadores de V y repetimos el proceso: si W (1) es un conjunto de vectores L.I. W (1) es una base de V si W (1) es un → conjunto de vectores L.D., − v m−1 puede ser escrito como combnaci´ on lineal de los restantes elementos de W (1), consideramos → → → W (2) = {− v 1, − v 2, · · · , − v m−2 } y repetimos. Puesto que W es finito y todos sus vectores son diferentes del vector cero el proceso termina y obtenemos un conjunto U ⊆ W tal que U es una base de V. TEOREMA 1 Todo espacio vectorial V 6=
n− →o 0 , finitamente generado tiene una base.
226
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Prueba.− El teorema es una consecuencia directa de las proposiciones 24 y 25 a continuaci´on. Proposici´ on 26 − → → Sean V un espacio vectorial de dimensi´on finita, B = {→ v 1, − v 2, · · · , − v k} y B′ = → → → {− w 1, − w 2, · · · , − w m } bases de V , entonces k = m. Prueba.− Es una consecuencia inmediata de la proposici´on 23.
Definici´ on 12 → → → Sea V un espacio vectorial de dimensi´on finita. Si B = {− v 1, − v 2, · · · , − v n } es una base para V , decimos que la dimensi´on de V es n y escribimos Dim(V ) = n. Definici´ on 13 → − Sea V un espacio vectorial, el subespacio N = { 0 } se considera un espacio vectorial de dimensi´on finita, en este caso afirmamos que Dim(N ) = 0. Observaci´ on.En la bibliograf´ıa, existen escritos donde el campo K de escalares no necesariamente es R, all´ı el lector encontrar´ a que DimR (V ) = n, es simplemente la dimensi´on. Ejemplo 60 Puesto que el conjuto B =
n− → − →o i , j es una base de R2 , entonces Dim(R2 ) = 2.
Puesto que el conjunto B =
n− →o → − → − i , j , k es una base de R3 , entonces Dim(R3 ) = 3.
n− o → → − Puesto que el conjunto B = E k |1 ≤ k ≤ n donde E k = (0, ..., 0, 1, 0, ...0) con 1 en la k-´esma componente y 0 en las dem´ as, es una base de Rn entonces Dim(Rn ) = n. Puesto que el conjunto B = {Ek,l |1 ≤ k ≤ n, 1 ≤ l ≤ m } donde Ek,l ∈ Mn×m (R) es
227
´ 5.5. BASES, DIMENSION, COORDENADAS
tal que:
(Ek,l )ij =
(
1
si i = k, y j = l
0
si i 6= k o j 6= l
1 en la entrada ij y 0 en las dem´ as, es una base de V = Mn×m (R) entonces Dim (Mn×m (R)) = nm Puesto que el conjunto B = qk (x) qk (x) = xk , 0 ≤ k ≤ n es una base de V = Pn [x] decimos que Dim (Pn [x]) = n + 1. Puesto que el sistema de ecuaciones homog´eneo y una ciones del sistema son respectivamente: 2 x + 2y − 5v = 0 1 z + 4v =0 y B= 0 0 w − 4v =0 0
entonces Dim(S) = 2
base para el conjunto de solu
,
5 0 −4 4 1
Proposici´ on 27 Sea V un espacio vectorial de dimensi´on finita, W ⊆ V un subespacio, entonces W es de dimensi´on finita y Dim(W ) ≤ Dim(V ). Prueba.− → − → − → → → Si W = { 0 } el resultado es inmediato, si W 6= { 0 }, sea U = {− v 1, − v 2, · · · , − v k} una base de W entonces U es un conjunto de vectores L.I. de V y por la proposici´on 24 existe B una base de V tal que U ⊆ B es decir Dim(W ) ≤ Dim(V ). Proposici´ on 28 → → → Sea V un espacio vectorial de dimensi´on finita B = {− v 1, − v 2, · · · , − v n } una base de → − V entonces para cada v ∈ V existen escalares λ1 , · · · , λn tales que k=n P − − → → → → λk → vk v = λ1 − v 1 + λ2 − v 2 + · · · + λn − vn= k=1
228
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
y esta escritura es u ´nica. Prueba.− Realmente lo u ´nico por probar es la unicidad de la escritura, suponemos entonces − → → → → v = λ1 − v 1 + λ2 − v 2 + · · · + λn − vn=
k=n X
− → → → → v = µ1 − v 1 + µ2 − v 2 + · · · + µn − vn=
k=n X
y
en consecuencia
→ λk − vk
k=1
→ µk − vk
k=1
k=n X − → → → → (λk − µk ) − vk 0 =− v −− v = k=1
y puesto que B es un conjunto L.I. concluimos que para todo k, 1 ≤ k ≤ n, λk = µk y la escritura es u ´nica. Definici´ on 14 → → → Sea V un espacio vectorial de dimensi´on finita, B = {− v 1, − v 2, · · · , − v n } una base de → − − → V, si afirmamos que v 1 es el primer vector de B, v 2 es el segundo vector de B y as´ı → hasta − v n , el n-´esimo vector de B, decimos que B es una base ordenada de V. Al suponer las bases ordenadas la proposici´on anterior se puede reescribir diciendo Proposici´ on 29 → → → Sea V un espacio vectorial de dimensi´on finita B = {− v 1, − v 2, · · · , − v n } una base → − ordenada de V entonces para cada v ∈ V existe una u ´nica matriz λ1 . .. k=n P − → vk λk → v = λk ∈ M (n, 1) tal que − . k=1 . . λn
´ 5.5. BASES, DIMENSION, COORDENADAS
229
Definici´ on 15 → → → Sea V un espacio vectorial de dimensi´on finita, B = {− v 1, − v 2, · · · , − v n } una base → − ordenada de V entonces para cada v ∈ V , la matriz de la proposici´on anterior se → → denomina la matriz de coordenadas de − v respecto de B y se nota [− v ]B , es decir:
→ − [ v ]B =
λ1 .. . λk .. . λn
.
Ejemplo 61 Si para cada n, aceptamos el orden natural en la base can´ onica B = {E1 , · · · , En } de n R , como aparecen definidos en el ejemplo 60, es inmediato verificar que:
x1 . [(x1 , · · · , xn )]B = .. xn Ejemplo 62 Si para cada n, aceptamos el orden natural en la base can´ onica B = qk (x) qk (x) = xk , 0 ≤ k ≤ n de Pn [x] ,es inmediato verificar que:
a0 . [a0 + a1 x + · · · + an xn ]B = .. ∈ M(n+1)×1 (R) an Ejemplo 63 Si aceptamos en {1, 2} × {1, 2} el orden lexicogr´afico (1, 1) , (1, 2) , (2, 1) , (2, 2) en la base can´ onica B de M2×2 (R) del ejemplo ....entonces:
230
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
"
a c
b d
!#
B
=
a b c d
El ejemplo anterior se puede extender si para cada n y cada m tambi´en aceptamos el orden lexicogr´afico en [1, 2, · · · , n] × [1, 2, · · · , m] en la base can´ onica B = {Ek,l |1 ≤ k ≤ n, 1 ≤ l ≤ m } de Mn×m (R) y A = (aij ) entonces [A]B es una matriz tama˜ no nm×1 donde escribimos en las primeras n filas en estricto orden los elementos de la primera fila de A, a continuaci´on y en estricto orden los elementos de la segunda fila de A y as´ı sucesivamente. Por comodidad y econom´ıa no escribimos esta matriz pero el lector lo deber´ıa hacer en su cuaderno. Ejemplo 64 Considere la base ordenada B = q1 (x) = 1, q2 (x) = 1 + x, q3 (x) = 1 + x + x2 de P2 [x] para encontrar 3 + 2x + 5x2 B Soluci´ on.Basta encontrar n´ umeros reales λ, µ, γ tales que: 3 + 2x + 5x2 = λ(1) + µ(1 + x) + γ 1 + x + x2 ,
si desarrollamos la expresi´ on de la derecha agrupamos t´erminos semejantes e igualamos coeficientes de las correspondientes potencias de x, obtenemos: 3 = λ + µ + γ 2=µ+γ 5 = γ
sistema no homog´eneo de tres ecuaciones con tres inc´ognitas cuya u ´nica soluci´ on es λ = 1, µ = −3, γ = 5 en consecuencia: 1 3 + 2x + 5x2 B = −3 5
´ 5.5. BASES, DIMENSION, COORDENADAS
231
Ejemplo 65 Si se considera la base ordenada B = q1 (x) = x + x2 , q2 (x) = 1 + x2 , q3 (x) = 1 + x
umeros reales λ, µ, γ tales de P2 [x], para encontrar 3 + 2x + 5x2 B ,basta encontrar n´ que 3 + 2x + 5x2 = λ(x + x2 ) + µ(1 + x2 ) + γ (1 + x) , si desarrollamos la expresi´ on de la derecha agrupamos t´erminos semejantes e igualamos coeficientes de las correpondientes potencias de x, obtenemos el siguiente sistema no homog´eneo de tres ecuaciones con tres inc´ognitas: 3 = µ + γ 2=λ+γ 5 = λ + µ
cuya u ´nica soluci´ on es λ = 2, µ = 3, γ = 0 y en consecuencia: 2 3 + 2x + 5x2 B = 3 0 Ejemplo 66 Sea S el espacio de las soluciones del sistema homog´eneo de ecuaciones
de los ejemplos 38 y 50 y sea
x + 2y − 5v = 0 z + 4v = 0 w − 4v = 0
− → B = u1 =
2 1 0 0 0
− → , u2 =
5 0 −4 4 1
una base ordenada de S entonces para cada soluci´ on del sistema
232
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
se tiene que [X]B =
a b
!
X=
x = 2a + 5b y=a z = −4b w = 4b v=b
Ejemplo 67 En el ejemplo 44 probamos que → → → U = {− u 1 = (1, 2, 3), − u 2 = (4, 5, 6), − u 3 = (1, 0, 1)} es un conjunto de vectores linealmente independiente de R3 , en consecuencia es una base que ordenamos por el orden natural de N. Encontrar [(a, b, c)]U. Soluci´on Basta encontrar n´ umeros reales λ, µ, γ tales que: λ(1, 2, 3) + µ(4, 5, 6) + γ(1, 0, 1) = (a, b, c) al desarrollar la expresi´ on de la izquierda e igualar componentes obtenemos: λ + 4µ + γ
2λ + 5µ 3λ + 6µ + λ
=a =b =c
sistema no homog´eneo de tres ecuaciones con tres inc´ognitas, cuya u ´nica soluci´ on es: λ= en consecuencia:
En particular:
1 5 1 1 1 1 1 5 c − b − a, µ = a + b − c, γ = a − b + c 6 3 6 3 3 3 2 2 5 1 5 6c − 3b − 6a [(a, b, c)]U. = 31 a + 31 b − 13 c 1 1 2a − b + 2c
233
´ 5.5. BASES, DIMENSION, COORDENADAS
[(1, 0, 0)]U =
− 65 1 3 1 2
, [(0, 1, 0)]U =
− 31 1 3
−1
,
[(0, 0, 1)]U =
5 6 − 13 1 2
El lector cuidadoso comenzar´ a a encontrar un interesante parecido entre los espacios vectoriales de dimensi´on finita y los espacios Rn evidentemente esto no es una casualidad, en el cap´ıtulo 6 estableceremos una identificaci´on de unos y otros que muestra ´ que desde el punto de vista del Algebra Lineal no se diferencian, es decir debe ser suficiente conocer muy bien los espacios Rn . Claramente se observa que dadas dos bases ordenadas de un espacio vectorial las matrices de coordenadas de un vector respecto de cada una de las bases puede ser diferente, es entonces interesante y u ´til encontrar procedimientos generales que nos permitan pasar de una a la otra.
Proposici´ on 30 Sea V un espacio vectorial de dimensi´on finita, → → → → → → b = {− B = {− v 1, − v 2, · · · , − v n} y B w 1, − w 2, · · · , − w n}
− bases ordenadas de V, existe una matriz A ∈ Mn×n (R) tal que para todo → v ∈ V, se → − → − tiene que [ v ]Bb = A [ v ]B Prueba.−
λ1 . → → Si suponemos que − v ∈ V y [− v ]B = .. entonces se puede afirmar que, λn − → v =
k=n X
→ λk − v k,
k=1
b es una base de V, para cada k, 1 ≤ k ≤ n existen n´ y como B umeros reales aik tales que − → vk=
i=n X i=1
→ aik − wi
234
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
al reemplazar obtenemos: − → v =
k=n X
λk
i=n X
→ aik − wi
i=1
k=1
!
− Ahora, si desarrollamos y agrupamos en cada → w i obtenemos: i=n X i=1
es decir:
k=n X
aik λk
k=1
→ [− v ]Bb =
!
− → wi
a1k λk k=1 .. . k=n P ank λk k=n P
k=1
Por otra parte si llamamos A = (a1j ) encontramos que:
k=n P
k=1 a1k λk .. → A [− v ]B = . k=n P ank λk k=1
y con esto queda terminada la prueba.
Definici´ on 16 → → → b = Sea V un espacio vectorial de dimensi´on finita, B = {− v 1, − v 2, · · · , − v n} y B → − − → − → { w 1 , w 2 , · · · , w n } bases ordenadas de V entonces la matriz A de la cual probamos su existencia en la proposici´on anterior se denomina la matriz de paso (o de cambio b de base) de la base B a la base B. Ejemplo 68
En el ejemplo anterior puesto que − 56 − 31 [(1, 0, 0)]U = 31 , [(0, 1, 0)]U = 31 , 1 −1 2
[(0, 0, 1)]U =
5 6 − 13 1 2
235
5.6. RANGO Y NULIDAD DE UNA MATRIZ
la matriz
A=
− 56 1 3 1 2
− 13 1 3
−1
5 6 − 31 1 2
resulta ser la matriz de paso de la base can´ onica a la base U y que 5 1 5 5 − 65 − 13 6c − 3b − 6a 6 1 1 − 31 3 a + 31 b − 13 c = 31 3 1 1 1 1 −1 2a − b + 2c 2 2
5.6
es inmediato verificar a b c
RANGO Y NULIDAD DE UNA MATRIZ
En esta secci´on pretendemos responder, en general, varias preguntas que surgen al mirar una matriz A ∈ Mm×n (R) como un conjunto de m vectores de Rn , vale decir sus filas; aqu´ı identificamos M1×n (R) con Rn , o alternativamente como un conjunto de n vectores de Rm , sus columnas; aqu´ı identificamos Mm×1 (R) con Rm . Estas preguntas son, por ejemplo: ¿Cu´ al es la dimensi´on del subespacio de Rn de las soluciones del sistema homogeneo de ecuaciones lineales AX = 0? ¿Cu´ al es la dimensi´on del subespacio de Rn generado por las filas de A? ¿Cu´ al es la dimensi´on del subespacio de Rm generado por las columnas de A? ¿Cu´ al es la dimensi´on del subespacio de Rm , S = {B ∈ Rm : AX = B tiene soluci´ on.}? Proposici´ on 31 b su forma escalonada reducida por filas entonces los subeSea A ∈ Mm×n (R) y sea A n b = 0 respectivaspacios S y Sb de R de las soluciones de los sistemas AX = 0 y AX mente, son iguales. Prueba.−
236
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
La afirmaci´ on es una consecuencia inmediata del Teorema 1 del cap´ıtulos 2 aplicado a sistemas homog´eneos y escrito en t´erminos de subespacios. La proposici´on anterior nos permite, en lo que tiene que ver con sistemas homog´eneos, estudiar solo matrices escalonadas reducidas. Proposici´ on 32 Sea A ∈ Mm×n (R) una matriz escalonada reducida por filas con columnas sin pivote a saber A(k1 ) , · · · , A(kr ) y sea S el subespacio de Rn de soluciones del sistema AX = 0 entonces Dim(S) = r Prueba.− Basta encontrar una base de S que posea exactamente r elementos, por lo tanto → → → construimos el conjunto B = {− v 1, − v 2, · · · , − v r } de la siguiente manera: → − v 1 es la soluci´ on del sistema, obtenida por la siguiente asignaci´on de valores a las as cero. variables libres: xk1 = 1 y todas las dem´ − → v 2 es la soluci´ on del sistema obtenida por la siguiente asignaci´on de valores a las → as cero y as´ı sucesivamente hasta − v r la variables libres: xk2 = 1 y todas las dem´ soluci´ on del sistema obtenida por la siguiente asignaci´on de valores a las variables as cero. libres: xkr = 1 y todas las dem´ Puesto que toda soluci´ on se obtiene por una asignaci´on arbitraria de valores a las variables libres, es claro que B es un sistema de generadores de S. Por otra parte, al igualar componentes en la combinaci´on lineal nula j=r X
→ − → vj = 0 µj −
j=1
obtenemos un sistema homogeneo CX = 0 tal que la columna C (k) de su matriz de → coeficientes es − v k y por tanto la ecuaci´ on correspondiente a la fila de la variable libre xk1 es 1µ1 + 0µ2 + · · · + 0µr = 0,
237
5.6. RANGO Y NULIDAD DE UNA MATRIZ
la ecuaci´ on correspondiente a la fila de la variable libre xk2 es 0µ1 + 1µ2 + · · · + 0µr = 0 y as´ı sucesivamente, la ecuaci´ on correspondiente a la fila de la variable libre xkr es 0µ1 + 0µ2 + · · · + 1µr = 0 y en consecuencia µ1 = · · · = µr = 0 y por tanto B es un conjunto de vectores L.I. Observaci´ on-. Si A es una matriz escalonada reducida por filas donde todas las columnas tienen pivote el sistema AX = 0 equivale a un sistema I(n) X = 0 cuya u ´nica soluci´ on es la trivial.
Definici´ on 17 Sea A ∈ Mm×n (R), sea S el subespacio de Rn de las soluciones del sistema homog´eneo AX = 0 decimos entonces que S es el espacio nulo de A y su dimensi´on se denomina la nulidad de A, notada η(A). Ejemplo 69 Consideremos la matriz A y su respectiva forma escalonada reducida por filas:
y el sistema
que equivale a
A=
1 0 −1 −2
1 0 −1 −2
0 1 0 2
1 0 0 1 0 0
0 1 0 2
2 1 −3 5
2 1 −3 5
→
1 0 0 0
0 1 0 0
x y = z
0 0 1 0 0 0 0 0
0 x 0 0 y = 0 1 z 0
238
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
pues la u ´ltima ecuaci´ on es 0x + 0y + 0z = 0 que puede considerarse no escrita y el espacio nulo de A es 0 L= 0 0 y su nulidad η(A) = 0
Ejemplo 70 Si A y su forma escalonada son respectivamente:
1 A= 0 2
0 −1 1 0 1 −3
1 −2 b 2 →A= 0 0 5
0 0 1 0 0 1
−9 2 , −7
b = 0 tiene una variable libre y por tanto todas las soluciones se tiene que el sistema AX son de la forma x = 9t, y = −2t, z = 7t, w = t para cualquier asignaci´on arbitraria de valores a t ∈ R, es decir el espacio nulo de A es 9 −2 L 7 1 y su nulidad η(A) = 1.
Ejemplo 71 Si A y su forma escalonada son respectivamente:
A=
1 −1 0 −2
−2 −1 −3 −5
1 0 3 2 −2 1 3 −2 4 7 −6 6
b= →A
1 0 0 0
0 1 0 0
−1 −1 0 0
4 3 2 3
0 0
1 3 − 43
0 0
b = 0 tiene tres variables libres y por tanto todas las soluciones entonces el sistema AX son de la forma x = a− 34 b− 31 c, y = a− 23 b+ 34 c, para cualquier asignaci´on arbitraria de valores a, b, c ∈ R, es decir el espacio nulo de A es
5.6. RANGO Y NULIDAD DE UNA MATRIZ
y su nulidad η(A) = 3.
L
1 1 1 0 0
− 43 − 23 0 1 0
,
239
4 3 , 0 0 1
− 31
Hemos respondido as´ı la primera pregunta. Proposici´ on 33 b su forma escalonada reducida, sea T el subespacio de Rn Sean A ∈ Mm×n (R) y A generado por las filas de A, consideradas como vectores de Rn entonces el conjunto b es una base de T. de las filas diferentes de cero de A Prueba.−
b se obtiene por una sucesi´ Puesto que cada fila de A on finita de operaciones elementales entre filas y cada una de estas tiene una operaci´ on inversa del mismo tipo es claro que b es decir cada fila de A es una combinaci´on lineal de las filas diferentes de cero de A ´estas u ´ltimas son un sitema de generadores de T. Basta probar que son un conjunto de vectores L.I. Consideremos entonces b = (1, ∗, 0, ∗, 0, ∗, · · · , 0, ∗) , A b = (0, ∗, 1, ∗, 0, ∗, · · · , 0, ∗) , · · · , A 1 2 b = (0, ∗, 0, ∗, 0, ∗, · · · , 1, ∗) A r
b (En esta descripci´on los unos y ceros aparecen en las las filas diferentes de cero de A. columnas donde hay pivote, vale decir las columnas k 1 , k 2 , · · · , kr ,
y la (*) significa sucesiones de una o mas columnas sin pivote) Consideremos entonces una combinaci´on lineal nula de ellas, digamos i=r X i=1
b = (0, 0, · · · , 0) λi A i
240
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
al desarrollar e igualar componentes obtenemos un sistema homog´eneo de n ecuaciones con r ≤ n inc´ognitas cuya primera ecuaci´ on es 1µ1 +0µ2 +· · ·+0µr = 0, cuya ecuaci´on j2 correspondiente a la columna del segundo pivote es 0µ1 + 1µ2 + · · · + 0µr = 0 y as´ı sucesivamente, la ecuaci´ on jr correspondiente a la columna del pivote r−´esimo es 0µ1 + 0µ2 + · · · + 1µr = 0 y en consecuencia µ1 = · · · = µr = 0 y por tanto el conjunto b es un conjunto de vectores L.I.. de filas diferentes de cero de A Observaci´ on.-
El lector notar´ a que las pruebas de independencia lineal en las proposiciones 30 y 31 son esencialmente la misma escrita en forma diferente, puede como ejercicio de verificaci´on intentar escribir las dos de la misma forma. Definici´ on 18 Sea A ∈ Mm×n (R), sea T el subespacio de Rn generado por las filas de A, T se denomina el espacio fila de A y su dimensi´on se denomina el rango fila de A notado ρF (A). Ejemplo 72 Si consideremos la matriz A y su 1 0 A= −1 −2
respectiva forma 0 2 1 1 → 0 −3 2 5
escalonada reducida por filas 1 0 0 0 1 0 , 0 0 1 0 0 0
su espacio fila es R3 y su rango fila ρF (A) = 3. Ejemplo 73 Si consideramos la matriz A y su respectiva forma escalonada reducida por filas 1 0 −1 −2 1 0 0 −9 b= Sea A = 0 1 0 2 →A 0 1 0 2 2 1 −3 5 0 0 1 −7 su espacio fila es
T = L ({(1, 0, 0, −9) , (0, 1, 0, 2) , (0, 0, 1, −7)})
241
5.6. RANGO Y NULIDAD DE UNA MATRIZ
y su rango fila ρF (A) = 3 Ejemplo 74 Si consideremos la matriz A y su respectiva forma escalonada reducida por filas
A=
1 −1 0 −2
−2 −1 −3 −5
1 0 2 −2 3 −2 7 −6
su espacio fila es T =L
3 1 4 6
b= →A
4 1 1, 0, −1, , 3 3
1 0 0 0
0 −1 1 −1 0 0 0 0
4 3 2 3
0 0
1 3 − 34
0 0
2 4 , 0, 1, −1, , − 3 3
y su rango fila ρF (A) = 2. Observaci´ on. La proposici´on 34 nos provee de un procedimiento eficaz para encontrar una base y → → → la dimensi´on del subespacio L(S) generado por un conjunto S = {− w 1, − w 2, · · · , − w m} n de m vectores de un espacio R , basta construir la matriz A ∈ Mm×n (R) cuyas filas son en su orden los vectores de S, → − w1 − → w2 A= .. . → − wm
b y el conjunto de filas diferentes de cero reducimos A a forma escalonada reducida A consideradas como vectores de Rn es una base para L(S) y su dimensi´on es el rango fila de A.
Definici´ on 19 Sea A ∈ Mm×n (R), sea U el subespacio de Rm generado por las columnas de A, se denomina el espacio columna de A y su dimensi´on se denomina el rango columna de A notado ρC (A)
242
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Ejemplo 75 Consideremos
A=
1 0 −1 −2
0 1 0 2
2 1 −3 5
el espacio columna de A no es otro que el subespacio de R4 , L ({(1, 0, −1, −2), ((0, 1, 0, 2), (2, 1, −3, 5)}) y por la observaci´ on posterior a la proposici´on 34, si B y su respectiva reducci´on por filas son respectivamente 1 0 −1 2 1 0 0 3 b = B= 0 1 0 2 →B 0 1 0 2 2 1 −3 5 0 0 1 1 entonces
W = {(1, 0, 0, 3), (0, 1, , 0, 2), (0, 0, 1, 1)} es una base del espacio columna de A y en consecuencia el rango columna ρC (A) = 3. El lector observar´ a que B = AT Ejemplo 76 Sea
A=
1 −1 0 −2
−2 −1 −3 −5
1 0 2 −2 3 −2 7 −6
3 1 4 6
,
el espacio columna de A no es otro que el subespacio de R4 , L ({(1, −1, 0, 2), (−2, −1, −3, −5), (1, 2, 3, 7), (0, −2, −2, −6), (3, 1, 4, 6)}) y por la observaci´ on posterior a la proposici´on 34, sea 1 −1 0 −2 −2 −1 −3 −5 B= 1 2 3 7 0 −2 −2 −6 3 1 4 6
,
5.6. RANGO Y NULIDAD DE UNA MATRIZ
243
reducimos por filas y obtenemos
b= B
1 0 0 0 0
0 1 0 0 0
1 1 0 0 0
1 3 0 0 0
entonces W = {(1, 0, 1, 1), (0, 1, 1, 3)} es una base del espacio columna de A y en consecuencia el rango columna ρC (A) = 2.
Proposici´ on 34 Sea A ∈ Mm×n (R) entonces ρF (AT ) = ρC (A) y ρC (AT ) = ρF (A) Prueba.− Ejercicio para el lector.
Proposici´ on 35 Sea A ∈ Mm×n (R) entonces su rango fila y su rango columna son iguales.(ρF (A) = ρC (A)) Prueba.− Sean U el subespacio de Rm generado por las columnas de A y B = A(k1 ) , A(k2 ) , · · · , A(ks ) una base de U, por tanto cada j, 1 ≤ j ≤ n la columna A(j) de A se escribe de una u ´nica forma como combinaci´on lineal los elementos de B es decir existen escalares λrj ∈ R
244
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
tales que A(j) =
r=s P
λrj A(kr ) , es decir
r=1
a1j .. . aij .. . amj
= λ1j
a1k1 .. . aik1 .. . amk1
al igualar entradas tenemos:
+ λ2j
a1k2 .. . aik2 .. . amk2
+ · · · + λsj
a1j = a1k1 λ1j + a1k2 λ2j + · · · + a1ks λsj = aij = aik1 λ1j + aik2 λ2j
a1ks .. . aiks .. . amks
r=s P
,
a1kr λrj
r=1
.. . r=s P aikr λrj + · · · + aiks λsj = r=1
amj = amk1 λ1j + amk2 λ2j
.. . r=s P amkr λrj + · · · + amks λsj = r=1
en consecuencia podemos afirmar que para cada i, 1 ≤ i ≤ m y para cada j, 1 ≤ j≤n aij =
r=s P
aikr λrj
r=1
lo que significa que para cada i, 1 ≤ i ≤ m la fila Ai de A se escribe como Ai = (ai1 , · · · , ain ) =
r=s X r=1
aikr λr1 , · · · ,
r=s X r=1
aikr λrn
!
Ahora, si llamamos L = (λrj ) , 1 ≤ r ≤ s, 1 ≤ j ≤ m; la expresi´ on (5.2) es equivalente a decir que, para cada i, 1 ≤ i ≤ m, aij = aik1 (λ11 , λ12 , · · · , λ1m ) + · · · + aiks (λs1 , λs2 , · · · , λsm ) =
r=s X
aiks Lr
r=1
escritura que claramente dice que para cada i, 1 ≤ i ≤ m la fila Ai de A est´ a escrita como una combinaci´on lineal de las filas de L y esta u ´ltima afirmaci´on implica que ρF (A) ≤ s = ρC (A). Finalmente si aplicamos el u ´ltimo resultado a la matriz AT , tenemos ρF (AT ) ≤ T ρC (A ) y por la proposici´on 32 deducimos que ρF (A) = ρC (A).
5.6. RANGO Y NULIDAD DE UNA MATRIZ
245
Definici´ on 20 Sea A ∈ Mm×n (R), llamamos rango de A, notado ρ(A) al valor com´ un del rango fila y el rango columna de A Ejemplo 77 Sea
1 A= 0 2
su forma escalonada reducida es
0 −1 1 0 1 −3
1 0 b= A 0 1 0 0
en consecuencia su rango ρ(A) = 3.
−2 2 , 5
0 −9 0 2 1 −7
Hemos respondido as´ı las preguntas segunda y tercera. Ahora, si comparamos los ejemplos (REVISAR LOS EJEMPLOS CORRESPONDIENTES) 68, 69, 70 con 74,75 ,76 observamos una interesante relaci´ on entre la nulidad y el rango de una matriz A, a saber, la suma de nulidad mas rango es n, el n´ umero de columnas de A. Este resultado no es casual, en general podemos afirmar:
Proposici´ on 36 Sea A ∈ Mm×n (R) entonces η(A) + ρ(A) = n. Prueba.− b la forma escalonada reducida de A, el resultado es inmediato si observamos que Sea A b que no tienen pivote, mientras que η(A) es precisamente el n´ umero de columnas de A ρ(A) es el n´ umero de columnas con pivote de la misma matriz y n es su n´ umero total de columnas.
246
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Por u ´ltimo la respuesta a la pregunta cuatro es consecuencia de la siguiente proposici´on : Proposici´ on 37 Sea A ∈ Mm×n (R), el sistema AX = B, B ∈ Rm tiene soluci´ on si y solo si B es una combinaci´on lineal de las columnas de A. Prueba.− Sean
X=
x1 .. . xi .. . xn
y B=
b1 .. . bk .. . bm
en consecuencia AX = B se escribe tambi´en as´ı:
es decir
a11 .. . ai1 .. . am1
x1 +
a12 .. . ai2 .. . am2
x2 + · · · +
a1n .. . ain .. . amn
xn =
b1 .. . bk .. . bm
A(1) x1 + A(2) x2 + · · · + A(n) xn = B En consecuencia si B es tal que el sistema AX = B tiene soluci´ on entonces B es una combinaci´on lineal de las columnas de A. Usualmente el espacio S = {B ∈ Rm |AX = B tiene soluci´ on } ⊆ Rm se denomina la imagen de A y se nota Im(A), con esta notaci´on la conclusi´on de la proposici´on 35 simplemente dice que la imagen de A es igual al espacio columna de A.
5.7
PRODUCTO INTERNO ORTOGONALIDAD
En esta secci´on generalizamos el producto punto que definimos en el cap´ıtulo 4 a los espacios vectoriales reales y utilizaremos este hecho para hablar de manera mas
247
5.7. PRODUCTO INTERNO ORTOGONALIDAD
general de longitud, ´ angulo entre vectores y otros t´erminos de la Geometr´ıa Euclidea.
Definici´ on 21 Sea V un espacio vectorial real, decimos que V es un espacio con producto interno → → (Producto escalar) si para cada par − u,− v de vectores de V, existe un u ´nico n´ umero → → real, notado h− u,− v i ,tal que: → − − → → → → − (1) Para todo → u ∈ V, h− u,− u i ≥ 0 y h− u,− u i = 0 si y solo si → u = 0. → → → (2) Para todo − u,− v ,− w ∈ V, → − − → → − − → h u , v i + h u , w i.
→ → → − → → → → → → h− u +− v ,− w i = h→ u,− w i + h− v ,− w i y h− u,− v +− wi =
− → (3) Para todo → u,− v ∈ V y para todo λ ∈ R, − → (4) Para todo → u,− v ∈ V,
D− − →E → →E D− → → u , λv = λ h− u,− v i. λu, − v = →
→ → → → h− u,− v i = h− v ,− u i.
→ → − − h− u,− v i se denomina el producto interno o producto escalar de → u y→ v. Ejemplo 78 → → Sean − u = (x1 , x2 , · · · , xn ), − v = (y1 , y2 , · · · , yn ) ∈ Rn , el producto punto de vectores n de R definido por: − → → → h→ u,− vi=− u ·− v = x 1 y1 + x 2 y2 + · · · + x n yn = es un producto interno. Verificaci´on.Propiedad 1. − Si → u = (x1 , x2 , · · · , xn ) ∈ Rn entonces − → → u ·− u =
k=n X k=1
xk xk =
k=n X k=1
2
(xk ) ≥ 0,
adem´ as si → − − → u = 0 = (0, · · · , 0)
k=n X k=1
x k yk
248
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
entonces − − → → 0 · 0 =0 y rec´ıprocamente si − → → u ·− u = para todo k, 1 ≤ k ≤ n, se tiene que
k=n X
2
(xk ) = 0
k=1
xk = 0
Propiedad 2. − → → Si → u = (x1 , x2 , · · · , xn ), − v = (y1 , y2 , · · · , yn ), − w = (z1 , z2 , · · · , zn ) ∈ Rn entonces → → → (− u +− v)·− w = (x1 + y1 , x2 + y2 , · · · , xn + yn ) · (z1 , z2 , · · · , zn ) =
k=n X
(xk + yk ) zk
k=1
=
k=n X
(xk zk + yk zk )
k=1
Por otra parte − → → → → u ·− w +− v ·− w =
k=n X
x k zk +
k=1
k=n X
y k zk
k=1
Si comparamos las dos u ´ltimas expresiones de la derecha comprobamos su igualdad. An´alogamente se verifica la otra igualdad. Propiedad 3. − → Si → u = (x1 , x2 , · · · , xn ), − v = (y1 , y2 , · · · , yn ) ∈ Rn y λ ∈ R entonces k=n k=n X − → → X → → x k yk = λ ( − u ·− v) λxk yk = λ λu · − v = k=1
k=1
y
k=n k=n k=n X X − → X → → − → x k yk = λ ( − u ·− v) λxk yk = λ xk (λyk ) = u · λv = k=1
k=1
k=1
249
5.7. PRODUCTO INTERNO ORTOGONALIDAD
Propiedad 4. − → Si → u = (x1 , x2 , · · · , xn ), − v = (y1 , y2 , · · · , yn ) ∈ Rn entonces − → → u ·− v =
k=n X
x k yk =
k=n X k=1
k=1
→ → yk x k = − v ·− u
Ejemplo 79 Sea V = Mn×n (R) , si A; B ∈ Mn×n (R) definimos hA, Bi = T r AB T hA, Bi es un producto interno.
entonces
Verificaci´on.Propiedad 1. Si A ∈ Mn×n (R) entonces i=n X AAT ii hA, Ai = T r AAT = i=1
=
i=n X i=1
=
i=n X i=1
k=n X k=1
k=n X
aik
AT ki
(aik )
2
k=1
Adem´ as si A, AT = 0 entonces
i=n X i=1
k=n X
!
!
=
i=n X i=1
k=n X
aik aik
k=1
!
≥0
(aik )
k=1
2
!
=0
en consecuencia para todo i, 1 ≤ i ≤ n y para todo k, 1 ≤ k ≤ n,
aik = 0, es decir
A = 0. Rec´ıprocamente si A = 0 entonces hA, Ai =
=n X i=1
k=n X k=1
T
aik A
ki
!
=
i=n X i=1
k=n X k=1
!
0
= 0.
250
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Propiedad 2. Si A, B, C ∈ Mn×n (R) entonces hA + B, Ci = T r (A + B) C T = T r AC T + BC T = T r AC T + T r BC T = hA, Ci + hB, Ci .
An´alogamente se verifica la otra igualdad. Propiedad 3. Si A, B ∈ Mn×n (R) y λ ∈ R entonces
hλA, Bi = T r (λA) B T = T r λ AB T ! i=n k=n X X = λaik B T ki =
i=1
k=1
i=n X
k=n X
i=1
=λ
i=n X i=1
λaik bik
k=1
k=n X
!
aik bik
k=1
!
= λ hA, Bi y hA, λBi = T r A λB T Propiedad 4. Si A, B ∈ Mn×n (R) entonces
= T r λ AB T
= λT r AB T = λ hA, Bi
i=n X AB T ii hA, Bi = T r AB T = i=1
=
i=n X i=1
=
i=n X i=1
y
k=n X
aik B
k=1
k=n X k=1
aik bik
T
!
ki
!
5.7. PRODUCTO INTERNO ORTOGONALIDAD
hB, Ai = T r BAT =
i=n X
=
i=n X
k=n X
i=1
=
ii
T
bik A
k=1
i=n X
k=n X
i=1
k=1
i=1
=
BAT
i=1
bik aik
k=1
i=n X
k=n X
251
aik bik
!
ki
!
!
Proposici´ on 38 Sea V un espacio vectorial real de dimensi´on finita, h , i un producto interno definido → → → → → sobre V y B = {− u 1, − u 2, · · · , − u n } una base ordenada de V entonces h− u,− v i est´ a → − − → un´ıvocamente determinado por los valores h u i , u j i , 1 ≤ i ≤ n, 1 ≤ j ≤ n. Prueba.− → → − → Sean − u,− v ∈ V entonces → u,− v se escriben de una u ´nica forma como − → → → u = λ1 − u 1 + λ2 − u 2 + · · · + λn un , → − → − → − v = µ u + µ u + ··· + µ u 1
1
2
2
n n
entonces → → → → → → → → h− u,− v i = hλ1 − u 1 + λ2 − u 2 + · · · + λn − u n , µ1 − u 1 + µ2 − u 2 + · · · + µn − u ni j=n i=n X X → → = λi µj h − u i, − u j i . i=1
j=1
252
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Proposici´ on 39 Sea V un espacio vectorial real de dimensi´on finita, h , i un producto interno definido → → → sobre V y B = {− u 1, − u 2, · · · , − u n } una base ordenada de V y sea A ∈ Mn×n (R) tal T → → → → → → que aij = h− u i, − u j i entonces h− u,− v i = ([− u ]B ) A [ − v ]B Prueba.− Si
− → → → → → → u = λ1 − u 1 + λ2 − u 2 + · · · + λn u n , − v = µ1 − u 1 + µ2 − u 2 + · · · + µn un
entonces
en consecuencia
T → − ([− u ]B ) = (λ1 , λ2 , · · · , λn ) y [→ v ]B =
T → → ([− u ]B ) A [ − v ]B =
j=n X j=1
i=n X i=1
− → λi h→ u i, − u j i µj
!
=
j=n X j=1
µ1 µ2 .. . µn
i=n X i=1
− → λi µj h → u i, − u ji
!
Usualmente denominamos la matriz A como “la matriz del producto interno asociada a la base ordenada B” Observaci´ on.Como consecuencia de las proposiciones anteriores podemos afirmar dado un espacio vectorial V y una base ordenada B de V, por cada matriz sim´etrica A tal que → → aii ≥ 0, podemos definir un producto interno sobre V por la ecuaci´ on h− u,− vi = T → − → − ([ u ]B ) A [ v ]B Asociada a cada producto interno podemos definir una “magnitud” (Longitud o norma) de la siguiente manera: Definici´ on 22 Sea V un espacio vectorial real, h, i un producto interno definido sobre V , definimos p→ − → → → la magnitud de − u notada k− u k , por k− u k = h− u,→ u i.
5.7. PRODUCTO INTERNO ORTOGONALIDAD
253
Proposici´ on 40 Sea V un espacio vectorial real, h , i un producto interno definido sobre V entonces: → − − → − → (1) Para todo → u ∈ V, k− u k ≥ 0 y k→ u k = 0 si y solo si − u = 0
−
→ → → (2) Para todo − u ∈ V y para todo λ ∈ R, λu = |λ| k− uk
− → → → → → (3) Para todo → u,− v ∈ V, |h− u,− v i| ≤ k− u k k− v k(Desigualdad de Cauchy-Schwarz) − → → → → → (4) Para todo → u,− v ∈ V k− u +− v k ≤ k− u k + k− v k(Desigualdad triangular) Prueba.−
(1) Es solo una reescritura de la propiedad 1 del producto interno. − (2) Sean → u ∈ V, λ ∈ R q
−
rD − √ q− → − →E
→ → − − → → → 2 λu, λu . = λ h u , u i = λ2 h→ u,− u i = |λ| k− uk
λu = → − − → → (3) Sean → u,− v ∈ V, si se supone que − u = 0 se tiene que D
→ →E → → −
− v = 0 = 0 k− vk 0 ,− Ahora, si se supone que sea
→ − − → u 6= 0
→ → h− u,− v i− − → → → w =− v − → 2 u − kuk
entonces
2 → k− wk ≥ 0
es decir, 2 − 0 ≤ k→ wk =
*
→ → − → h− u,− v i− h→ u,− v i− − → → − → → v − → u , v − 2 2 u − → − kuk kuk
+
por tanto, 2 → 2 2 → → → k− u k k− v k − h− u,− vi ≥0
2 → → h− u,− vi → → = h− v ,− vi− → 2 k− uk
254
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
luego 2 2 → 2 → → → h− u,− v i ≤ k− u k k− vk
y en consecuencia → → → → |h− u,− v i| ≤ k− u k k− vk 2 2 → → → → → → → → → → → (4) Sean − u,− v ∈ V, entonces k− u +− v k = h− u +− v ,− u +− v i = k− u k + 2 h− u,− vi+ 2 → − k v k entonces si utilizamos la desigualdad de Cauchy-Schwarz tenemos
2 2 2 2 2 2 → → → → → → → → → → → → k− u +− v k = k− u k +2 h− u,− v i+k− v k ≤ k− u k +2 k− v k k− u k+k− v k = (k− v k + k− u k)
y por lo tanto → → → → k− u +− v k ≤ k− u k + k− vk Tambi´en como una consecuencia de la desigualdad de Cauchy-Schwarz podemos gener→ → alizar el concepto de ´ angulo entre vectores, puesto que para cada par de vectores − u,− v → − → − hu,v i ≤ 1, en un espacio V con producto interno, la desigualdad garantiza que → − v k k−u kk→ por tanto, se puede definir: Definici´ on 23 → → Sea V un espacio vectorial real, h , i un producto interno definido sobre V , − u,− v ∈ → − → − V , definimos la medida del ´ angulo θ entre u y v , como el n´ umero real tal que − − u ,→ vi h→ . cos θ = → − − u vk k kk→ Definici´ on 24 → → Sea V un espacio vectorial real, h , i un producto interno definido sobre V , − u,− v ∈V → − → − → − − → decimos que u y v son ortogonales si y solo si h u , v i = 0 Observaci´ on.
255
5.7. PRODUCTO INTERNO ORTOGONALIDAD
Como lo dijimos en su momento, en los espacios R2 y R3 la ortogonalidad corresponde a la perpendicularidad de la geometr´ıa eucl´ıdea del espacio usual.
Definici´ on 25 Sea V un espacio vectorial real, h , i un producto interno definido sobre V y sea → → → → S ⊆ V, decimos que S es ortogonal si y solo si para todo − u,− v ∈ S, − u 6= − v , se tiene → − − → que h u , v i = 0 Ejemplo 80 Sea R2 con el producto punto, S = {(3, 4), (−4, 3)} es ortogonal, puesto que (3, 4) · (−4, 3) = (3)(−4) + (4)(3) = 0 Ejemplo 81 Sea R3 con el producto punto, S = {(3, 4, 0), (−4, 3, 5)} es ortogonal ya que (3, 4, 0) · (−4, 3, 5) = (3)(−4) + (4)(3) + (0)(5) = 0 Ejemplo 82 Sea Rn con el producto punto, la base can´ onica B = → − − → ya que si i 6= j entonces E i · E j = 0
n− o → E k , 1 ≤ k ≤ n es ortogonal,
Ejemplo 83 Sea M2×2 (R) con el producto interno definido en el ejemplo 78, se afirma que: S=
(
2 3 5 1
!
,
2 1 0 −7
!
,
− 12 − 25
1 0
!)
ya que "
Tr "
Tr
! !# ! 2 3 2 0 7 −21 = Tr =0 5 1 1 −7 11 −7 ! !# ! 2 − 54 2 3 − 21 − 25 =0 = Tr 1 0 − 32 −2 5 1
256
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Tr
"
2 0
!
1 −7
!#
− 52 0
− 12 1
= Tr
− 54 0
0 −7
!
=0
en consecuencia afirmamos que S es ortogonal Proposici´ on 41 un espacio vectorial real, h , i un producto interno definido sobre V y sea → − S ⊆ V tal que 0 ∈ / S,y S es un conjunto ortogonal entonces S es un conjunto L.I. Sea V
Prueba.− Consideramos una combinaci´on lineal nula de vectores de S,
k=n P k=1
para cada i, con 1 ≤ i ≤ n *
− → w i,
pero *
− → w i,
k=n X
k=n X
− λk → wk
k=1
− λk → wk
k=1
+
=
+
k=n X k=1
→ − → w k = 0 , entonces λk −
D − →E − = → w i , 0 = 0,
2 → → → λk h − w i, − w k i = λi k− w ik ,
2 − es decir, λi k→ w i k = 0 y por tanto λi = 0 y en consecuencia S es L.I.
Proposici´ on 42 un espacio vectorial real, h , i un producto interno definido sobre V y sea → − → S ⊆ V tal que 0 ∈ / S, y S es un conjunto ortogonal entonces para todo − v ∈ L(S), Sea V
− → v =
k=n X k=1
→ → h− v ,− w ki − → 2 w k. → − kw k k
Prueba.− k=n P − − − λk → w k luego para todo i, 1 ≤ i ≤ n, Si → v ∈ L(S) entonces → v = k=1
5.7. PRODUCTO INTERNO ORTOGONALIDAD
− → h→ v ,− w ii = por lo tanto λi =
*k=n X
− − v ,→ w ii h→ 2 → − w
k
i
k
− → λk → w k, − wi
k=1
+
→ es decir − v =
=
k=n X k=1
257
2 → → → λ k h− w k, − w i i = λi k− w ik
k=n − − P h→ v ,→ w ki − → 2 w k → − w k k k k=1
Definici´ on 26 − → un espacio vectorial real con un producto interno h , i , sean → u,− v ∈V → − → − u , v h i → → se denomina ´´la proyecci´ − → → vector − w = → on de − u sobre − v ”. 2 v k−v k Sea V
el
Proposici´ on 43 − → Sea V un espacio vectorial real con un producto interno h , i , sean → u,− v ∈ V entonces *
→ → h− u,− v i− − → → − → u − → 2 v, v − kvk
+
=0
Prueba.− − − − − u ,→ vi − u ,→ v i− h→ h→ → − → → → → − → → − − → → − − → → − v , v = h− u,− vi− → u − → 2 2 h v , v i = h u , v i − h u , v i = 0 − − v v k k k k La proposici´on anterior muestra la manera de construir un par de vectores ortogonales a partir de dos vectores dados, el proceso general para construir conjuntos ortogonales a partir de un conjunto de vectores L.I.dados por un procedimiento recurrente, se denomina ”PROCESO DE ORTOGONALIZACION DE GRAM-SCHMIDT y es el fundamento de la siguiente proposici´on.
Proposici´ on 44 Todo espacio vectorial V finitamente generado con un producto interior h , i , tiene una base ortogonal. Prueba.−
258
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
→ → → El Teorema1. de la secci´on 5 garantiza la existencia de una base B = {− u 1, − u 2, · · · , − u n} , → → → b = {− a partir de la cual se construye una nueva base B w 1, − w 2, · · · , − w n } que resulta ortogonal, el proceso de construcci´on es el siguiente: Paso 1. Sea → − → w1 = − u1 Paso 2. − → u 2 ,− w h→ 1i − → − → → → on 40 REVISAR {→ w 1, − w 2} Si − w2 = − u2− → 2 w 1 , claramente, por la proposici´ − k w 1k es ortogonal. Paso 3. → → → Suponemos constru´ıdo {− w 1, − w 2, · · · , − w k } ortogonal. Si: − → → w k+1 = − u k+1 − entonces
i=k − → X h→ u k+1 , − w ii − → wi 2 → − kw k i=1
i
→ → → → {− w 1, − w 2, · · · , − w k, − w k+1 }
resulta ortogonal ya que para todo j, 1 ≤ j ≤ k *
+ i=k − → − → X h u , w i k+1 i → → → → − → u k+1 − h− w k+1 , − w ji = − w i, − wj 2 → − k w k i i=1 + * i=k → → X h− u k+1 , − w ii − → − → → − − → w i, w j = h u k+1 , w j i − 2 → k− w ik i=1 → → = h− u k+1 , − w ji −
i=k − → X h→ u k+1 , − w ii − → h→ w i, − w ji 2 → k− w k i=1
i
− → → → = h→ u k+1 , − w j i − h− u k+1 , − w ji =0
− → → b = {→ Despu´es de n pasos el proceso termina y obtenemos B w 1, − w 2, · · · , − w n } base ortogonal de V. Ejemplo 84 Consideremos R3 con el producto punto, apliquemos a la base
259
5.7. PRODUCTO INTERNO ORTOGONALIDAD
→ → → B = {− u 1 = (1, 2, 3), − u 2 = (3, 4, 5), − u 3 = (1, 0, 1)} el proceso Gram-Schmidt. Paso 1. Sea
− → → w1 = − u 1 = (1, 2, 3)
Paso 2. Sea → → h− u 2, − w 1i − → − → → w2 = − u2− → 2 w1 − k w 1k (3, 4, 5) · (1, 2, 3) = (3, 4, 5) − (1, 2, 3) 2 k(1, 2, 3)k 26 = (3, 4, 5) − (1, 2, 3) 14 8 2 −4 = , , 7 7 7 Paso 3. Sea → → − → h− u 3, − w 1i − h→ u 3, − w 2i − − → → → → w3 = − u3− → w − 1 2 2 w2 − → − k w 1k k w 2k = (1, 0, 1) − es decir
(1, 0, 1) · (1, 2, 3) k(1, 2, 3)k
2
(1, 0, 1) · 78 , 72 , −4 (1, 2, 3) −
8 2 −4 27
, , 7 7
2 − → w 3 = (1, 0, 1) − (1, 2, 3) − 7 1 2 1 ,− , = 3 3 3
b = (1, 2, 3), Es inmediato verificar que B nal de R3
4 7 12 7
8 2 −4 7, 7, 7
7
8 2 −4 , , 7 7 7
,
2 1 1 3, −3, 3
8 2 −4 , , 7 7 7
es una base ortogo-
260
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Ejemplo 85 Consideremos M2×2 (R) con el producto definido en el ejemplo 78 REVISAR, apliquemos a la base ( ! ! ! !) 1 1 1 1 1 1 1 0 → − − → − → − → B = u1 = , u2 = , u3 = , u3 = 1 1 1 0 0 0 0 0 el proceso Gram-Schmidt. Paso 1. Sea 1 1 1 1
− → → w1 = − u1 =
!
Paso 2. Sea → → h− u 2, − w 1i − → − → → w2 = − u2− → 2 w1 − k w 1k * 1 ! 1 1 1 = −
1 1 0
1 1 1 1 0
!
−
=
1 1 1 0
!
−
=
1 4 1 4
=
Paso 3. Sea
1 4 − 43
Tr
!
Tr 3 4
!
1 1 1 1
1 1 1 0
1 1 1 1 ! 1 1 ! 1 1
1 0 1 1
!
1 1 1 1 ! 1 1 1 1
!+
! 2
!! 1 1 !! 1 1
1 1 1 1
!
1 1
1 1
!
261
5.7. PRODUCTO INTERNO ORTOGONALIDAD
− → → → h→ u 3, − w 2i − h− u 3, − w 1i − → → − → → w − w3 = − u3− → 1 2 2 w2 − → − k w 1k k w 2k
entonces
1 0
− → w3 =
1 0
!
1 4 1 4
Tr
=
1 0
=
1 3 − 32
1 0
Tr
1 1
1 1
1 1 0 0
Tr −
−
Tr
1 0
1 0
! 1 3
0
1 4 − 43
2 − 4 !
!
1 4 1 4
1 1
!
1 4 − 43
1 4 1 4
!
!
1 1
!!
1 4 − 43
!
−
1 1
1 1
1 1
1 1
1 4 1 4
1 1 1 1
!!
1 4 1 4
!!
1 2 3 4
!!
1 4 − 43
1 4 − 34
!
!
!
Paso 4. Sea → → − → − → h− u 4, − w 1i − h→ u 4, − w 2i − h→ u 4, − w 3i − − → → → → → w4 = − u4− → w − w − 1 2 2 2 2 w3 − → − → − k w 1k k w 2k k w 3k
entonces
262
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
1 0
− → w4 =
0 0
!
Tr
=
1 3 − 32
!
1 0
0 0
1 2
− 12 0
0
1 1
!
1 0 0 0
Tr
=
Tr
1 1
1 4 − 34
1 4 1 4
Tr −
0 0
1 0 0 0
Tr −
−
Tr
1 0
1 3
0 1 − 4 !
1 4 1 4
!
1 3 1 3
1 1 1 1
F´acilmente se puede verificar que ( ! 1 1 1 4 b B= , 1 1 1 4
1 4 − 43
− 23 0
1 3 1 3
!
!
1 4 − 34
1 4 1 4
!
!
!!
1 1
1 1
1 1
!!
−
!
,
1 4 1 4
1 3 − 32
1 1 1 1
!!
1 4 − 34
1 3 − 23
!!
1 4 3 4
!!
1 4 1 4
!!
− 32 0 !
1 4 − 43
1 1
1 4 − 34
1 3
0
1 3
0 !
!
,
!
!
!
−
1 3 2 3
1 2
0
1 3 − 32
− 21 0
1 3
0
!
!)
es ortogonal.
Definici´ on 27 Sea V un espacio vectorial real de dimensi´on finita, h , i un producto interno definido → → → b = {− b es ortonormal sobre V, B w 1, − w 2, · · · , − w n } una base ortogonal decimos que B → − → − si para todo i, 1 ≤ i ≤ n el vector w i es unitario es decir k w i k = 1 Obviamente cada vez que obtenemos una base ortogonal de un espacio vectorial con producto interno, inmediatamente tenemos una base ortonormal, basta multiplicar
263
5.7. PRODUCTO INTERNO ORTOGONALIDAD
− cada vector → w i por el escalar 1.
1
− w ik k→
y claramente el vector as´ı obtenido tiene norma
Ejemplo 86 Consideremos R3 con el producto punto. La base b= B
1 2 1 8 2 −4 , (1, 2, 3), , , ,− , 7 7 7 3 3 3
es una base ortogonal y como
r r √ 8 2 −4 12 1 2 1
= 2
, ,− , k(1, 2, 3)k = 14, , , = 7 7 7 7 3 3 3 3
entonces
( √ √ √ ! 14 14 14 3 e= B , , , 14 7 14
√ √ √ ! 21 −2 21 4 21 , , , 21 21 21
√ √ !) 6 − 6 6 , , 6 3 6
√
es una base ortonormal. Ejemplo 87
Consideremos M2×2 (R) con el producto definido en el ejemplo 78 REVISAR, en el ejemplo 84 encontramos la base ortogonal !) ! ! ( ! 1 1 1 1 1 1 − 1 1 4 4 3 3 2 2 b= , , B , 1 − 32 0 0 0 − 34 1 1 4 y ya que
1 1 1 1
entonces
!
= 2;
e= B
(
1 2 1 2
1 4 1 4
1 2 1 2
!
es una base ortonormal.
1 4 − 34
√
,
! r
3
,
=
4
3 √6 3 6
√
3 6√ − 23
!
1 3 − 23
√
,
6 6√ − 36
! r
2
,
= 3 0 1 3
√
6 6
0
!
√
,
2 2
0
1 2
0
−
√
2 2
0
− 21 0
!)
! r
1
,
=
2
264
CAP´ ITULO 5. ESPACIOS VECTORIALES REALES
Cap´ıtulo 6
TRANSFORMACIONES LINEALES
6.1
DEFINICION Y PROPIEDADES
Definici´ on 1 Sean V y W espacios vectoriales, T : V → W una funci´on definida en V y con valores en W , si T es tal que − → i. Para todo → v 1, − v2∈V
→ → → → T (− v1+− v 2 ) = T (− v 1 ) + T (− v 2)
→ ii. Para todo λ ∈ R, para todo − v ∈ V,
→ → T (λ− v ) = λT (− v)
Decimos que T es una Transformaci´ on Lineal.(Aplicaci´ on lineal)
Tambi´en decimos que una aplicaci´ on lineal es un homomorfismo o simplemente morfismo de espacios vectoriales. Ejemplo 1 T : R3 −→ R2 ,
Definida por T (x, y, z) = (z, y) es lineal por que
T [(x1 , y1 , z1 ) + (x2 , y2 , z2 )]
=
T (x1 + x2 , y1 + y2 , z1 + z2 ) = (z1 + z2 , y1 + y2 )
T (x1 , y1 , z1 ) + T (x2 , y2 , z2 )
=
(z1 , y1 ) + (z2 , y2 ) = (z1 + z2 , y1 + y2 )
265
266
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
evidentemente las expresiones de la derecha son iguales. T [λ(x, y, z)]
=
T (λx, λy, λz) = (λz, λy) = λ(z, y)
λT (x, y, z)
=
λ(z, y)
evidentemente las expresiones de la derecha son igules. Ejemplo 2 La aplicaci´ on T : M (n, m)−→M (m, n) que
definida por T (A) = AT es lineal, puesto
T (A + B)
=
(A + B)T = AT + B T = T (A) + T (B)
T (λA)
=
(λA) = λAT = λT (A)
T
Ejemplo 3 −→ La aplicaci´ on L : S −→ R3 , definida por L(OA) = (a, b, c) donde A = (a, b, c) es una aplicaci´ on lineal(S es el espacio usual). Ejemplo 4 → → → Si V es un espacio vectorial y B = {− v 1, − v 2, · · · , − v n } una base deV , la aplicaci´on T : V −→M (n, 1), definida por → → T (− v ) = [− v ]B es lineal.
k=n k=n P P − → − − µk − u k α, β ∈ R λk → vk y → u = En efecto, si → v = k=1
tenemos
k=1
→ → α− v + β− u =
k=n X
→ (αλk + βµk ) − vk
k=1
en consecuencia → → → → − − T (α− v + β− u ) = α [− v ]B + β [− u ]B = αT (→ v ) + βT (→ u)
267
6.1. DEFINICION Y PROPIEDADES
Ejemplo 5 La aplicaci´ on L : Pn [x] −→ Rn+1 , definida por L(a0 + a1 x + a2 x2 + · · · + an xn ) = (a0 , a1 , · · · , an ) es lineal por que
= =
L [(a0 + a1 x + · · · + an xn ) + (b0 + b1 x + · · · + bn xn )] L (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + · · · + (an + bn )xn
(a0 + b0 , a1 + b1 , a2 + b2 , · · · , an + bn )
(1)
De otro lado:
= =
L(a0 + a1 x + · · · + an xn ) + L(b0 + b1 x + · · · + bn xn )
(a0 , a1 , · · · , an ) + (b0 , b1 , · · · , bn )
(a0 + b0 , a1 + b1 , a2 + b2 , · · · , an + bn )
Evidentemente (1),(2) son iguales. Adem´ as: L λ(a0 + a1 x + a2 x2 + · · · + an xn )
= = = =
(2)
L(λa0 + λa1 x + · · · + λan xn )
(λa0 , λa1 , · · · , λan ) λ(a0 , a1 , · · · , an )
λL(a0 + a1 x + · · · + an xn )
Ejemplo 6 Sea A ∈ M (m, n), LA : Mn×1 (R) −→ Mm×1 (R) , definida por: Si x1 x2 X= . ; .. xn LA [X] = AX, LA es lineal. Proposici´ on 1 Si T : V → W es lineal entonces
268
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
→ − → − 1. T ( 0 ) = 0 − → → 2. Para todo → v ∈ V, T (−− v ) = −T (− v) − → → 3. Para todo λ1 , · · · , λn ∈ R, y para todo → v 1, − v 2, · · · , − v n ∈ V,
T
k=n X
− vk λk →
k=1
!
=
k=n X
→ λk T (− v k)
k=1
Prueba.− → − → − − → → − → − → − → − 1. Basta ver que T ( 0 ) = T ( 0 + 0 ) = T ( 0 ) + T ( 0 ) y por lo tanto T ( 0 ) = 0 . → − → − → → → 2. Basta observar que T (− v ) + T (−− v ) = T (v + (−− v )) = T ( 0 ) = 0 . 3. Ejercicio para el lector.(Inducci´ on)
Observaci´ on.− → − → Note que T aplica el 0 del espacio V en el 0 del espacio W , los cuales no necesariamente son iguales. Proposici´ on 2 → → → → → → Sean V y W espacios vectoriales, B = {− v 1, − v 2, · · · , − v n } una base de V , − w 1, − w 2, · · · , − wn ∈ W no necesariamente distintos, entonces existe una u ´nica aplicaci´ on lineal T : V → W → → tal que para todo i, 1 ≤ i ≤ n T (− v i) = − w i. Prueba.− k=n k=n P − P − → − − w k , entonces: λk → v k definimos T (− v)= λk → Si → v ∈ V, entonces → v = k=1
i Para todo i, 1 ≤ i ≤ n ii T es lineal
→ → T (− v i) = − w i.
k=1
269
6.1. DEFINICION Y PROPIEDADES
k=n P − − λk → vk y Si → v1= k=1
k=n P → − → µk − v k entonces v2= k=1
k=n X
− → T (→ v1+− v 2) = T
k=n X
− λk → vk+
k=1
k=1
k=n X
→ (λk + µk )− vk
=T
k=1
=
k=n X
→ (λk + µk )− wk =
k=1
=T
k=n X
→ λk − vk
k=1
!
− µk → vk !
k=n X
!
→ wk + λk −
k=n X
→ µk − vk
k=1
− → = T (→ v 1 ) + T (− v 2)
→ wk µk −
k=1
k=1
+T
k=n X
!
k=n P − − v k entonces λk → Si λn ∈ R, → v = k=1
→ T (λ− v)=T
λ
k=n X
− λk → vk
k=1
=T
k=n X
− vk λλk →
k=1
=
k=n X
!
→ λλk − wk
k=1
=λ
!
k=n X
→ λk − vk
k=1
!
→ = λT (− v)
Finalmente si L : V → W es lineal y tal que para todo i, 1 ≤ i ≤ n → entonces para todo − v ∈ V, k=n k=n k=n P − P P → → → → λ → w = T (− v) λ L(− v )= = λ − v L(− v)=L k
k=1
k
k
k=1
k
k
k
→ → L(− v i) = − w i,
k=1
La conclusi´on de la proposici´on nos permite afirmar que toda aplicaci´on lineal T : V → W est´ a un´ıvocamente determinada por sus valores en los elementos de una base de V .
270
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Proposici´ on 3 Si T : V → W es lineal, U un subespacio de V, − → → − entonces T (U ) = {→ w ∈ W | existe − u ∈ U tal que T (− u) = → w } es un subespacio de W. Prueba.− → − → − i Puesto que T ( 0 ) = 0 ,
− → 0 ∈ T (U )
− → − → ii Si → w 1, − w 2 ∈ T (U ) entonces existen → u 1, − u 2 ∈ U tales que → → → → T (− u 1) = − w 1 y T (− u 2) = − w2 en consecuencia − → → w1 + − w2
= =
→ → T (− u 1 ) + T (− u 2) → − → − T( u + u ) 1
2
− → por lo tanto (→ w1 + − w 2 ) ∈ T (U )
→ → → → iii Si λ ∈ R, − w ∈ T (U ), entonces existe − u ∈ U tal que T (− u)=− w y en consecuencia → λ− w
= =
→ λT (− u) → − T (λ u ) ∈ T (U )
6.2
ALGEBRA DE APLICACIONES LINEALES
Consideramos V, W dos espacios vectoriales fijos, notamos £(V, W ) = {L | L : V −→ W, lineal}. Las operaciones que dan a hW, +, .i estructura de Espacio Vectorial, nos permiten definir una adici´ on sobre £(V, W ) y una multiplicaci´ on de un real por un elemento de £(V, W ).
Definici´ on 2 Sean L, T ∈ £(V, W ), λ ∈ R, definimos
6.2.
271
ALGEBRA DE APLICACIONES LINEALES
→ → → − i (L + T ) : V −→ W, por (L + T ) (− v ) = L(− v ) + T (− v ) para todo → v ∈ V. ii (λL) : V −→ W,
→ → − por (λL) (− v ) = λL(− v ) para todo → v ∈V
Proposici´ on 4 Sean V, W dos espacios vectoriales, £(V, W ) con las operaciones de la definici´on 2 tiene estructura de espacio vectorial.
Prueba.− Sean L, T ∈ £(V, W ), − → 1. Si → v 1, − v2 ∈V; → → v1+− v 2) (L + T ) (−
→ → → → = L(− v1+− v 2 ) + T (− v1+− v 2) → − → − → − → = [L( v 1 ) + L( v 2 )] + [T ( v 1 ) + T (− v 2 )] → − → − → − → − = [L( v ) + T ( v )] + [L( v ) + T ( v )] 1
1
2
− → = (L + T ) (→ v 1 ) + (L + T ) (− v 2) − 2. µ ∈ R, → v ∈ V, → (L + T ) (µ− v)
= = = =
→ → L(µ− v ) + T (µ− v) → − → − µL( v ) + µT ( v )
→ → µ [L(− v ) + T (− v )] → − µ (L + T ) ( v )
De (1) y (2) (L + T ) ∈ £(V, W ) − → 3. Si → v 1, − v2 ∈V; → → (λL) (− v1+− v 2)
→ → = λ.L(− v1+− v 2) → − → = λ (L( v 1 ) + L(− v 2 )) → − → − = λL( v ) + λL( v ) 1
2
− → = (λL) (→ v 1 ) + (λL) (− v 2)
2
272
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
− 4. Si µ ∈ R, → v ∈ V,
→ (λL) (µ− v)
= = = = =
→ λ (L(µ− v )) → − λ (µL( v ))
→ (λµ) L(− v) → − µ (λL( v ))
→ µ [(λL) (− v )]
De (3) y (4) (λL) ∈ £(V, W ) → − → → La aplicaci´ on O : V −→ W, definida por O(− v ) = 0 para todo − v ∈ V se comporta como identidad (m´ odulo) de la adici´on. → Para cada L : V −→ W, la aplicaci´ on (−L) : V −→ W definida por (−L)(− v) = → − → − − (L( v )) para todo v ∈ V es el opuesto de L. Las dem´ as propiedades se deducen inmediatamente de las correspondientes en W . Proposici´ on 5 Sean V, W, U espacios vectoriales, L : V −→ W lineal y T : W −→ U lineal entonces → → (T ◦ L) : V −→ U, definida por (T ◦ L)(− v ) = T [L(− v )] es lineal. Prueba.− Ejercicio para el lector. Proposici´ on 6 Sean V y W dos espacios vectoriales reales de dimensi´on finita entonces £(V, W ) es de dimensi´on finta y Dim (£(V, W )) = Dim(V )Dim(W ) Prueba.− → → → → → → Consideremos B = {− v 1, − v 2, · · · , − v n } y B ′ = {− w 1, − w 2, · · · , − w m } bases ordenadas fijas de V y W respectivamente. Para cada (r, s) ∈ [1, m] × [1, n] sea Lr,s : V → W , definida por ( → − w r si s = k → Lr,s (− v k) = → − 0 si s 6= k
6.2.
ALGEBRA DE APLICACIONES LINEALES
273
Basta probar que B = {Lr,s |(r, s) ∈ [1, m] × [1, n]} es una base de £(V, W ). Sea entonces L : V → W tal que → → → → wm w 2 + · · · + αm1 − w 1 + α21 − L(− v 1 ) = α11 − .. . → − → − → → L( v k ) = α1k w 1 + α2k − w 2 + · · · + αmk − wm .. . → → → → L(− v n ) = α1n − w 1 + α2n − w 2 + · · · + αmn − wm Probaremos que L =
r=m P r=1
r=m X r=1
s=n P
s=n X
s=1
αrs Lr,s , sea entonces k, 1 ≤ k ≤ n
αrs Lr,s
s=1
!!
− (→ v k) = =
r=m X
r=1 r=m X
→ αrk Lr,k (− v k) → → αrk − w r = L (− v k)
r=1
es decir las aplicaciones lineales
r=m P r=1
s=n P
αrs Lr,s
s=1
los elementos de la base B en consecuencia r=m X
L=
r=1
s=n X
αrs Lr,s
s=1
y L coinciden en cada uno de !
es decir B es un sistema de generadores. De otro lado, sea
r=m P r=1
s=n P
λrs Lr,s
s=1
= O una combinaci´on lineal nula de vectores de
B,entonces para cada k, 1 ≤ k ≤ n r=m X r=1
es decir
r=m P r=1
s=n X s=1
λrs Lr,s
!!
→ − → (− v k) = 0
→ − → λrk − w r = 0 y como B ′ es base de W entonces para todo r, 1 ≤ r ≤ n
se tiene que λrk = 0 y por tanto B es un conjunto L.I. Obviamente B tiene mn elementos y la prueba termina.
274
6.3
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
NUCLEO E IMAGEN
Definici´ on 3 Sea T : V → W lineal, → − → → ker(T ) = {− v ∈ V | T (− v ) = 0 } ⊂ V se denomina el Nucleo de T. Definici´ on 4 Sea T : V → W lineal, → − → − Im(T ) = {− w ∈ W | existe → v ∈ V tal que T (− v)=→ w } ⊂ W se denomina la Imagen de T. Observaci´ on. Evidentemente Im(T ) no es otra cosa que el recorrido de T, vista como funci´on del conjunto V en el conjunto W. Proposici´ on 7 Sea T : V → W lineal, ker(T ) es un subespacio de V Prueba.− → − → − i Puesto que T ( 0 ) = 0 ,
− → 0 ∈ ker(T )
→ − → − → → → → ii Si − v 1, − v 2 ∈ ker(T ) entonces T (− v 1 ) = 0 , T (− v 2 ) = 0 en consecuencia → → T (− v1+− v 2)
→ → = T (− v 1 ) + T (− v 2) → − − → = 0 + 0 → − = 0
− → es decir (→ v1+− v 2 ) ∈ ker(T )
→ iii Si λ ∈ R, − v ∈ ker(T )
→ − → entonces T (− v ) = 0 y por tanto → T (λ− v)
= = =
− es decir λ→ v ∈ ker(T )
→ λT (− v) → − λ0 → − 0
6.3. NUCLEO E IMAGEN
275
Proposici´ on 8 Sea T : V → W lineal, Im(T ) es un subespacio de W. Prueba.− Basta aplicar la proposici´on 3. con U = V.
Proposici´ on 9 → − Sea T : V → W lineal, T es inyectiva si y solo si ker(T ) = { 0 } Prueba.− − Suponemos T inyectiva y sea → u ∈ ker(T ), en consecuencia → − → − → T (− u ) = 0 = T( 0 )
→ − → − → por lo tanto − u = 0 por tanto ker(T ) = { 0 }. → − → → Rec´ıprocamente, suponemos ker(T ) = { 0 } y − v 1, − v 2 ∈ V tales que → → T (− v 1 ) = T (− v 2) entonces
→ − → → T (− v1−− v 2) = 0
y en consecuencia
→ − − → → v1−− v2= 0
es decir
− → → v1=− v2
y por tanto T es inyectiva.
Proposici´ on 10 → − − → → Sea T : V → W lineal, tal que ker(T ) = { 0 } , B = {→ u 1, − u 2, · · · , − u s } ⊂ V, un conjunto L.I. entonces
es un conjunto L.I.
→ → → e = {T (− B u 1 ), T (− u 2 ), · · · , T (− u s )} ⊂ W
276
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Prueba.− → − → → → Suponemos λ1 T (− u 1 ) + λ 2 T (− u 2 ) + · · · + λs T (− u s ) = 0 , entonces → − → → → T (λ1 − u 1 + λ2 − u 2 + · · · + λs − u s) = 0 es decir → − → → → (λ1 − u 1 + λ2 − u 2 + · · · + λs − u s ) ∈ ker(T ) = { 0 }, por tanto → − → → → us = 0, u 2 + · · · + λs − u 1 + λ2 − λ1 − y puesto que B es L.I. entonces λ1 = λ2 = · · · = λs = 0 es decir → → → u 1 ), T (− u 2 ), · · · , T (− u s )} ⊂ W es un conjunto L.I. {T (−
Definici´ on 5 La dimensi´on de ker(T ) se denomina la Nulidad de T y se nota η(T ) Definici´ on 6 La dimensi´on de Im(T ) se denomina el Rango de T y se nota ρ(T ) Proposici´ on 11 Sea T : V → W lineal, T es epiyectiva o sobre si y solo si ρ(T ) = Dim(W ) Prueba.− Suponemos T es epiyectiva entonces Im(T ) = W y en consecuencia Dim(W ) = Dim(Im(T )) = ρ(T ) Rec´ıprocamente, suponemos ρ(T ) = Dim(W ) entonces Im(T ) es un subespacio de W talque Dim(W ) = Dim(Im(T ) por lo tanto Im(T ) = W.
277
6.3. NUCLEO E IMAGEN
Proposici´ on 12 Sea T : V → W lineal, T es epiyectiva o sobre si y solo si Im(T ) = W Prueba.− Consecuencia directa de la proposici´on 11.
TEOREMA 1 Sea T : V → W lineal entonces η(T ) + ρ(T ) = Dim(V ) Prueba.− → − → → → Supongamos ker(T ) 6= { 0 }, ker(T ) 6= V, consideremos U = {− v 1, − v 2, · · · , − v r } con 1 ≤ r < Dim(V ) = n, una base de ker(T ) y construimos → → → → → → B = {− v 1, − v 2, · · · , − v r, − v r+1 , − v r+2 , · · · , − v n} una base de V, basta verificar que Dim(Im(T )) = n − r → → → − Sea entonces − w ∈ Im(T ), existe − v ∈ V, tal que T (− v)=→ w y puesto que B es una base de V , k=n P − → − λ → v , en consecuencia: v = k
k
k=1
− → → w = T (− v) =T
k=n X k=1
− λk → vk
!
→ → → → → = λ 1 T (− v 1 ) + · · · + λ r T (− v r ) + λr+1 T (− v r+1 ) + λr+2 T (− v r+2 ) + · · · + λn T (− v n) → − → − → − → − → − = λ 0 + ··· + λ 0 + λ T( v ) + λ T( v ) + ··· + λ T( v ) 1
r
r+1
r+1
r+2
r+2
n
n
− → → = λr+1 T (→ v r+1 ) + λr+2 T (− v r+2 ) + · · · + λn T (− v n)
→ → → En consecuencia {T (− v r+1 ), T (− v r+2 ), · · · , T (− v n )} es un sitema de generadores de Im(T ) → − → → → Por otra parte, si µ1 T (− v r+1 ) + µ2 T (− v r+2 ) + · · · + µn−r T (− v n ) = 0 entonces − → → → → v r+1 + µ2 − v r+2 + · · · + µn−r − v n) = 0 T (µ1 − es decir
278
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
→ → → (µ1 − v r+1 + µ2 − v r+2 + · · · + µn−r − v n ) ∈ ker(T ) por tanto, existen escalares λ1 , · · · , λr tales que: → → → → → µ1 − v r+1 + µ2 − v r+2 + · · · + µn−r − v n = λ1 − v 1 + · · · + λr − vr es decir → − → → → → → v r + (−µ1 )− v r+1 + (−µ2 )− v r+2 + · · · + (−µn−r )− vn= 0 v 1 + · · · + λr − λ1 − y como B es una base de V , conclu´ımos que λ1 = · · · = λr = (−µ1 ) = (−µ2 ) = · · · = (−µn−r ) = 0 en particular µ1 = µ2 = · · · = µn−r = 0 ; es decir → → → {T (− v r+1 ), T (− v r+2 ), · · · , T (− v n )} es un conjunto L.I. → − → → → → → → Si ker(T ) = { 0 }, y B = {− v 1, − v 2, · · · , − v n } es una base de V entonces {T (− v 1 ), T (− v 2 ), · · · , T (− v n )} es L.I. y por lo tanto una base de Im(T ) en consecuencia Dim(V ) = 0+Dim(Im(T )) → − Finalmente si ker(T ) = V entonces Im(T ) = { 0 } y por tanto Dim(V ) = n + 0 Proposici´ on 13 Sean V y W espacios vectoriales, si T : V → W es una aplicaci´ on lineal biyectiva entonces Dim(V ) = Dim(W )
Prueba.− Consecuencia inmediata de las proposiciones 9, 10 y 11 y el Teorema1. (Ejercicio para el lector)
6.3. NUCLEO E IMAGEN
279
Proposici´ on 14 Sean V y W espacios vectoriales, si T : V → W es una aplicaci´ on lineal biyectiva −1 entonces T : W → V es lineal. Prueba.− − Recordemos inicialmente que para cada → w ∈ W, → → T −1 (− w) = − v → → → (− v es el u ´nico elemento de V tal que T (− v)=− w ). → − − → → − − → → → ´nicos y tales que T (− v 1) = − w1 Sean entonces w 1 , w 2 ∈ W , existen v 1 , v 2 ∈ V u → − → − → − − → → − → − → − → − y T ( v 2 ) = w 2 puesto que T es lineal T ( v 1 ) = w 1 y T ( v 1 + v 2 ) = w 1 + w 2 y en consecuencia → → → → → → T −1 (− w1 + − w 2) = − v1+− v 2 = T −1 (− w 1 ) + T −1 (− w 2) → → → − Adem´ as, si λ ∈ R y − w ∈ W existe un u ´nico − v ∈ V tal que T (− v)=→ w por tanto → − → − → → − → −1 − −1 − T (λ v ) = λ w y en consecuencia T (λ w ) = λ v = λT ( w ) Definici´ on 7 Sean V y W espacios vectoriales, si T : V → W es una aplicaci´ on lineal biyectiva decimos que T es un isomorfismo de espacio vectorial y que los espacios V y W son isomorfos. Ejemplo 7 → S y R3 son isomorfos; la aplicaci´ on definida por L(− v ) = (a, b, c) es un isomorfismo. Ejemplo 8 Pn [x] y Rn+1 son isomorfos; la aplicaci´ on definida por 2 n T (a0 + a1 x + a2 x + · · · + an x ) = (a0 , a1 , · · · , an ) es un isomorfismo. Ejemplo 9 Sea W = {(x, y, 0) | x ∈ R, y ∈ R} subespacio de R3 , entonces L : R2 −→ W, definnida por L(x, y) = (x, y, 0) es un isomorfismo.
280
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Ejemplo 10 Rn y M (n, 1) son isomorfos; la aplicaci´ on definida por a1 a2 L((a1 , a2 , · · · , an ) = . es un isomorfismo. .. an TEOREMA 2 Todo espacio vectorial real de dimensi´on finita es ismorfo a un espacio Rn . Prueba.− − → → v 1, − v 2, · · · , − v n } una base Sea V un espacio vectorial de dimensi´on finita, B = {→ → − n ordenada de V , definimos L : V → R de la siguiente manera, si v ∈ V es tal que k=n P − → → − λ→ v definimos L(− v ) = (λ , λ , · · · , λ ) . v = i
i
1
2
n
k=1
Claramente L es un isomorfismo.
Definici´ on 8 Una transformaci´on lineal T : V → V se denomina un operador lineal sobre V Proposici´ on 15 Sea un operador lineal T : V → V definido en un espacio eucideo V,con producto interno hi , entonces las siguientes afirmaciones son equivalentes:
− → → → → → a Para todo → v 1, − v 2 ∈ V se tiene hT (− v 1 ), T (− v 2 )i = h− v 1, − v 2i
− → → b Para todo → v ∈ V se tiene kT (− v )k = k− vk
− → → → → → c Para todo → v 1, − v 2 ∈ V se tiene kT (− v 1 ) − T (− v 2 )k = k− v1−− v 2k
Prueba.− (a)=⇒(b)
6.3. NUCLEO E IMAGEN
281
p − → → → Sea → v ∈ V entonces kT (− v )k = hT (− v ), T (− v )i pero por (a): p
p→ − → → → hT (− v ), T (− v )i = h− v ,→ v i = k− vk
(b)=⇒(c)
→ → → → → → Sean − v 1, − v 2 ∈ V entonces kT (− v 1 ) − T (− v 2 )k = kT (− v1−− v 2 )k pero por (b): → → → → kT (− v1−− v 2 )k = k− v1−− v 2k (c)=⇒(a) − → Sean → v 1, − v 2 ∈ V entonces 2 → → → → → → kT (− v 1 ) − T (− v 2 )k = hT (− v 1 ) − T (− v 2 ), T (− v 1 ) − T (− v 2 )i 2 2 → → → → = kT (− v 1 )k + kT (− v 2 )k − 2 hT (− v 1 ), T (− v 2 )i
y
2 2 2 → → → → → → k− v1−− v 2 k = k− v 1 k + k− v 2 k − 2 h− v 1, − v 2i ,
en consecuencia por (c) → → → → −2 hT (− v 1 ), T (− v 2 )i = −2 h− v 1, − v 2i → → → → es decir hT (− v 1 ), T (− v 2 )i = h− v 1, − v 2i
Adem´ as tambi´en puede probarse que: (c)=⇒(b) → − − − → − Sea → v ∈ V basta aplicar (c) con → v =− v1 y → v2 = 0. Definici´ on 9 Un operador lineal T : V → V definido en un espacio eucideo V, con producto interno
282
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
→ → → → hi ,se denomina una isometr´ıa si para todo − v 1, − v 2 ∈ V se tiene que kT (− v 2 ) − T (− v 1 )k = → → k− v2−− v 1k Proposici´ on 16 Sea T : V → V una isometr´ıa definida en un espacio eucideo V, con producto in→ → → → terno hi, entonces si − v 1, − v 2 ∈ V son tales que α es el ´angulo entre − v1 y − v2 → − → − − → − → entonces α es el ´ angulo entre T ( v 1 ) y T ( v 2 ) en particular si h v 1 , v 2 i = 0 entonces → → hT (− v 1 ), T (− v 2 )i = 0. Prueba.− → − → − → − → − Sean α es el ´ angulo entre v 1 y v 2 y β es el ´angulo entre T ( v 1 ) y T ( v 2 ) entonces → − → − v , v h 1 2i α = arccos pero por hip´ otesis − − v 1 kk→ v 2k k→ → → → → hT (− v 1 ), T (− v 2 )i h− v 1, − v 2i = → − → − → − → k v 1k k v 2k kT ( v 1 )k kT (− v 2 )k en consecuencia α = β
6.4
TRANSFORMACIONES LINEALES Y MATRICES
En la secci´on 6.1 asociamos de manera natural una aplicaci´ on lineal LA : Mn×1 −→ Mm×1 a cada matriz A ∈ M (m, n), en esta efectuamos el proceso inverso, es decir, asociamos una matriz a cada aplicaci´ on lineal para concluir que para todos los efectos del Algebra Lineal podemos identificar unas con otras. El ejemplo 10 de la secci´on anterior nos permite hablar indistintamente de Rn o Mn×1, y de Rm o Mm×1, igualmente podemos notar los elementos de Rn en forma horizontal y/o vertical. Proposici´ on 17 Sea T : Rn −→ Rm lineal, entonces existe una matriz A tama˜ no mxn tal que
283
6.4. TRANSFORMACIONES LINEALES Y MATRICES
Si X =
x1 x2 .. . xn
;
LA [X] = AX
Prueba.−
X=
x1 x2 .. . xn
significa
X = x1
1 0 .. . 0
+ x2
0 1 0 .. .
+ · · · + xn
→ − → − → − = x1 E 1 + x2 E 2 + · · · + xn E n ,
entonces si
0 0 .. . 1
→ − − → → − → − T ( E 1 ) = α11 E 1 + α21 E 2 + · · · + αm1 E m .. . → − − → → − → − T ( E j ) = α1j E 1 + α2j E 2 + · · · + αmj E m .. . → − → − → − → − T ( E n ) = α1n E 1 + α2n E 2 + · · · + αmn E m
basta definir A como la matriz tama˜ no mxn, cuya columna j es la matriz vector → − m columna T ( E j ) ∈ R
A=
h
→ i − T ( E 1)
h
→ i − T ( E 2)
h − i → · · · T ( E n) =
α11 α21 .. . αi1 .. . αm1
α12 α22 .. . αi2 .. . αm2
··· ··· ... ···
α1j α2j .. . αij .. . αmj
··· ··· ··· ···
α1n α2n .. . αin .. . αmn
284
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
y en consecuencia → − → − → − T (X) = T (x1 E 1 + x2 E 2 + · · · + xn E n ) → − → − → − = x1 T ( E 1 ) + x2 T ( E 2 ) + · · · + xn T ( E n ) =
j=n X
→ − xj T ( E j )
j=1
=
j=n X j=1
=
j=n X
→ − → − → − xj (α1j E 1 + α2j E 2 + · · · + αmj E m ) xj
j=1
=
k=m X k=1
= AX
k=m X k=1
j=n X j=1
− → αkj E k
!
→ − αkj xj E k
Ejemplo 11
Proposici´ on 18 → → → Sean V, W espacios vectoriales y B = {− v 1, − v 2, · · · , − v n }, → − − → − → ′ B = { w 1 , w 2 , · · · , w m } bases ordenadas de V y W respectivamente y sea T : V → W lineal, entonces existe una matriz A tama˜ no mxn tal que → → v ]B [T (− v )]B ′ = A [− Prueba.− Basta construir A y verificar la igualdad, para tal efecto definimos A como la matriz → cuya columna j, 1 ≤ j ≤ n es la matriz de coordenadas de la imagen de − v j respecto de B ′ , es decir:
285
6.4. TRANSFORMACIONES LINEALES Y MATRICES
Si
→ → → → wm w 2 + · · · + αm1 − w 1 + α21 − T (− v 1 ) = α11 − .. . → − → − → → T ( v j ) = α1j w 1 + α2j − w 2 + · · · + αmj − wm .. . → → → → wm w 2 + · · · + αmn − w 1 + α2n − T (− v n ) = α1n −
entonces
→ A = ([T (− v 1 )]B ′
→ [T (− v 2 )]B ′
→ v ∈ V, Ahora, si −
→ − · · · [T ( v n )]B ′ ) =
k=n P − → − → λk → v k y T (− v)=T v = k=1
es decir
→ T (− v)=
k=n X
k=n P k=1
α11 α21 .. . αi1 .. . αm1
− λk → vk
α12 α22 .. . αi2 .. . αm2
=
k=n P k=1
··· ··· ... ···
α1j α2j .. . αij .. . αmj
··· ··· ··· ···
α1n α2n .. . αin .. . αmn
→ λk T (− v k)
→ λk T (− v k)
k=1
=
k=n X k=1
=
k=n X k=1
=
i=m X i=1
=
i=m X i=1
→ → → w m) w 2 + · · · + αmk − w 1 + α2k − λk (α1k − λk
i=m X
→ αik − wi
i=1
k=n X k=1
αik λk
!
− → wi
→ → wi A(i) [− v ]B −
luego → → [T (− v )]B ′ = A [− v ]B
(*)
286
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Definici´ on 10 → → → → → → Sean V, W espacios vectoriales y B = {− v 1, − v 2, · · · , − v n }, B ′ = {− w 1, − w 2, · · · , − w m} bases ordenadas de V y W respectivamente y sea T : V → W lineal, la matriz A cuya existencia garantiza la proposici´on anterior se denomina la matriz asociada a T , B′ respecto de las bases B y B ′ y se nota A = [T ]B , con esta notaci´on la ecuaci´on (*) se escribe: B′ → → v ]B [T (− v )]B ′ = [T ]B [−
Ejemplo 12
Proposici´ on 19 → → → → → → Sean V, W, U espacios vectoriales, B = {− v 1, − v 2, · · · , − v n }, B ′ = {− w 1, − w 2, · · · , − w m }, B ′′ = → − − → − → { u 1 , u 2 , · · · , u s } bases ordenadas de V, W y U respectivamente, L : V −→ W lineal y T : W −→ U lineal entonces B ′′
B′
B ′′
[T ◦ L]B = [T ]B ′ [L]B Prueba.− B ′′
B ′′
B′
Suponemos A = [L]B , C = [T ]B ′ y D = [T ◦ L]B → consideramos − v ∈ V, entonces B′ → → → − v ]B = A [ − v ]B , y [L( v )]B ′ = [L]B [− B ′′ → − → − [T (L( v ))] = [T ] [L( v )] B ′′
B′
B′
por lo tanto B′ → B ′′ → → → v ]B = C (A [− [T (L(− v ))]B ′′ = [T ]B ′ [L]B [− v ]B ) = (CA) [− v ]B
por otra parte
B ′′ → → → v ]B = D [− v ]B [(T ◦ L) (− v )]B ′′ = [T ◦ L]B [−
en consecuencia (CA) = D
6.5. TRANSFORMACIONES LINEALES Y MATRICES EN GEOMETRIA PLANA ELEMENTAL.
287
TEOREMA 3 → → → → → → Sean V, W espacios vectoriales y B = {− v 1, − v 2, · · · , − v n }, B ′ = {− w 1, − w 2, · · · , − w m} bases ordenadas fijas de V y W respectivamente entonces la trasformaci´ on Ψ : £(V, W ) −→ B′ M (m, n) definida por Ψ(L) = [L]B es un isomorfismo entre (V, W ) y M (m, n). Prueba.− La verificaci´on de la linealidad de la transformaci´on Ψ es un c´alculo de rutina, el lector interesado puede realizarlo como ejercicio. B′ Por otra parte, si L ∈ ker(Ψ) entonces Ψ [L] = [L]B = 0 ∈ M (m, n) por tanto para → todo − v ∈ V, → − B′ → → → − v ]B = 0 [− v ]B = 0 ∈ W [L( v )]B ′ = [L]B [− → − → → en consecuencia para todo − v ∈ V, L(− v ) = 0 es decir L = O, por tanto ker(Ψ) = {O} en consecuencia Ψ es inyectiva y por el teorema de rango mas nulidad Ψ es epiyectiva.
6.5
TRANSFORMACIONES LINEALES Y MATRICES EN GEOMETRIA PLANA ELEMENTAL.
En esta secci´on estudiamos algunos operadores lineales sobre R2 y su interpretaci´ on geom´etrica. En todos los casos presentamos nla ecuaci´ o n que lo define, su matriz → − − →o asociada respecto de la base can´ onica B = i, j y un caso espec´ıfico de la imagen de un objeto de R2 . Las operaciones entre matrices y el producto escalar en R2 son los usuales 1. El operador lineal Rx : R2 → R2 , definido por la ecuaci´ on Rx (x, y) = (x, −y) es la reflexi´ on de un punto del plano sobre su sim´etrico respecto del eje x. Puesto que
Rx (1, 0) = (1, 0)
y
B [Rx ]B
Rx (0, 1) = (0, −1) =
1 0 0 −1
!
entonces
288
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Ejemplo 13 Consideramos la figura plana constituida por el segmento AB, d de la par´ A = (1, 1), B = (5, 1) y el arco AB abola y = 5 − (x − 3)2 = −x2 + 6x − 4.
Describimos el segmento en la forma AB = {(x, y)| 1 ≤ x ≤ 5, y = 1} su imagen es A′ B ′ = {(x, y)| 1 ≤ x ≤ 5, y = −1} ; y puesto que 1 0 0 −1
!
x 2 −x + 6x − 4
!
=
x 2 x − 6x + 4
!
′ B ′ de la par´ d es el arco A [ la imagen del arco AB abola
y = x2 − 6x + 4
. .....
. .....
.......... ..... ........ ... ... ... ... .. .. . ... .. ... ... . ... . . . .. . .. ... .. ... .. A. B
Rx − →
...... .
...... .
A’.....
. ..B’ .. .. ... .. . . ... ... ... .. ... .. .. ... .. . ... . .. .... .....................
2. El operador lineal Ry : R2 → R2 , definido por la ecuaci´ on Ry (x, y) = (−x, y) es la reflexi´ on de un punto del plano sobre su sim´etrico respecto del eje y. Puesto que Ry (1, 0) = (−1, 0)
y
Ry (0, 1) = (0, 1) ! −1 0 B [Ry ]B = 0 1
entonces
6.5. TRANSFORMACIONES LINEALES Y MATRICES EN GEOMETRIA PLANA ELEMENTAL.
289
Ejemplo 14 Consideramos la curva de ecuaci´ on 9(x − 4)2 + 16y 2 − 144 = 9x2 − 72x + 16y 2 = 0 su imagen es 9(−x)2 − 72(−x) + 16y 2
=
9x2 + 72x + 16y 2
=
9(x + 4)2 + 16y 2 − 144
=
0
......
......
.......................................................... .......... ...... ....... ..... .... .... . . . . ... ... ... .... .... . ... .... .... ... .. ... . . .... . . . . ..... ..... ....... ...... .......... .................... ............................. ...........
Ry − →
.......................................................... .......... ...... ...... ..... ..... .... . . . ... ... ... .... ... . .... ... ... ... .. . . .... . . . . ..... ..... ...... ..... .......... ..........................................................
......
3. El operador lineal R0 : R2 → R2 , definido por la ecuaci´ on R0 (x, y) = (−x, −y) es la reflexi´ on de un punto del plano sobre su sim´etrico respecto del origen. R0 (0, 1) = (0, −1) ! −1 0 B [R0 ]B = 0 −1
Puesto que R0 (1, 0) = (−1, 0)
y
Ejemplo 15 Consideramos la curva de ecuaci´ on (x − 4)2 + 4(y − 3)2 = 4 su imagen es ((−x) − 4)2 + 4((−y) − 3)2 = 4 es decir (x + 4)2 + 4(y + 3) = 4
entonces
290
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
.....
.....
. ... ..... .... .... .... .......... .... .... . ............................................................ .......... . . . . . . ... .. ... ....... .... ........... ....... ......... .............. ........ ..... ..... ............ .... ................................................................ . . . . . . .. .. ... ... .... ................. ...................... ...................... ................. . . ...... . . ... ........... .................. ............................. . . . . . . ........... .... ... ........... .... .... ...... ..... ..... ... ...... ..... .... .... ............... ....... ...... . . . . . . . . .... ...... ..... ..... ...... ..... .... ....... ...... ......... ....... ... . . .... .... ..... . . . . . . . . . . .. ... ...
.. .... .... .... ..... .... .... ..... .... .... ........ .......... ........ . . . . . .. .. .. .... ..... ...... ....... .... .... ...... ....... .... ..... ..... ....... .... ............................. . . . . . . .. .. ... ... .... ................. ...................... ...................... ................. . . . . ... ...... ........... .................. ............................. . . . . . . ........... .... ... ........... .... .... .......................................... ... ........ ...... ..... ........... .... ..................... ....... ........... . . . . . . . ...... ... ..... ..... ............. ...... ......... .... . .. ...... ......... ............................................. . . .... .... ..... . . . . . . . . . . .. ... ...
R0 − →
4. El operador lineal Ri : R2 → R2 , definido por la ecuaci´ on Ri (x, y) = (y, x) es la reflexi´ on de un punto del plano sobre su sim´etrico respecto de la recta y = x. Puesto que Ri (1, 0) = (0, 1)
y
Ri (0, 1) = (1, 0) ! 0 1 B [Ri ]B = 1 0
entonces
Ejemplo 16 Consideremos el tri´angulo de v´ertices A = (1, 2), B = (1, 4), C = (3, 4) y hallemos su imagen: Encontremos,inicialmente, la imagen del segmento AB, A = (1, 2), B = (1, 4) descrito por las ecuaciones param´etricas x(t)
=
1
y(t)
=
2 + 2t
t ∈ [0, 1] . Calculamos 0 1 1 0
!
1 2 + 2t
!
=
2t + 2 1
!
y obtenemos el segmento A′ B ′ , A′ = (2, 1), B ′ = (4, 1) descrito por las ecuaciones param´etricas x(t)
=
2t + 2
y(t)
=
1
6.5. TRANSFORMACIONES LINEALES Y MATRICES EN GEOMETRIA PLANA ELEMENTAL.
291
t ∈ [0, 1] . Ahora, encontremos la imagen del segmento BC, B = (1, 4), C = (3, 4) descrito por las ecuaciones param´etricas x(t)
=
1 + 2t
y(t)
=
4
t ∈ [0, 1] . Calculamos 0 1
1 0
!
1 + 2t 4
!
=
4 2t + 1
!
y obtenemos el segmento B ′ C ′ , B ′ = (4, 1), C ′ = (4, 3) descrito por las ecuaciones param´etricas x(t)
=
4
y(t)
=
2t + 1
t ∈ [0, 1] . Finalmente, encontremos la imagen del segmento AC, A = (1, 2), C = (3, 4) descrito por las ecuaciones param´etricas
x(t)
=
1 + 2t
y(t)
=
2 + 2t
t ∈ [0, 1] . Calculamos 0 1
1 0
!
1 + 2t 2 + 2t
!
=
2t + 2 2t + 1
!
y obtenemos el segmento B ′ C ′ , B ′ = (2, 1), C ′ = (4, 3) descrito por las ecuaciones param´etricas x(t)
=
2 + 2t
y(t)
=
2t + 1
t ∈ [0, 1] .
292
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Geom´etricamente tenemos: ....
....
.. 5 ... ... ... . . . . . . . 4 B ..... C .... ...... . ..... ... ...... ... ...... . 3 . . . ... ... . . . . . . . .. ... ..... 2 A..... ........ . . . 1 ........
.. ... ... . . . ... ...
−2 −1 −1
1
2
3
4
5 4 3 2 1
.....
5
6
.. ... ... ... . . .. ... ... .. ′ ... . ...... . . . ...... ... ..... . . . . . . . .. ...... ... ..... ...... ... ...... ... ..... . . . ′ . . ′ . .. ... ... . . . ... ... ... ...
Ri − →
C
B
A
−2 −1 −1
1
2
3
4
5
.....
6
5. El operador lineal Sα : R2 → R2 , definido por la ecuaci´ on Sα (x, y) = (x cos α + y sin α, −x sin α + y cos α) es la rotaci´ on de un punto un a´ngulo α al rededor del origen. Puesto que Sα (1, 0) = (cos α, sin α)
y
Sα (0, 1) = (− sin α, cos α)
entonces B [Sα ]B
− sin α cos α
cos α sin α
=
!
Ejemplo 17 Encontremos la imagen por la rotaci´on un ´angulo forma param´etrica por las ecuaciones
1 2
1 2 √
S π3
3
B B
x(t)
=
4 cos t,
y(t)
=
2 sin t
√ ! − 12 3 1 2
=
cos π3 sin π3
4 cos t 2 sin t − sin π3 cos π3
!
=
!
=
π 3,
de la curva descrita en
! √ 2 cos t − 3 sin t √ sin t + 2 3 cos t
1 2
1 2 √
3
√ ! − 21 3 1 2
en consecuencia las ecuaciones param´etricas de la imagen se obtienen al calcular
6.5. TRANSFORMACIONES LINEALES Y MATRICES EN GEOMETRIA PLANA ELEMENTAL.
1 2
1 2 √
√ ! − 21 3 1 2
3
4 cos t 2 sin t
!
=
293
! √ 2 cos t − 3 sin t √ sin t + 2 3 cos t
gr´ aficamente tenemos: ....
.. ... .............................. . ... ......... . . . . . . . . . ...... ... ..... ..... ... ..... ... .. ..... ... .... .. . . . ... .. .. . . ... .. .. .. . . . .. .. .. . . . ... ... ... ... ... ... ... ... ... .. .. .. . . . ... ... ... .. ... ... .. .. ... ... ... .. . . . .... . ... .... ... ..... ... .. ..... ... .. ..... ... .... ...... . . . . ..... . . . .... ............................. ... ... ....
.................................. ................... ........... ........... ......... ........ ....... ....... ..... .... . .... . . ... ... . ... ..... . ... ... ... .. . .... .. . . ..... . ... . ....... . . . . ......... ... ........... ......... ............................................................
......
s π3 − →
......
Las reflexiones y la rotaci´on son algunos de los denominados movimientos r´ıgidos del plano; el otro la traslaci´ on, definido por la ecuaci´ on T (x, y) = (x, y) + (a, b) con (a, b) 6= (0, 0), claramente no es una transformaci´on lineal ya que T (0, 0) = (a, b) 6= (0, 0). Por otra parte, si consideramos en R2 el producto punto usual y la distancia definida como: Si A = (a, b) y B = (c, d) entonces d(A; B)
= = =
kA − Bk p (A − B) · (A − B) p (a − c)2 + (b − d)2
los movimientos r´ıgidos del plano resultan ser isometr´ıas. Proposici´ on 20 Los operadores sobre R2 , Rx , Ry , R0 , Ri , Sα , vale decir, las reflexiones y la rotaci´on son isometr´ıas y sus matrices asociadas a la base can´ onica son ortogonales.
Prueba.− En todos los casos basta probar que, para todo A ∈ R2 , B ∈ R2 , T (A) · T (B) = AB
294
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
1. Rx : R2 → R2 , definido por la ecuaci´ on Rx (a, b) = (−a, b) Rx (a, b) · Rx (c, d)
= =
(−a, b) · (−c, d) (−a)(−c) + bd
=
ac + bd
=
(a, b) · (c, d)
2. Ry : R2 → R2 , definido por la ecuaci´ on Ry (a, b) = (a, −b) Ry (a, b) · Ry (c, d)
=
(a, −b) · (c, −d)
=
ac + (−b)(−d)
=
ac + bd
=
(a, b) · (c, d)
3. R0 : R2 → R2 , definido por la ecuaci´ on R0 (a, b) = (−a, −b) R0 (a, b) · R0 (c, d)
= =
(−a, −b) · (−c, −d)
(−a)(−c) + (−b)(−d)
=
ac + bd
=
(a, b) · (c, d)
4. Ri : R2 → R2 , definido por la ecuaci´ on R(a, b) = (b, a) Ri (a, b) · Ri (c, d)
=
(b, a) · (d, c)
=
bd + ac
=
(a, b) · (c, d)
5. S : R2 → R2 , definido por la ecuaci´ on S(x, y) = (a cos α + b sin α, −a sin α + b cos α) S(a, b) · S(c, d)
= =
(a cos α + b sin α, −a sin α + b cos α) ·
(c cos α + d sin α, −c sin α + d cos α)
(a cos α + b sin α) (c cos α + d sin α) + (−a sin α + b cos α) (−c sin α + d cos α)
=
(ac + bd) cos2 α + (bd + (−a)(−c)) sin2 α
=
ac + bd
=
(a, b) · (c, d)
6.5. TRANSFORMACIONES LINEALES Y MATRICES EN GEOMETRIA PLANA ELEMENTAL.
295
En cuanto a las matrices asociadas respecto de la base can´ onica, tenemos: ! 1 0 B 1. [Rx ]B = y 0 −1 B [Rx ]B
2.
B [Ry ]B
=
3.
=
1 0
B [R0 ]B
4.
B [Ri ]B
=
B [Rx ]B
B [Ry ]B
5.
=
B [Sα ]B
!
0 −1
0 1
B [R0 ]B
1 0
B [Ri ]B
B [Sα ]B
!
−1 0 0 1 B [Ry ]B
B [R0 ]B
cos α sin α B [Sα ]B
T
!
=
1 0
0 −1
!
1 0
=
−1 0 0 1
!
−1 0
=
−1 0 0 −1
!
−1 0 0 −1
T
0 1
1 0
!
0 1 1 0
− sin α cos α
!
cos α − sin α
T
!
0 1
!
=
1 0 0 1
!
=
1 0 0 1
!
y T y
T
!
1 0 0 1
=
!
y
B [Ri ]B
− sin α cos α =
0 −1
= !
cos α sin α
!
=
1 0 0 1
!
y sin α cos α
!
=
1 0 0 1
!
Existen otras aplicaciones lineales con interpretaci´ on geom´etrica simple, que no son isometr´ıas, a continuaci´on presentamos algunas de ellas. 6. El operador lineal Lkx : R2 → R2 , definido por la ecuaci´ on Lkx (x, y) = (kx, y)
296
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
se denomina dilataci´ on paralela a x, cuando k > 1 y compresi´ on paralela a x, cuando 0 < k < 1. Puesto que Lkx (1, 0) = (k, 0)
Lkx (0, 1) = (0, 1)
y
Lkx
B B
=
k 0
entonces
!
0 1
Ejemplo 18 Consideremos el rect´angulo de v´ertices A = (1, 1), B = (1, 4), C = (5, 4), D = (5, 1) y la aplicaci´ on definida por L2x (x, y) = (2x, y), en consecuencia
B L2x B
=
2 0 0 1
!
Ahora, encontremos la imagen del segmento AB, A = (1, 1), B = (1, 4) descrito por las ecuaciones param´etricas x(t)
=
1,
y(t)
=
3t + 1
t ∈ [0, 1] , calculamos 2 0 0 1
!
1 3t + 1
!
=
2 3t + 1
!
y obtenemos el segmento A′ B ′ , A′ = (2, 1), C ′ = (2, 4) descrito por las ecuaciones param´etricas x(t)
=
2,
y(t)
=
3t + 1
t ∈ [0, 1] .
6.5. TRANSFORMACIONES LINEALES Y MATRICES EN GEOMETRIA PLANA ELEMENTAL.
297
Para encontrar la imagen del segmento BC, B = (1, 4), C = (5, 4) descrito por las ecuaciones param´etricas x(t)
=
1 + 4t,
y(t)
=
4
t ∈ [0, 1] . calculamos 2 0
0 1
!
1 + 4t 4
!
=
8t + 2 4
!
y obtenemos el segmento B ′ C ′ , B ′ = (2, 4), C ′ = (10, 4) descrito por las ecuaciones param´etricas x(t)
=
8t + 2,
y(t)
=
4
t ∈ [0, 1] . Para encontrar la imagen del segmento CD, C = (5, 4), D = (5, 1) descrito por las ecuaciones param´etricas x(t)
=
5,
y(t)
=
4 − 3t
t ∈ [0, 1] . Calculamos 2 0
0 1
!
5 4 − 3t
!
=
10 4 − 3t
!
y obtenemos el segmento C ′ D′ , C ′ = (10, 4), D′ = (10, 1) descrito por las ecuaciones param´etricas x(t)
=
10,
y(t)
=
4 − 3t
t ∈ [0, 1] .
298
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Finalmente, para encontrar la imagen del segmento AD, A = (1, 1), D = (5, 1), descrito por las ecuaciones param´etricas x(t)
=
4t + 1,
y(t)
=
1
t ∈ [0, 1] . Calculamos 2 0 0 1
!
4t + 1 1
!
=
8t + 2 1
!
y obtenemos el segmento A′ D′ , A′ = (2, 1), D′ = (10, 1) descrito por las ecuaciones param´etricas x(t)
=
2 + 8t,
y(t)
=
1
t ∈ [0, 1] . Geom´etricamente tenemos: ....
B
C
A
D
....
......
L2x − →
B’
C’
A’
D’ ......
7. El operador lineal Lsy : R2 → R2 , definido por la ecuaci´ on Lsy (x, y) = (x, sy) se denomina dilataci´ on paralela y cuando s > 1 cuando 0 < s < 1. Puesto que Lsy (1, 0) = (1, 0)
Lsy (0, 1) = (0, s) ! s B 1 0 Ly B = 0 s y
y compresi´ on paralela a y entonces
6.5. TRANSFORMACIONES LINEALES Y MATRICES EN GEOMETRIA PLANA ELEMENTAL.
299
Ejemplo 19 Consideremos el c´ırculo de radio r = 1, con centro en C = (2, 2) descrito por las ecuaciones param´etricas x(t)
=
2 + cos t,
y(t)
=
2 + sin t,
t ∈ [0, 2π]
1 2
y la aplicaci´ on definida por Ly (x, y) = (x, 21 y), en consecuencia ! h 1 iB 1 0 Lx2 = B 0 12 Para encontrar la imagen calculamos ! ! 1 0 2 + cos t = 0 12 2 + sin t
2 + cos t 1 + 21 sin t
!
es decir la imagen es la curva descrita por las ecuaciones param´etricas x(t)
= 2 + cos t, 1 = 1 + sin t, 2
y(t)
t ∈ [0, 2π] que corresponde a una elipse con centro en C ′ = (2, 1) y de semiejes de longitud a = 2 y b = 12 respectivamente. Geom´etricamente tenemos: .
.. ....
.. ....
................................... ....... ...... ..... ..... ..... ... ... ... . .. ... . ... .... ... .... . ... • .. ... ... ... .. . ... . . . ... ... .... .... ..... ..... ...... ...... ......... ..........................
....................................... ............. ........ ........ ..... .... ... ... .. .... . • .... ... ...... .... . . . . .......... . ................................................... ....... ..
1/2
Ly −−→
....... ..
300
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
8. El operador lineal Lk0 : R2 → R2 , definido por la ecuaci´ on Lk0 (x, y) = (kx, ky) se denomina dilataci´ on cuando k > 1 y compresi´ on cuando 0 < k < 1. Puesto que Lk0 (1, 0) = (k, 0)
..... ... .. . .. .. .... .... .. .... ...................................... .... .. ............ ... ......... ...... ......... . . . . . .. ... .... ....... .... .... .... .... ... .... .... ... ... ... .... .... . ........ . .. . . . . . ... .... ..... .... .... .... .... .... .... . . . . . . . . . . . .. . ... ... ... . .. . . . . . . . . . . .. .... .. ... ...... ....... .. .... .. .... .. .......... ...... .. .... ..... .... . . . .. . . .. . .. .... .. .... .. .... .... ....... .. ...... .. .... ....... ..... .......... ...... .. ... ... ......... . ...... ....... ......................................................... . . . ..... .. ..... ..... ...... ...... .. ... .... .... ...... . .... ..... ...... ...... .. .................... ........... . .. . .. ..................... .......... ......................... ........................ .......
Lk0 (0, 1) = (0, k) ! k B k 0 L0 B = 0 k y
entonces
..... ... ..
....... ......
Lk0 − →
. .... .. .... .... .... .. .... .... .... .. .... .... . . . .. . . . . ... .... .. .... .... .. .... ... .... . .... ..... .... .... .. . . ..... . . . . . .. ..... ... . . . . . . .. . . . . . . ... .... ....... .. ..... .... .. .. ..... .... ..... . ..... .... ....... ........ .. . . . . . . . . ....... . .. ..... ...... ....... ....... ....... ................................. ...... ....... . . . ... ...... ..................... . . . . ..... .... .... ..... ....... ....... ..... .... .... ..... .. ....... . .......... ...... ............. ..................................................... . . ................................. ....................... .........
...... .......
on 9. El operador lineal Exk : R2 → R2 , definido por la ecuaci´ Exk (x, y) = (x + ky, y), k ∈ R, denominada elongaci´ on paralela a x, mueve un punto del plano a la izquierda o a la derecha pero siempre sobre la misma horizontal. Puesto que Exk (1, 0) = (1, 0)
...... ... ..
Exk (0, 1) = (k, 1) ! k B 1 k Ex B = 0 1 y
...... ... ..
•...................
•
entonces
•
.. ........ ...... ..... ...... ... ...... . . ... . . . ... ...... ...... ... . . . . . ... .... . . . . . ... .... . . . . . ....... .... . . . . . . . . . . . . . . ...... .... . . . . . . . . . . . . . . ... ...... . . . . . . . . . . . . . . . ...... ..........
....... ....... ....... ....... ....... ....... ....... ....... . ...... ...... ...... ...... . . . . . ......
•
• ........ .......
Ry − →
•
•
• ........ .......
301
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
10. La aplicaci´ on Eyk : R2 → R2 , definida por la ecuaci´ on Eyk (x, y) = (x, kx + y), k ∈ R, denominada elongaci´ on paralela a y, mueve un punto del plano hacia arriba o hacia abajo siempre sobre la misma vertical.
Puesto que Eyk (1, 0) = (1, k) ! 1 0 k 1
y
...... ... .. ................... ................... ................... ................... ................... ............... ......... ............... ...............
• •
•
•
Eyk (0, 1) = (0, 1)
entonces
... ... ... ..... ..... ..... ..... ..... ..... ..... ..... ...... ..... ...... ..... ...... ..... ...... ..... ...... ..... ...... ..... ...... ..... ...... ..... ...... ..... ...... . ...... ......... .. ...... ...... ......... ...... ...... ....... .... ....... ...... ....... ..... ....... ..... ............ .......... .....
Eyk
B B
=
•
....... . ........
Eyk −→
•
....... ........
•
•
Obviamente el lector habr´a notado que todos los procesos geom´etricos descritos por los operadores presentados anteriormente son suceptibles de construir el procedimiento inverso, en consecuencia no se sorprender´a al observar que sus matrices asociadas son invertibles (no singulares) y mas a´ un que excepto la asociada a la rotaci´on, son matrices elementales, si adem´ as, recordamos el resultado que afirma que toda matriz inversible es un producto de matrices elementales, podemos de una manera natural afirmar que todo proceso geom´etrico en el plano representado por un operador lineal inversible es una sucesi´ on finita de procesos representados por operadores cuya matriz asociada es elemental como los presentados en esta secci´on.
6.6
VALORES Y VECTORES PROPIOS, DIAGONALIZACION
Definici´ on 11 Sea T : V → V
una trasformaci´ on lineal , un n´ umero real λ se denomina un → − → → valor caracter´ıstico de T si y solo si existe un vector − v ∈ V, − v = 6 0 tal que → → → T (− v ) = λ− v . Afirmamos adem´ as que − v es un vector caracter´ıstico asociado a λ.
302
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Observaciones.→ − → − → − 1. Evidentemente para todo λ ∈ R, y toda T : V −→ V lineal T ( 0 ) = 0 = λ 0 → − por esta raz´ on exclu´ımos 0 en la definici´on. 2. Los valores caracter´ısticos y vectores caracter´ısticos son tambi´en denominados valor propio y vector propio asociado resectivamente, incluso hay textos donde encontramos los nombres eigenvalor y eigenvector. → → 3. Evidentemente los vectores − v y λ− v son paralelos en consecuencia una aplicaci´on lineal tiene vectores propios cuando env´ıa un vector no nulo en uno paralelo y el valor propio es el correspondiente coeficiente. Ejemplo 20 → → v ) = µ− v entonces µ es un valor caracter´ıstico Sea T : V −→ V definida por T (− → − − → de T y para todo v ∈ V, v es un vector caractr´ıstico asociado a µ Ejemplo 21 Sea Ry : R2 −→ R2 definida por Ry (x, y) = (x, −y) entonces para todo x ∈ R, Ry (x, 0) = (x, 0) = (1)(x, 0) es decir 1 es un valor propio de Ry y (x, 0) un vector propio asociado 1. Adem´ as, para todo y ∈ R, Ry (0, y) = (0, −y) = (−1)(0, y) es decir −1 es un valor propio de Ry y (0, y) un vector propio asociado −1. Si recordamos que Ry es la reflexi´on respecto del eje y es claro que los vectores que son aplicados en vectores paralelos son los de punto final en el eje x cuya imagen es el mismo y los de punto final sobre el eje y cuya imagen es el opuesto. Ejemplo 22 Sea T : R2 −→ R2 , definida por T (x, y) = (x + y, x + y). Investiguemos la existencia de valores y vectores propios. (x + y, x + y) = λ(x, y) significa ( (1 − λ)x + y = 0 x + (1 − λ)y = 0
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
303
sistema de ecuaciones lineales homogeneo que tiene soluci´ on diferente de la trivial si y solo si 1−λ 1 =0 1 1−λ
es decir
λ2 − 2λ = λ(λ − 2) = 0
En consecuencia los valores propios de T son λ = 0 y λ = 2 Adem´ as, T (x, y) = (x + y, x + y) = (0)(x, y) = (0, 0), es decir
(
x+y =0 x+y =0
→ cuya soluci´ on es {(−t, t)|t ∈ R} es decir , − v es un vector propio de T, asociado al − → valor propio λ = 0 si y solo si v ∈ L ({(−1, 1)}) y an´alogamente T (x, y) = (x + y, x + y) = (2)(x, y) es decir
(
x + y = 2x x + y = 2y
→ cuya soluci´ on es {(t, t)|t ∈ R} es decir , − w es un vector propio de T, asociado al − → valor propio λ = 2 si y solo si w ∈ L ({(1, 1)}) Ejemplo 23 Sea T : R3 −→ R3 , definida por T (x, y, z) = (x, −y, z). Entonces T (x, y, z) = (x, −y, z) = λ(x, y, z) si y solo si
es decir
x = λx −y = λy z = λz
(1 − λ)x = 0 (1 + λ)y = 0 (1 − λ)z = 0
304
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
sistema homogeneo que tiene soluci´ on no trivial si y solo si 1−λ 0 0 1+λ 0 =0 0 0 0 1−λ
en consecuencia los valores propios de T son λ = 1 y λ = −1. Adem´ as T (x, y, z) = (x, −y, z) = (1)(x, y, z) → es decir , − w = (x, y, z) es un vector propio de T, asociado al valor propio λ = 1 si y → solo si y = 0 es decir − w ∈ L ({(1, 0, 0), (0, 0, 1)}) y an´alogamente T (x, y, z) = (x, −y, z) = (−1)(x, y, z)
→ es decir , − w = (x, y, z) es un vector propio de T, asociado al valor propio λ = −1 si → y solo si x = z = 0 es decir − w ∈ L ({(0, 1, 0)}) . Ejemplo 24 Sea T : R2 −→ R2 definida por T (x, y) = (x cos θ + ysenθ, −xsenθ + y cos θ) , entonces T (x, y) = (x cos θ + ysenθ, −xsenθ + y cos θ) = λ(x, y) si y solo si
es decir
( (
x cos θ + ysenθ = λx −xsenθ + y cos θ = λy
(cos θ − λ)x + ysenθ = 0 , −xsenθ + (cos θ − λ)y = 0
sistema homogeneo que tiene soluci´ on no trivial si cos θ − λ sen θ −sen θ cos θ − λ
es decir si λ es una ra´ız real del polinomio
y solo si =0
λ2 − 2λ cos θ + 1 = 0. Ahora, las ra´ıces del polinomio λ2 − 2λ cos θ + 1 = 0 son λ = cos θ ± por tanto λ ser´a real si y solo si cos2 θ − 1 = 0 es decir θ = nπ.
√
cos2 θ − 1
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
305
En consecuencia si θ = (2n + 1)π para cualquier n ∈ Z, la aplicaci´ on resulta ser la definida por T (x, y) = (−x, −y) = (−1)(x, y) que obviamente tiene un u ´nico valor propio λ = −1 y es tal que para todo (x, y) ∈ R2 , (x, y) es un vector propio de T asociado al valor propio λ = −1. Por otro lado si θ = 2nπ para cualquier n ∈ Z, la apliaci´ on resulta la definida por T (x, y) = (x, y) que obviamente tiene un u ´nico valor propio λ = 1 y es tal que para todo (x, y) ∈ R2 , (x, y) es un vector propio de T asociado al valor propio λ = 1. Geom´etricamente es claro afirmar entonces que las u ´nicas rotaciones que env´ıan vectores en vectores paralelos son la rotaci´on un ´angulo θ = (2n + 1)π caso en el cual env´ıa todo vector en su opuesto y la “rotaci´on” un ´angulo θ = 2nπ que en la pr´actica es la identidad. Definici´ on 12 Sea A ∈ Mn×n (R), un n´ umero real λ se denomina un valor caracter´ıstico de A si → − → − − → − → − → y solo si existe un vector X ∈ Rn , X 6= 0 tal que A X = λ X . Afirmamos adem´ as → − que X es un vector caracter´ıstico asociado a λ. Observaci´ on.-. Las observaciones 1.,2.,3., posteriores a la definici´on 11 son igualmente v´ alidas para los t´erminos aqu´ı definidos. Proposici´ on 21 Sea A ∈ Mn×n (R), un n´ umero real α es un valor propio de A si y solo si α es una raiz del polinomio p(λ) = |λI − A| Prueba.− → − → − Decir que un n´ umero real α es un valor propio de A significa que A X = α X para alg´ un → − → − → − → − → − X ∈ Rn , X 6= 0 ; es decir (αI − A) X = 0 , sistema homog´eneo de ecuaciones lineales que tiene soluci´ on diferente de la trivial si y solo si |(αI) − A| = 0 observaci´ on.- Como consecuencia inmediata de la proposici´on 19 podemos afirmar que una matriz A ∈ Mn×n (R) tiene a lo mas n valores propios diferentes. Definici´ on 13 Sea A ∈ Mn×n (R), el polinomio p(λ) = |λI − A| se denomina el polinomio carac-
306
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
ter´ıstico de A. Proposici´ on 22 Sea A ∈ Mn×n (R), α un valor propio de A entonces n− → → − →o − V (α) = X ∈ Rn |A X = α X es un subespacio de Rn . Prueba.− Es suficiente con observar que V (α) es el espacio de soluciones del sistema homogeneo → − − → de ecuaciones lineales (λI − A) X = 0 Definici´ on 14 Sea A ∈ Mn×n (R), α un valor propio de A, V (α) se denomina el subespacio propio de V asociado a α. Ejemplo 25 Sea A= entonces
1 0
0 −1
!
λ−1 0 p(λ) = |λI − A| = 0 λ+1
= (λ − 1)(λ + 1)
y en consecuencia sus valores propios son 1 y −1. Los vectores propios de A, asociados a 1 son entonces los vectores del espacio soluci´ on del sistema ! ! ! 0 0 x 0 = 0 2 y 0 es decir L ({(1, 0)}) , y los vectores propios de A, asociados a −1 son entonces los vectores del espacio soluci´ on del sistema ! ! ! −2 0 x 0 = 0 0 y 0
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
307
es decir L ({(0, 1)}) . Ejemplo 26 Sea A= entonces
1 1 1 1
!
λ−1 −1 p(λ) = |λI − A| = −1 λ−1
= λ2 − 2λ
y en consecuencia sus valores propios son 0 y 2. Los vectores propios de A, asociados a 0 son entonces los vectores del espacio soluci´ on del sistema ! ! ! −1 −1 x 0 = −1 −1 y 0 es decir L ({(−1, 1)}) , y los vectores propios de A, asociados a 2 son entonces los vectores del espacio soluci´ on del sistema ! ! ! 1 −1 x 0 = −1 1 y 0 es decir L ({(1, 1)}) . Ejemplo 27 Sea
entonces
1 0 A = 0 −1 0 0
0 0 1
p(λ) = |λI − A| λ−1 0 0 = 0 λ+1 0 0 0 λ−1 = λ3 − λ2 − λ + 1
= (λ + 1) (λ − 1)
2
308
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
y en consecuencia sus valores propios son −1 y 1. Los vectores propios de A, asociados a −1 son entonces los vectores del espacio soluci´ on del sistema −2 0 0 x 0 0 0 0 y = 0 0 0 −2 z 0
es decir L ({(0, 1, 0)}) , y los vectores propios de A, asociados a 1 son entonces los vectores del espacio soluci´ on del sistema 0 0 0 0 x 0 2 0 y = 0 z 0 0 0 0 es decir L ({(1, 0, 0), (0, 0, 1)}) . Ejemplo 28 Sea A=
cos θ −sen θ
sen θ cos θ
!
entonces p(λ) = |λI − A| λ − cos θ = sen θ
−sen θ λ − cos θ
= λ2 − 2λ cos θ + 1
las ra´ıces del polinomio λ2 − 2λ cos θ + 1 = 0 son λ = cos θ ± λ ser´a real si y solo si cos2 θ − 1 = 0 es decir θ = nπ. Ahora, si θ = 2nπ entonces ! 1 0 A= 0 1 en consecuencia p(λ) = (λ − 1) y por tanto λ = 1 y V (1) = R2 .
2
√ cos2 θ − 1 por tanto
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
si θ = (2n + 1) π entonces
!
−1 0 0 −1
A=
309
en consecuencia p(λ) = (λ + 1)
2
y por tanto λ = −1 y V (−1) = R2 . El lector cuidadoso habr´a notado la similitud de los ejemplos 14 y 18, 15 y 19, 16 y 20, 17 y 21, en realidad son conceptualmente id´enticos. Ejemplo 29 Sea
Entonces
5 4 2 A= 4 5 2 2 2 2 λ−5 −4 −2 p(λ) = −4 λ−5 −2 −2 −2 λ−2 = λ3 − 12λ2 + 21λ − 10
= (λ − 10) (λ − 1)
2
por lo tanto los valores propios de A son 1 y 10. Adem´ as, 5 −4 −2 x 0 x V (10) = y ∈ R3 tales que −4 5 −2 y = 0 z −2 −2 8 z 0 2 = L 2 1
310
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
y −4 x 3 V (1) = y ∈ R tales que −4 z −2 −1 −1 2 = L 1 , 0 0 1
−4 −2 x 0 −4 −2 y = 0 −2 −1 z 0
En adelante, si tenemos en cuenta que todo espacio vectorial de dimensi´on finita V es naturalmente isomorfo a un espacio Rn y que si fijamos una base ordenada B en el espacio V todo operador lineal T : V → V , se identifica con una matriz,vale decir, TBB = A ∈ Mn×n (R); solo nos referimos a matrices cuadradas de orden n. Ejemplo 30 Sea
Entonces
4 6 6 A= 1 3 2 −1 −5 −2 λ−4 p(λ) = −1 1
−6 −6 λ−3 −2 5 λ+2
= λ3 − 5λ2 + 8λ − 4
= (λ − 1) (λ − 2)
por lo tanto los valores propios de A son Adem´ as, x V (1) = y ∈ R3 tales que z 4 −3 = L − 13 1
2
1 y 2.
−3 −1 1
−6 −6 x 0 −2 −2 y = 0 5 3 z 0
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
311
y −2 −6 x V (2) = y ∈ R3 tales que −1 −1 z 1 5 3 − 21 = L −2 1
−6 x 0 −2 y = 0 4 z 0
Proposici´ on 23 Sea A ∈ Mn×n (R), α1 , · · · , αr , r ≤ n, valores propios de A,diferentes dos a dos → → con vectores propios asociados − v 1, · · · , − v r respectivamente entonces el conjunto → − − → { v 1 , · · · , v r } es un conjunto L.I. Prueba. → Claramente {− v 1 } es un conjunto L.I. → − → − → → v2∈ / L ({ v 1 }) en consecuencia {− v 1, − v 2 } es un conjunto L.I. → − → − − → → − → → v3∈ / L ({ v 1 , v 2 }) en consecuencia { v 1 , − v 2, − v 3 } es un conjunto L.I., en general → − − → → → → si suponemos { v 1 , · · · , v k−1 } un conjunto L.I. y − v k ∈ L ({− v 1, · · · , − v k−1 }) existen escalares λ1 , · · · , λk−1 tales que → − → → v k = λ1 − v 1 + · · · + λk−1 − v k−1
(*)
y multiplicando a izquierda por A tenemos → → → → → A− v k = A (λ1 − v 1 + · · · + λk−1 − v k−1 ) = λ1 A− v 1 + · · · + λk−1 A− v k−1 − → y puesto que → v 1, · · · , − v k son vectores propios asociados a α1 , · · · , αk tenemos, → → → v k−1 v 1 + · · · + λk−1 αk−1 − αk − v k = λ1 α1 −
(**)
ahora si multiplicamos la ecuaci´ on (*) por αk y restamos la ecuaci´ on (**) obtenemos; − → → → 0 = λ1 (αk − α1 )− v 1 + · · · + λk−1 (αk − αk−1 )− v k−1
312
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
→ → → por tanto λ1 = 0, · · · , λk−1 = 0 y en consecuencia − v k = λ1 − v 1 + · · · + λk−1 − v k−1 = → − → 0v1 + · · · + 0− v k−1 = 0 → lo cual es imposible puesto que − v k es un vector propio de A, asociado a αk en → − → − − → → → consecuencia v ∈ / L ({ v , · · · , v }) y {− v ,··· ,− v } es unconjunto L.I. k
1
k−1
1
k
→ → el proceso es finito y por tanto {− v 1, · · · , − v r } es un conjunto L.I.
Definici´ on 15 Sea A ∈ Mn×n (R), α un valor propio de A, la dimensi´on del espacio V (α) se denomina la multiplicidad geom´etrica de a.
Observaci´ on.-De la definici´on de vector propio asociado a un valor propio es inmediato afirmar que la multiplicidad geom´etrica de un valor propio nunca es cero. Aceptamos sin prueba que si A ∈ Mn×n (R), α un valor propio de A entonces la multiplicidad geom´etrica de α es menor o igual que su multiplicidad algebr´ aica. Proposici´ on 24 Sea A ∈ Mn×n (R), α un valor propio de A entonces α es un valor propio de AT Prueba. T T Basta ver que λI − AT = (λI) − AT = (λI − A) en consecuencia si llamamos p(λ) el polinomio caracter´ıstico de A y q(λ) el polinomio caracter´ıstico de AT , tenemos p(λ) = |λI − A| T = (λI − A) T = (λI) − AT = λI − AT = q(λ)
313
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
Proposici´ on 25 Sea A ∈ Mn×n (R), α un valor propio de A entonces para todo k ∈ R, kα es un valor propio de kA Prueba. → − Sabemos que α ∈ R, es tal que existe X ∈ Rn , − → → − consecuencia si k ∈ R, kA X = kα X
− → − → X 6= 0 tal que
→ − − → A X = α X en
Proposici´ on 26 Sea A ∈ Mn×n (R), α un valor propio de A entonces para todo entero positivo n, αn es un valor propiode An Prueba. → − → − − → − → − → Sabemos que α ∈ R, es tal que existe X ∈ Rn , X 6= 0 tal que A X = α X , es decir la proposici´on es verdadera para n = 1. → − → − − → − → − → Suponemos que existe X ∈ Rn , X 6= 0 tal que An X = αn X y multiplicamos a izquierda por A, en consecuencia − − → → A An X = A αn X es decir
− → → − An+1 X = αn A X − → = αn α X → − = αn+1 X → − en consecuencia existe X ∈ Rn ,
− → → − → − → − X 6= 0 tal que para todo n ∈ Z+ , An X = αn X
Proposici´ on 27 Sea A ∈ Mn×n (R), es singular si y solo si 0 es un valor propio de A. Prueba.
314
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Basta recordar que A ∈ Mn×n (R), es singular si y solo si el sistema AX = 0 tiene una soluci´ on no trivial. Proposici´ on 28 Sea A ∈ Mn×n (R), no singular y sea α un valor propio de A entonces propio de A−1 .
1 α
es un valor
Prueba. → − − → → − → − → − Puesto que A es no singular, α 6= 0 y existe X ∈ Rn , X = 6 0 tal que A X = α X , multiplicamos a izquierda por A−1 y obtenemos − − → → A−1 A X = A−1 α X
es decir
o lo que es lo mismo
− → → − A−1 A X = α A−1 X → 1 − X = X α
→ −1 −
A
Ejemplo 31 Sea A=
1 2 5 10
!
entonces p(λ) = |λI − A| λ−1 −2 = −5 λ − 10 = λ2 − 11λ
= λ (λ − 11)
en consecuencia sus valores propios son 0 y 11, adem´ as
315
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
V (0) =
(
=L y V (0) =
(
=L
x y ( x y (
!
2
∈ R tales que
−2 1 !
!)!
2
∈ R tales que
1 5
1
!)!
−1 −2 −5 −10
!
x y
!
10 −2 −5 1
!
x y
!
=
0 0
!)
=
0 0
!)
El lector observar´ a que A es singular. Ejemplo 32 Sea
entonces
2 −1 A = −2 −3 1 3
−2 −8 7
p(λ) = |λI − A| λ−2 1 2 = 2 λ+3 8 −1 −3 λ−7 = λ3 − 6λ2 + 11λ − 6
= (λ − 1) (λ − 2) (λ − 3)
en consecuencia sus valores propios son 1, 2 y 3, adem´ as −1 1 x V (1) = y ∈ R3 tales que 2 4 z −1 −3 0 = L −2 1
2 x 0 8 y = 0 −6 z 0
316
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
0 x V (2) = y ∈ R3 tales que 2 z −1 1 = L −2 1
1 x 3 V (3) = y ∈ R tales que 2 z −1 −1 = L −1 1
1 2 x 0 5 8 y = 0 −3 −5 z 0
1 2 x 0 6 8 y = 0 −3 −4 z 0
Ejemplo 33 Sea
4 6 6 A= 1 3 2 −1 −5 −2
en el ejemplo 22 encontramos que sus valores propios Ahora 1 − 29 − 32 −1 A = 0 − 21 − 12 7 3 − 21 2 2 y su polinomio caracter´ıstico
son 1 y 2.
λ−1 9 3 2 2 1 p(λ) = 0 λ + 21 2 1 − 72 λ− 2 5 1 = λ3 − 2λ2 + λ − 4 4 1 2 = (λ − 1) (2λ − 1) 4
3 2
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
317
y por tanto los valores propios de A−1 son 1 y 21 Por otra parte 16 12 24 A2 = 5 5 8 −7 −11 −12 y su polinomio caracter´ıstico
λ − 16 p(λ) = −5 7
−12 −24 λ−5 −8 11 λ + 12
= λ3 − 9λ2 + 24λ − 16 = (λ − 1) (λ − 4)
2
y en consecuencia los valores propios de A2 son 1 y 4. Finalmente 4 6 16 12 24 A3 = 5 3 5 8 1 −1 −5 −7 −11 −12 52 12 72 = 17 5 24 −27 −15 −40
6 2 −2
y su polinomio caracter´ıstico
λ − 52 p(λ) = −17 27
−12 −72 λ−5 −24 15 λ + 40
= λ3 − 17λ2 + 80λ − 64
= (λ − 1) (λ − 8)
2
y en consecuencia los valores propios de A3 son 1 y 8. Definici´ on 16 Decimos que una matriz B ∈ Mn×n (R) es semejante o similar a una matriz A ∈ Mn×n (R) si existe P ∈ Mn×n (R) no singular y tal que B = P −1 AP.
318
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Ejemplo 34 Sean
1 1 −1 A = 0 −1 1 , −1 −2 0
26 B = −7 25
39 −18 1 0 −1 −9 5 y P = 3 4 −2 40 −17 3 5 −2
entonces
P −1 y
−2 P −1 AP = 0 −3 26 = −7 25 =B
es decir
−4 1 −4
−2 5 = 0 −1 −3 5
5 −4 1 −1 1 0 5 −4 −1 39 −18 −9 5 40 −17
1 −1 1 −1 1 3 −2 0 3
0 −1 4 −2 5 −2
− 34 −1
B es similar a A.
Ejemplo 35 Sean
4 6 A= 1 3 −1 −5
entonces
6 2 , −2
7 4
B = −3 − 13 4
1 2
P −1 = −1 − 32
3 4
3 7 4
1 4
3 0 4 0 −1 1 − 45
y
−4 P = −1 4
−3 0 −2 1 2 0
319
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
y
1 2
P −1 AP = −1 − 23 7
4 = −3 − 13 4 =B
es decir
3 4
4 −1 1 − 45 −1 3 − 34 4 3 −1
0 0 1
7 4
6 6 −4 −3 3 2 −1 −2 −5 −2 4 2
0 1 0
1 4
B es similar a A.
Ejemplo 36 Sean
2 A = −2 1
entonces
−1 −2 1 −3 −8 , B = 0 3 7 0
P −1 y
1 −1 P AP = 1 0 1 = 0 0 =B
es decir B es similar a A.
0 0 0 1 2 0 y P = 2 −2 0 3 −1 1
1 2 = 1 1 0 1
2 3 2 1 2 −2 1 2 1 0 0 2 0 0 3
−1 −1 1
3 2 2
−1 −2 0 −3 −8 2 3 7 −1
1 −1 −2 −1 1 1
320
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Ejemplo 37 Sean
5 A= 4 2
entonces
4 2 10 5 2 , B = 0 2 2 0
P −1 =
y
P −1 AP =
2 9 − 49 − 29
10 = 0 0
=B
2 9 5 9 − 29
0 1 0
1 9 − 29 8 9
0 0 1
0 1 0
2 9 − 49 − 29
0 2 −1 − 12 0 y P = 2 1 0 1 1 0 1 2 9 5 9 − 92
1 9 − 29 8 9
5 4 4 5 2 2
2 2 −1 − 21 0 2 2 1 1 0 1 2
es decir B es similar a A. Proposici´ on 29 Para cada n ∈ Z+ , la relaci´ on de similaridad (semejanza) es una relaci´ on de equivalencia en el conjunto Mn×n (R) Prueba. i Reflexiva. Es evidente que (I −1 AI = A)
para toda A ∈ Mn×n (R) ,
A
es similar a A.
ii Sim´etrica. Suponemos B es similar a A es decir existe P inversible tal que P −1 AP = B;
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
321
en consecuencia P BP −1 = A es decir existe Q = P −1
tal que Q−1 BQ = A
es decir A es similar a B. iii Transitiva. Suponemos A similar a B y B es similar a C es decir existen P, Q inversibles y tales que P −1 BP = A y Q−1 CQ = B en consecuencia es decir
P −1 Q−1 CQ P = A
P −1 Q−1 C (QP ) = A
lo que significa que existe (QP ) inversible tal que (QP ) es decir
−1
C (QP ) = A
A es similar a C.
Proposici´ on 30 Matrices similares tienen el mismo polinomio caracter´ıstico. Prueba. Supongamos A, B ∈ Mn×n (R) matrices similares entonces existe P ∈ Mn×n (R) enversible y tal que P −1 AP = B, ahora |λI − B| = λP −1 P − P −1 AP = P −1 (λI − A) P = P −1 |λI − A| |P | =
|λI − A|
322
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Proposici´ on 31 Sean A, B ∈ Mn×n (R) tales que A y similares.
B son similares entonces
AT y B T son
Prueba. Si A y
B son similares existe P tal que P −1 AP = B en consecuencia B T = P −1 AP
T
= P T AT P −1
en consecuencia si llamamos Q = P T
−1
T
= P T AT P T
obtenemos
−1
Q−1 AT Q = B T es decir
AT y B T
son similares.
Proposici´ on 32 Sean A, B ∈ Mn×n (R) tales que A y si y solo si B es no singular.
B son similares entonces A es no singular
Prueba. Si A y B son similares existe P tal que P −1 AP = B, adem´ as si A es no singular entonces B(P −1 A−1 P ) = P −1 AP P −1 A−1 P = I en consecuencia B es no singular y B −1 = P −1 A−1 P . La prueba del rec´ıproco se deja como ejercicio al lector. Proposici´ on 33 Sean A, B ∈ Mn×n (R) , no singulares y tales que A y A−1 y B −1 son similares. Prueba.
B son similares entonces
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
Si A y B son similares existe P tal que P −1 AP = B, si adem´ as A y no singulares entonces −1 = P A−1 P −1 B −1 = P −1 AP
323 B son
en consecuencia si llamamos Q = P −1 obtenemos Q−1 A−1 Q = B −1 es decir A−1 y B −1 son similares. Proposici´ on 34 → → → → Sea T : V → V un operador lineal, B = {− v 1, · · · , − v n } y B ′ = {− w 1, · · · , − w n } bases B
ordenadas de V, A = [T ]B
B′
y B = [T ]B′ entonces A y B son matrices similares.
Prueba. Ejercicio para el lector. Proposici´ on 35 → → Sea T : V → V un operador lineal B = {− v 1, · · · , − v n } una base de V cuyos vectores son vectores propios asociados a valores propios α1 , · · · , αn entonces α1 0 · · · 0 .. 0 α . 2 B [T ]B = . .. . . 0 . 0 · · · 0 αn Prueba. Ejercicio para el lector. Definici´ on 17 Una matriz A ∈ Mn×n (R) se dice diagonalizable diagonal D tal que A es similar a D.
si y solo si existe una matriz
Observaci´ on.-Los ejemplos 30 y 31 muestran dos matrices 3 × 3 diagonalizables, una con tres valores propios y la otra con dos valores propios pero tal que la suma de sus multiplicidades geom´etricas es tres. Finalmente presentamos y aceptamos sin prueba la siguiente proposici´on.
324
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
Proposici´ on 36 Sea A ∈ Mn×n (R) , A es diagonalizable si y solo si A tiene un conjunto de n vectores propios linealmente independientes, la matriz P que “diagonaliza” a A es aquella cuyas columnas son precisamente los vectores propios mencionados.
Ejemplo 38 Sea
A=
1 1 1 1
2 2 2 2
3 3 3 3
4 4 4 4
entonces
p (λ) = |λI − A| λ−1 −2 −1 λ−2 = −1 −2 −1 −2 = λ4 − 10λ3
= λ3 (λ − 10)
−3 −3 λ−3 −3
−4 −4 −4 λ−4
325
6.6. VALORES Y VECTORES PROPIOS, DIAGONALIZACION
es decir sus valores propios son 10 de multiplicidad uno y 0 de multiplicidad tres.
x 10 − 1 −2 −3 −4 y −1 10 − 2 −3 −4 V (10) = z −1 −2 10 − 3 −4 w −1 −2 −3 10 − 4 0 x 9 −2 −3 −4 x y −1 8 −3 −4 y 0 = = z −1 −2 7 −4 z 0 0 w w −1 −2 −3 6 9 −2 −3 −4 x x 0 y −1 8 −3 −4 y 0 = = 0 −1 −2 7 −4 z z −1 −2 −3 6 w w 0 x 1 0 0 −1 x 0 y 0 1 0 −1 y 0 = = z 0 0 1 −1 z 0 w 0 0 0 0 w 0 1 1 = L 1 1
Por otra parte
x y = z w
0 0 0 0
326
CAP´ ITULO 6. TRANSFORMACIONES LINEALES
x −3 −4 x 0 − 1 −2 y −1 0 − 2 −3 −4 y V (0) = = −2 0 − 3 −4 z z −1 w −1 −2 −3 0 − 4 w x −1 −2 −3 −4 x 0 y −1 −2 −3 −4 y 0 = = z −1 −2 −3 −4 z 0 w −1 −2 −3 −4 w 0 x 1 2 3 4 x 0 y 0 0 0 0 y 0 = = z 0 0 0 0 z 0 w 0 0 0 0 w 0 −2 −3 −4 1 0 0 = L , , 0 1 0 0 0 1
en consecuencia
y
P =
P −1 AP =
=
1 1 1 1
−2 −3 1 0 0 1 0 0
1 10 1 − 10 1 − 10 1 − 10
10 0 0 0
1 5 4 5 − 51 − 51
0 0 0 0
0 0 0 0
−4 0 0 1
3 10 3 − 10 7 10 3 − 10
0 0 0 0
, P −1 = 2 5 − 52 − 52 3 5
1 1 1 1
2 2 2 2
1 10 1 − 10 1 − 10 1 − 10
3 3 3 3
1 5 4 5 − 51 − 51
4 4 4 4
3 10 3 − 10 7 10 3 − 10
0 0 0 0
2 5 − 52 − 52 3 5
1 −2 −3 1 1 0 1 0 1 1 0 0
−4 0 0 1
El lector verificar´ a que los ejemplos 30 y 31 se us´ o el proceso descrito en la proposici´on para obtener los resultados.