Apuntes De Algebra Lineal

  • May 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Apuntes De Algebra Lineal as PDF for free.

More details

  • Words: 46,263
  • Pages: 147
´ ESCUELA TECNICA SUPERIOR DE INGENIER´IA ´ INFORMATICA ´ INGENIER´IA TECNICA EN ´ ´ INFORMATICA DE GESTION

Apuntes de

´ ALGEBRA LINEAL

por Fco. Javier Cobos Gavala Amparo Osuna Lucena Rafael Robles Arias Beatriz Silva Gallardo

Contenido

1 Matrices y determinantes

1

1.1

Notaci´on y definiciones . . . . . . . . . . . . . . . . . . . . . .

1

1.2

Aritm´etica de matrices . . . . . . . . . . . . . . . . . . . . . .

3

1.2.1

Suma de matrices . . . . . . . . . . . . . . . . . . . . .

3

1.2.2

Producto por un escalar . . . . . . . . . . . . . . . . .

4

1.2.3

Producto de matrices . . . . . . . . . . . . . . . . . . .

4

1.2.4

Trasposici´on . . . . . . . . . . . . . . . . . . . . . . . .

5

1.2.5

Otras definiciones. . . . . . . . . . . . . . . . . . . . .

5

Transformaciones elementales. . . . . . . . . . . . . . . . . . .

6

1.3.1

Transformaciones elementales fila. . . . . . . . . . . . .

6

1.3.2

Transformaciones elementales columna. . . . . . . . . .

8

1.4

Algoritmo de Gauss-Jordan. . . . . . . . . . . . . . . . . . . .

10

1.5

Determinante de una matriz cuadrada. . . . . . . . . . . . . .

14

1.5.1

Definiciones. . . . . . . . . . . . . . . . . . . . . . . . .

14

1.5.2

Propiedades . . . . . . . . . . . . . . . . . . . . . . . .

15

1.6

Factorizaci´on triangular. . . . . . . . . . . . . . . . . . . . . .

17

1.7

Inversa de una matriz cuadrada . . . . . . . . . . . . . . . . .

18

1.7.1

C´alculo de la matriz inversa. . . . . . . . . . . . . . . .

20

Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . .

21

1.3

1.8

2 Sistemas de ecuaciones lineales. Espacios vectoriales. 2.1

Notaci´on y definiciones . . . . . . . . . . . . . . . . . . . . . . i

25 26

ii

Contenido 2.2

M´etodo de eliminaci´on gaussiana . . . . . . . . . . . . . . . .

28

2.2.1

Sistemas de ecuaciones lineales homog´eneos . . . . . .

32

2.3

Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . .

34

2.4

Dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . .

37

2.4.1

Espacios vectoriales de tipo finito . . . . . . . . . . . .

40

2.4.2

Bases de un espacio vectorial

. . . . . . . . . . . . . .

41

2.4.3

Rango de un conjunto de vectores . . . . . . . . . . . .

45

2.4.4

Rango de una matriz . . . . . . . . . . . . . . . . . . .

47

Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . .

49

2.5.1

Caracterizaci´on de los subespacios vectoriales . . . . .

49

2.5.2

Variedad engendrada por un conjunto finito de vectores

50

Operaciones con variedades lineales . . . . . . . . . . . . . . .

51

2.6.1

Intersecci´on . . . . . . . . . . . . . . . . . . . . . . . .

51

2.6.2

Uni´on . . . . . . . . . . . . . . . . . . . . . . . . . . .

51

2.6.3

Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . .

52

2.6.4

Suma directa . . . . . . . . . . . . . . . . . . . . . . .

53

Ecuaciones de los subespacios. . . . . . . . . . . . . . . . . . .

54

2.7.1

Ecuaciones del subespacio suma . . . . . . . . . . . . .

56

2.7.2

Ecuaciones del subespacio intersecci´on . . . . . . . . .

57

2.8

Propiedades de los espacios vectoriales de tipo finito. . . . . .

60

2.9

Cambio de bases . . . . . . . . . . . . . . . . . . . . . . . . .

62

2.10 Espacios fundamentales asociados a una matriz. . . . . . . . .

64

2.10.1 Espacio fila de A: [R(At )]. . . . . . . . . . . . . . . . .

65

2.10.2 Espacio nulo de A: [N (A)]. . . . . . . . . . . . . . . .

65

2.10.3 Espacio columna de A. [R(A)]. . . . . . . . . . . . . .

66

2.11 Teorema de Rouche-Fr¨obenius . . . . . . . . . . . . . . . . . .

67

2.12 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . .

70

2.5

2.6

2.7

3 Aplicaciones lineales. 3.1

N´ ucleo e Imagen de una aplicaci´on lineal. . . . . . . . . . . . .

79 82

Contenido

iii

3.2

Ecuaciones de una aplicaci´on lineal. . . . . . . . . . . . . . . .

84

3.2.1

Matriz asociada a una aplicaci´on lineal. . . . . . . . . .

85

3.2.2

Matrices equivalentes. . . . . . . . . . . . . . . . . . .

86

3.2.3

Imagen inversa de una variedad lineal. . . . . . . . . .

87

3.2.4

Operaciones con aplicaciones lineales. . . . . . . . . . .

88

Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . .

93

3.3

4 Ortogonalidad. 4.1

101

Formas bilineales. . . . . . . . . . . . . . . . . . . . . . . . . .

101

4.1.1

Matriz asociada a una forma bilineal. . . . . . . . . . .

102

Producto escalar. . . . . . . . . . . . . . . . . . . . . . . . . .

103

4.2.1

Espacio vectorial eucl´ıdeo. . . . . . . . . . . . . . . . .

103

4.3

Ortogonalidad. . . . . . . . . . . . . . . . . . . . . . . . . . .

106

4.4

Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . .

112

4.2

5 Autovalores y autovectores 5.1

5.2

5.3

117

Polinomio caracter´ıstico. . . . . . . . . . . . . . . . . . . . . .

121

5.1.1

Multiplicidad de un autovalor. . . . . . . . . . . . . . .

122

5.1.2

Propiedades. . . . . . . . . . . . . . . . . . . . . . . . .

122

Diagonalizaci´on por semejanza . . . . . . . . . . . . . . . . . .

123

5.2.1

Endomorfismos diagonalizables. . . . . . . . . . . . . .

123

5.2.2

Diagonalizaci´on de matrices sim´etricas. . . . . . . . . .

127

5.2.3

Aplicaciones de la diagonalizaci´on. . . . . . . . . . . .

129

Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . .

130

Bibliograf´ıa

138

´Indice

140

1. Matrices y determinantes

1.1

Notaci´ on y definiciones

Una matriz es una tabla de m×n elementos dispuestos en m filas y n columnas. Se suelen representar por letras may´ usculas A, B, . . ., etc. y a sus elementos de la forma aij donde el primer sub´ındice indica la fila a la que pertenece y el segundo la columna en la que se encuentra dicho elemento. As´ı pues, una matriz A = (aij ) con 1 ≤ i ≤ m 1 ≤ j ≤ n es de la forma:    A= 

a11 a21 .. .

a12 a22 .. .

· · · a1n · · · a2n .. .

am1 am2 · · · amn

    

Una matriz de m filas y n columnas se dice que tiene dimensi´ on o que es de orden m×n, y al conjunto de todas las matrices de orden m×n lo denotaremos por Rm×n (en el supuesto de que los elementos de la matriz A sean elementos de R). Dos matrices A, B ∈ Rm×n se dice que son equidimensionales. Dos matrices A, B ∈ Rm×n , se dice que son iguales si: aij = bij ∀ i = 1, 2, . . . , m y ∀ j = 1, 2, . . . , n • Se denomina matriz fila a aquella que consta de una u ´nica fila. A = (a1 a2 · · · an ) ∈ R1×n

1

2

Matrices y determinantes

• Se denomina matriz columna a aquella que consta de una u ´nica columna.   a1  a2    A =  ..  ∈ Rn×1  .  an • Se denomina matriz cuadrada de orden n columnas.  a11 a12 · · · a1n  a21 a22 · · · a2n  A =  .. . .. . .  . . .. . an1 an2 · · · ann

a aquella que tiene n filas y n     

A ∈ Rn×n

• Se denomina diagonal principal de una matriz cuadrada a la formada por los elementos aii i = 1, 2, . . . , n.   a11   a22     ...   ann • Se denomina matriz diagonal a aquella matriz cuadrada cuyos elementos no diagonales son todos nulos. Es decir aij = 0 si i 6= j   a11 0 · · · 0  0 a22 · · · 0    D =  .. .. . . ..   . . . .  0 0 · · · ann • Se denomina matriz escalar a aquella matriz diagonal cuyos elementos diagonales son todos iguales.   α 0 ··· 0  0 α ··· 0     .. .. . . ..   . . . .  0 0 ··· α

• Se denomina matriz unidad de orden n a aquella matriz escalar cuyos elementos diagonales son todos unos. Es decir,   1 0 ··· 0  0 1 ··· 0    In =  .. .. . . ..   . . . .  0 0 ··· 1

Aritm´etica de matrices

3

• Se denomina matriz triangular superior (inferior) a aquella matriz cuadrada cuyos elementos situados por debajo (encima) de su diagonal principal son todos nulos.     a11 a12 a13 · · · a1n a11 0 0 ··· 0  0 a22 a23 · · · a2n   a21 a22 0 · · · 0       0   0 a33 · · · a3n     a31 a32 a33 · · · 0   ..   .. .. . . . . .. .. . . .   . . ..   .. . ..  . . . . 0 0 0 · · · ann an1 an2 an3 · · · ann Triangular superior: aij = 0 si i > j. Triangular inferior: aij = 0 si i < j.

1.2

Aritm´ etica de matrices

1.2.1

Suma de matrices

Sean A, B ∈ Rm×n , se denomina matriz suma de A y B a la matriz C ∈ Rm×n tal que cij = aij + bij i = 1, . . . , m j = 1, . . . , n. Se denota por C = A + B. Propiedades: a) Asociativa: ∀ A, B, C ∈ Rm×n =⇒ (A + B) + C = A + (B + C). b) Conmutativa: ∀ A, B ∈ Rm×n =⇒ A + B = B + A. c) Elemento neutro: ∃ 0 ∈ Rm×n : ∀ A ∈ Rm×n =⇒ A + 0 = 0 + A = A. La matriz 0 es aquella que tiene todos sus elementos nulos. d) Elemento opuesto: ∀ A ∈ Rm×n existe una matriz − A ∈ Rm×n tal que A + (−A) = −A + A = 0. Por tanto, (Rm×n , +) es un grupo conmutativo.

4

Matrices y determinantes

1.2.2

Producto por un escalar

Sean A ∈ Rm×n y α ∈ R, se define producto por un escalar a la aplicaci´on del tipo R × Rm×n =⇒ Rm×n tal que al par (α, A) le asocia la matriz αA definida por: αA = α(aij ) = (αaij ) 1 ≤ i ≤ m 1≤j ≤n

Es decir, la matriz resultante de multiplicar por α todos los elementos de la matriz A. Propiedades: a) Asociativa: ∀ α, β ∈ R y ∀ A ∈ Rm×n =⇒ α(βA) = (αβ)A.  ∀ α, β ∈ R y ∀ A ∈ Rm×n =⇒ (α + β)A = αA + βA. b) Distributivas: ∀α ∈ R y ∀ A, B ∈ Rm×n =⇒ α(A + B) = αA + αB. c) Elemento unidad: ∀ A ∈ Rm×n =⇒ 1 · A = A. Por tanto, (Rm×n , +, ·) es un espacio vectorial sobre el cuerpo R de los n´ umeros reales. (Si se trabaja con matrices complejas, aij ∈ C, (Cm×n , +, ·) ser´ıa un espacio vectorial sobre el cuerpo C de los n´ umeros complejos).

1.2.3

Producto de matrices

Si A ∈ Rm×n y B ∈ Rn×p (n´ umero de columnas de A igual al n´ umero de filas de B), se define la matriz producto de A por B como la matriz C ∈ Rm×p tal que: n X cij = aik bkj 1 ≤ i ≤ m 1 ≤ j ≤ p k=1

Propiedades: a) Asociativa: A ∈ Rm×n B ∈ Rn×p C ∈ Rp×q =⇒ (AB)C = A(BC). b) Distributiva: A ∈ Rm×n B, C ∈ Rn×p =⇒ A(B + C) = AB + AC. c) No conmutativa: en general, es AB 6= BA. d) No cancelativa: AB = AC =⇒ 6 B = C. Para el caso de matrices cuadradas de orden n:

Aritm´etica de matrices

5

e) Elemento neutro: ∃In ∈ Rn×n : ∀ A ∈ Rn×n =⇒ In A = AIn = A. Si A ∈ Rn×n diremos que es regular o no singular si posee matriz inversa, es decir, si existe A−1 ∈ Rn×n tal que A−1 A = AA−1 = In .

1.2.4

Trasposici´ on

Sea A ∈ Rn×n . Se denomina matriz traspuesta de A y se denota por At a la matriz resultante de cambiar, ordenadamente, las filas por las columnas de la matriz A de tal manera, que si llamamos A = (aij ) y At = (a0ij ) tenemos: a0ij = aji 1 ≤ i ≤ m 1 ≤ j ≤ n por lo que si A ∈ Rm×n =⇒ At ∈ Rn×m . Propiedades: a) (At )t = A. t

t

b) (A + B) = A + B

t

n n X X t o generalizando, ( Ai ) = Ati . i=1

i=1

n 1 Y Y t c) (AB) = B A o generalizando, ( Ai ) = Ati . t

t

t

i=1

1.2.5

i=n

Otras definiciones.

• Una matriz cuadrada A se dice que es sim´etrica si coincide con su traspuesta. (Es sim´etrica respecto a su diagonal principal). A sim´etrica ⇐⇒ A = At • Una matriz cuadrada A se dice que es antisim´etrica si coincide con la opuesta de su traspuesta. (Los elementos sim´etricos respecto de la diagonal principal son opuestos y su diagonal es de ceros). A antisim´etrica ⇐⇒ A = −At • Una matriz cuadrada y no singular se dice ortogonal si su traspuesta coincide con su inversa, es decir, si At = A−1 o lo que es lo mismo: A ortogonal ⇐⇒ AAt = In

6

Matrices y determinantes • Sea A ∈ Rn×n . Se define traza de A y se denota por Tr(A) o tr(A) como la suma de los elementos de su diagonal principal. Tr(A) =

n X

aii

i=1

Propiedades: a) Tr(A + B) = Tr(A) + Tr(B). b) Tr(αA) = αTr(A).

1.3

Transformaciones elementales.

Se denominan transformaciones elementales a ciertas transformaciones que se realizan en una matriz y que nos ser´an de gran utilidad en la resoluci´on de sistemas de ecuaciones lineales as´ı como en otras operaciones con matrices que estudiaremos en temas posteriores. Estas transformaciones modifican, de determinadas formas, los elementos de una fila o una columna de la matriz o intercambian dos filas o columnas de ´esta. Las clasificaremos en dos grupos: • Transformaciones elementales fila. • Transformaciones elementales columna.

1.3.1

Transformaciones elementales fila.

Pueden ser de tres tipos: a) Intercambiar las filas i y j: la denotaremos por Fij . Este efecto se produce al multiplicar, por la izquierda, la matriz A por la matriz Eij , siendo ´esta el resultado de intercambiar las filas i y j de la matriz Im . Ejemplo 1.1 Consideremos la matriz   2 1 3 4 A =  4 2 1 5 . 1 0 2 3

Transformaciones elementales.

7

a a Para intercambiar  las filas 2 y 3 aplicamos F23 cuya matriz es 1 0 0 E23 =  0 0 1  (en I3 se han permutado las filas segunda y tercera). 0 1 0      1 0 0 2 1 3 4 2 1 3 4 E23 A =  0 0 1   4 2 1 5  =  1 0 2 3  0 1 0 1 0 2 3 4 2 1 5

observ´andose que han quedado permutadas las filas segunda y tercera de la matriz A.  b) Multiplicar la fila i por un n´ umero α 6= 0: la denotaremos por Fi (α). Este efecto se produce al multiplicar, por la izquierda, la matriz A por la matriz Ei (α), siendo ´esta el resultado de multiplicar por α la fila i de la matriz Im . Ejemplo 1.2 Para multiplicar por 3 la segunda fila de A (v´ ease el Ejem  1 0 0 plo 1.1), aplicamos F2 (3) cuya matriz asociada es E2 (3) =  0 3 0  0 0 1 (se ha multiplicado por 3 la segunda fila de I3 ).      1 0 0 2 1 3 4 2 1 3 4 E2 (3)A =  0 3 0   4 2 1 5  =  12 6 3 15  0 0 1 1 0 2 3 1 0 2 3 pudi´endose ver que ha quedado multiplicada por 3 la segunda fila de la matriz A.  c) Sumar a la fila i la fila j multiplicada por α 6= 0: la denotamos por Fij (α). Este efecto se produce al multiplicar, por la izquierda, la matriz A por la matriz Eij (α), siendo ´esta la resultante de sumar a la fila i de la matriz Im su fila j multiplicada por α, es decir, la matriz resultante de sustituir el elemento aij = 0 por α. Ejemplo 1.3 Si queremos restar a la segunda fila de A (v´ease el Ejemplo 1.1) el doble de la primera, aplicamos F21 (−2) cuya matriz asociada

8

Matrices y determinantes 

 1 0 0 es E21 (−2) =  −2 1 0  (se ha sustituido el elemento a21 de I3 por 0 0 1 −2).      1 0 0 2 1 3 4 2 1 3 4 E21 (−2)A =  −2 1 0   4 2 1 5  =  0 0 −5 −3  0 0 1 1 0 2 3 1 0 2 3 observ´andose que se ha producido en la matriz A el efecto deseado.

1.3.2



Transformaciones elementales columna.

Son las mismas que las transformaciones elementales fila pero operando por columnas: a) Intercambiar las columnas i y j: la denotaremos por Cij . Este efecto se produce al multiplicar, por la derecha, la matriz A por la matriz E˜ij , siendo ´esta el resultado de intercambiar las columnas i y j de la matriz In . Ejemplo 1.4 Si deseamos intercambiar las columnas primera y cuarta de la matriz 1.1), aplicamos C14 cuya matriz asociada  A (v´ease el Ejemplo  0 0 0 1  0 1 0 0   es E˜14 =   0 0 1 0  (se han permutado las columnas 1 y 4 de la 1 0 0 0 matriz I4 ).       0 0 0 1 4 1 3 2 2 1 3 4  0 1 0 0    5 2 1 4  AE˜14 =  4 2 1 5    0 0 1 0 = 1 0 2 3 3 0 2 1 1 0 0 0 donde puede verse que se han permutado las columnas 1 y 4 de la matriz A.  b) Multiplicar la columna i por un n´ umero α 6= 0: la denotaremos por Ci (α). Este efecto se produce al multiplicar, por la derecha, la matriz A por la matriz E˜i (α), siendo ´esta el resultado de multiplicar por α la columna i de la matriz In .

Transformaciones elementales.

9

Ejemplo 1.5 Para multiplicar por 2 la tercera columna de la matriz A ˜ (v´ ease el Ejemplo  1.1) aplicamos C3 (2), cuya matriz asociada es E3 (2) = 1 0 0 0  0 1 0 0     0 0 2 0  (se ha multiplicado por 2 la tercera columna de I4 ). 0 0 0 1 

1 2 1 3 4  0 AE˜3 (2) =  4 2 1 5    0 1 0 2 3 0 



0 1 0 0

0 0 2 0

   0 2 1 6 4  0   4 2 2 5  = 0  1 0 4 3 1

habiendo quedado multiplicada por 2 la tercera columna de la matriz original A  c) Sumar a la columna i la columna j multiplicada por α 6= 0: la denotamos por Cij (α). Este efecto se produce al multiplicar, por la derecha, la matriz A por la matriz E˜ij (α), siendo ´esta la resultante de sumar a la columna i de la matriz In su columna j multiplicada por α, es decir, la matriz resultante de sustituir el elemento aji = 0 por α. Ejemplo 1.6 Para sumar a la tercera columna de A (v´ease el Ejemplo 1.1) eldoble de la primera aplicamos C31 (2) cuya matriz asociada es  1 0 2 0  0 1 0 0   E˜31 (2) =   0 0 1 0  (se ha sustituido el elemento a13 de la matriz 0 0 0 1 I4 por 2).     1 0 2 0   2 1 3 4  2 1 7 4 0 1 0 0    4 2 9 5  AE˜31 (2) =  4 2 1 5    0 0 1 0 = 1 0 2 3 1 0 4 3 0 0 0 1 donde puede observarse que se ha producido en A el efecto deseado. 

10

Matrices y determinantes

1.4

Algoritmo de Gauss-Jordan.

Se denomina matriz escalonada a una matriz en la que las filas posteriores a una fila cuyos elementos son todos ceros, tienen todos sus elementos igual a cero, y el n´ umero de elementos nulos al comienzo de cada fila no nula es estrictamente menor que en la siguiente. Teorema 1.1 Dada una matriz cualquiera A ∈ Rm×n existen matrices F y U tales que F A = U siendo U una matriz escalonada. Demostraci´ on. Probaremos el teorema de forma constructiva. a) Si a11 6= 0, mediante transformaciones elementales filas Fij (α) podemos anular todos los elementos de la primera columna, salvo el a11 . Estas ai1 transformaciones ser´ıan de la forma Fi1 (− ). a11 b) Si a11 = 0 y alg´ un elemento de la primera columna es no nulo, podemos llevarlo al lugar (11) mediante una transformaci´on Fij y proceder despu´es como en el caso anterior. c) Si ai1 = 0 ∀ i = 1, . . . , m, la primera columna es de ceros y por tanto, ai1 = 0 ∀ i > 1, es decir, se trata de una columna del tipo de las matrices escalonadas. Procedemos despu´es con a22 (el elemento a22 resultante de las transformaciones anteriores) al igual que procedimos con a11 anteriormente, es decir, si a22 6= 0 lo utilizamos para hacer ceros por debajo de ´el en la segunda columna. Si fuese a22 = 0 vemos si existe por debajo de ´el alg´ un elemento ai2 6= 0 y, en caso de haberlo, realizamos la transformaci´on F2i , etc. Reiterando el proceso, llegamos a una matriz escalonada U . La matriz F no es m´as que el producto de las matrices de las transformaciones elementales filas realizadas para pasar de A a U.

El siguiente organigrama, muestra el algoritmo de escalonamiento de una matriz A ∈ Rm×n , mediante transformaciones elementales filas. Cuando se alcanza la condici´on de parada, la nueva matriz A es escalonada.

Algoritmo de Gauss-Jordan.

11

Algoritmo de escalonamiento de una matriz. Ejemplo 1.7 Consideremos la matriz A del Ejemplo 1.1.     2 1 3 4 2 1 3 4 1 F31 (− ) F21 (−2) F23 0 −5 −3  −→ A −→  0 0 −5 −3  −→2  0 1 0 2 3 0 − 1/2 1/2 1   2 1 3 4  0 − 1/2 1/2 1 =U 0 0 −5 −3 siendo U una matriz escalonada. Dado que 1 E23 E31 (− )E21 (−2)A = U =⇒ F A = U 2 con 

   1 0 0 1 0 0 1 0 0 1 0 1 0   −2 1 0  ⇒ F = E23 E31 (− )E21 (−2) =  0 0 1   2 0 1 0 − 1/2 0 1 0 0 1

12

Matrices y determinantes 

 1 0 0 F =  − 1/2 0 1  −2 1 0  Se denomina forma escalonada can´ onica a una matriz escalonada con la propiedad de que el primer elemento no nulo de una fila es un uno y adem´as, es el u ´nico elemento no nulo de su columna. Teorema 1.2 Toda matriz puede ser reducida mediante transformaciones elementales fila a una escalonada can´ onica. Demostraci´ on. Basta con observar que una vez obtenida la matriz U , si en una fila hay alg´ un elemento no nulo, la dividimos por el primer elemento no nulo de ella mediante Fi (α) y lo utilizamos para hacer ceros todos los de su columna (que se encontrar´an por encima de ´el). Ejemplo 1.8 En el Ejemplo 1.7 se vi´o que    1/2 3/2 2 1 3 4 1 2 1 F1 ( 2 ) 1 1 1 1    0 − /2 /2 1 0 − /2 /2 1 A −→ U = −→ 0 0 −5 −3 0 0 −5 −3      1 1/2 3/2 2 1 0 2 3 1 1 1 F (− 2 ) F3 (− )  0 1 −1 −2  12 −→  0 1 −1 −2  −→5  0 0 0 −5 −3 0 0 0 −5 −3     9/5 1 0 0 9/5 1 0 0 F13 (−2) F23 (1) −→  0 1 −1 −2  −→  0 1 0 − 7/5  3/5 0 0 1 3/5 0 0 1 que se trata de una escalonada can´onica.

 2 (−2)  F−→

 0 2 3 1 −1 −2  0 1 3/5



Los elementos que utilizamos para anular a los dem´as elementos de una columna se denominan pivotes. Si en un determinado paso del proceso de pasar de A a U alguna columna es de ceros, diremos que el correspondiente pivote es nulo. Teorema 1.3 Toda matriz A ∈ Rm×n puede, mediante transformaciones elementales, transformarse en una del tipo   Ir 0 0 0

Algoritmo de Gauss-Jordan.

13

teniendo en cuenta que para ello es necesario realizar tanto transformaciones fila como transformaciones columna. Ejemplo 1.9 Si nos fijamos en la matriz del Ejemplo 1.7 que transformamos, mediante transformaciones elementales fila (ver Ejemplo 1.8) en la escalonada can´onica   9/5 1 0 0  0 1 0 − 7/5  3/5 0 0 1 podemos ahora, mediante la composici´  on 1 0 9 7 3 C41 (− 5 )C42 ( 5 )C43 (− 5 ) llevarla a  0 1 0 0

de 0 0 1

las  transformaciones columna 0  0  = I3 | 0 .  0

Teorema 1.4 Una condici´ on necesaria y suficiente para que una matriz cuadrada posea inversa es que su forma escalonada can´ onica sea la matriz unidad. Demostraci´ on. Si su forma escalonada can´onica es In , existe F ∈ Rn×n tal que F A = In =⇒ F = A−1 . Si existe A−1 tal que A−1 A = In =⇒ ∃ F = A−1 tal que F A = In y por tanto, In es la forma escalonada can´onica de A. Este teorema nos permite calcular la matriz inversa, de una matriz dada, mediante transformaciones elementales (filas o columnas, pero no ambas simult´aneamente), es decir, aplicando el Algoritmo de Gauss-Jordan tomando como matriz inicial(A | In ) 

 1 3 0 Ejemplo 1.10 Consideremos la matriz A =  0 1 1  1 2 0 

   1 3 0 1 0 0 1 3 0 1 0 0 F31 (−1) F12 (−3) 1 1 0 1 0  −→ (A | I3 ) =  0 1 1 0 1 0  −→  0 1 2 0 0 0 1 0 −1 0 −1 0 1



   1 0 −3 1 −3 0 1 0 −3 1 −3 0 F32 (1) F13 (3)  0 1 1 0 1 0  −→  0 1 1 0 1 0  −→ 0 −1 0 −1 0 1 0 0 1 −1 1 1

14

Matrices y determinantes



   1 0 0 −2 0 3 1 0 0 −2 0 3 F23 (−1)  0 1 1 0 1 0  −→  0 1 0 1 0 −1  =⇒ 0 0 1 −1 1 1 0 0 1 −1 1 1 

A−1

 −2 0 3 =  1 0 −1  −1 1 1

ya que:

F23 (−1)F13 (3)F32 (1)F12 (−3)F31 (−1)(A) = I3 =⇒   −2 0 3 [E23 (−1)E13 (3)E32 (1)E12 (−3)E31 (−1)]A = I3 =⇒  1 0 −1  A = I3 ⇒ −1 1 1   −2 0 3 A−1 =  1 0 −1  −1 1 1 

1.5

Determinante de una matriz cuadrada.

Los determinantes nos proporcionan un m´etodo para el c´alculo de la matriz inversa de una dada (en caso de existir) y un criterio para estudiar si una matriz es o no invertible. Sus aplicaciones son m´ ultiples en todas las ramas de las ciencias que tratan problemas lineales en los que necesariamente aparecen matrices y por tanto, determinantes.

1.5.1

Definiciones.

Sea A = (aij ) una matriz cuadrada de dimensi´on n. A cada matriz cuadrada A se le asigna un n´ umero real que llamaremos determinante de A y representaremos por det(A) o |A|. Su c´alculo se obtiene mediante la siguiente f´ormula recurrente sobre el tama˜ no n: • para n = 1 → A = (a11 ), se define det(A) = a11 • para n > 1 → det(A) =

n X i=1

aki Aki

Determinante de una matriz cuadrada.

15

para k fijo, con 1 ≤ k ≤ n, donde Aki se define como el adjunto del elemento aki , siendo Aki = (−1)k+i det(Mki ) y Mki es la matriz resultante de eliminar en A la fila k-´esima y la columna i-´esima; su determinante se denomina menor complementario del elemento aki . Obs´ervese que mediante esta f´ormula recurrente, el c´alculo de un determinante de una matriz de orden n se traslada al c´alculo de n determinantes de otras tantas matrices de orden n−1, los menores complementarios de todos los elementos de la fila k-´esima. Ejemplo 1.11 (Caso n = 2).  Sea A una matriz cuadrada de orden 2: A =

a11 a12 a21 a22



det(A) = a11 a22 − a12 a21  Ejemplo 1.12 (Caso n = 3). 

 a11 a12 a13 Sea A una matriz cuadrada de orden 3: A =  a21 a22 a23  a31 a32 a33

det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32 (denominada regla de Sarrus). 

1.5.2

Propiedades

a) el valor de det(A) no depende del valor k (fila) elegido. b) det(At ) = det(A). Como consecuencia de esta propiedad, podemos dar una definici´on equivalente del determinante cambiando el papel de las filas por el de las columnas: n X det(A) = aik Aik i=1

con k fijo y 1 ≤ k ≤ n.

16

Matrices y determinantes

c) Si la matriz A posee una l´ınea (fila o columna) de ceros, su determinante es nulo. d) Si se intercambian dos l´ıneas de A, el determinante cambia de signo. e) Si la matriz A tiene dos l´ıneas paralelas iguales, su determinante es nulo. f) Si todos los elementos de una l´ınea se multiplican por un n´ umero α, todo el determinante queda multiplicado por dicho n´ umero. g) Si la matriz A posee dos l´ıneas paralelas proporcionales, su determinante es nulo. h) Si descomponemos una l´ınea en suma de dos, podemos descomponer el determinante en suma de dos determinantes de la forma:   a11 a12 ··· a1n .. .. ..   . . .     det  ai1 + bi1 ai2 + bi2 · · · ain + bin  =   .. .. ..   . . . an1 an2 ··· ann   a11 a12 · · · a1n .. ..   ..  . .    .    = det  ai1 ai2 · · · ain  + det   .   .. ..   ..  . . an1 an2 · · · ann 

 a11 a12 · · · a1n .. .. ..  . . .   bi1 bi2 · · · bin  .. .. ..  . . .  an1 an2 · · · ann

que denotaremos por det(C) = det(A) + det(B). Nota: No confundir con det(A + B) = det(A) + det(B). i) El determinante de una matriz no var´ıa si a una l´ınea se le suma una combinaci´on lineal de l´ıneas paralelas. j) Si una l´ınea de la matriz A es combinaci´on lineal de otras paralelas, su determinante es nulo. Teorema 1.5 Si A, B ∈ Rn×n se verifica que: det(AB) = det(A)det(B)

Factorizaci´on triangular.

1.6

17

Factorizaci´ on triangular.

El Teorema 1.1 nos garantizaba la existencia de una matriz F tal que F A = U siendo U una matriz triangular superior. Ampliaremos ahora ese resultado mediante el siguiente teorema. Teorema 1.6 Dada una matriz cuadrada A cualquiera, existen matrices P, L y U 0 tales que P A = LU 0 siendo L triangular inferior y U 0 triangular superior. Demostraci´ on. La matriz F es el producto de intercambios del tipo Fij y transformaciones del tipo Fij (α). Dado que: Fij Fik (α) = Fjk (α)Fij Fij Fkj (α) = Fki (α)Fij Fij Fhk (α) = Fhk (α)Fij Fij Fki (α) = Fkj (α)Fij Fij Fjk (α) = Fik (α)Fij podemos llevar en F todas las transformaciones a la izquierda y todos los intercambios a la derecha: F = (Matriz de las transformaciones)·(Matriz de los intercambios) llamando P a la matriz de los intercambios y L−1 a la de las transformaciones, tenemos: L−1 P A = U 0 ⇒ P A = LU 0 L−1 es una triangular inferior con unos en la diagonal principal y su inversa L es una matriz del mismo tipo. U 0 es una matriz triangular superior con los pivotes en la diagonal principal. ´ n:si las transformaciones realizadas fueran s´olo del tipo Fij (α) Observacio tendr´ıamos que: A = LU 0 . 

 2 1 3 Ejemplo 1.13 Consid´erese la matriz A =  4 2 5  6 5 4 

     2 1 3 2 1 3 2 1 3 F21 (−2) F31 (−3) F23  0 2 −5  = U 0 A −→  0 0 −1  −→  0 0 −1  −→ 6 5 4 0 2 −5 0 0 −1



18

Matrices y determinantes

que es una matriz triangular sup. F = E23 E31 (−3)E21 (−2) = E21 (−3)E23 E21 (−2) = E21 (−3)E32 (−2)E23 ⇒   1 0 0 F = L−1 P con L−1 = E21 (−3)E31 (−2) =  −3 1 0  =⇒ −2 0 1 

   1 0 0 1 0 0 L =  3 1 0  y P = E23 =  0 0 1  2 0 1 0 1 0 Se comprueba que: P A = LU 0 Como P es un producto de matrices del tipo Eij (intercambios) y dado que det(Eij ) = −1, tenemos que det(P ) = ±1. Por otra parte, sabemos que L es triangular inferior y su diagonal est´a formada por unos, entonces det(L) = 1 ⇒ det(A) = ± det(U 0 ) . U 0 es triangular superior y tiene a los pivotes en su diagonal ⇒ det(A) = ± producto de los pivotes Por todo ello, tenemos que: det(A) = ± producto de los pivotes

1.7

Inversa de una matriz cuadrada

Dada una matriz cuadrada A hab´ıamos visto que era invertible si y s´olo si su forma escalonada can´onica era la matriz unidad. Esto era posible si y s´olo si todos los pivotes eran no nulos. Al ser det(A) = ± producto de los pivotes ⇒ A es invertible si y s´olo si det(A) 6= 0 Teorema 1.7 Una matriz es singular (det(A) = 0) si y s´ olo si tiene una l´ınea combinaci´on lineal de las paralelas.

Inversa de una matriz cuadrada

19

Demostraci´ on. a) Si det(A) = 0 ⇒ alg´ un pivote es nulo, por lo que su forma escalonada can´onica tiene una fila de ceros. Deshaciendo las transformaciones efectuadas, esa fila era necesariamente combinaci´on lineal de las dem´as. b) Si una fila es combinaci´on lineal de las dem´as, por la propiedad i) de los determinantes se tiene que det(A) = 0 y por tanto, A es singular. Propiedades: a) La matriz inversa A−1 , en caso de existir, es u ´nica. En efecto: Supongamos que existieran dos inversas A1 y A2 de la matriz A. Entonces, (A1 A)A2 = A1 (AA2 ) ⇒ IA2 = A1 I ⇒ A1 = A2 . b) Si AB posee inversa, A y B tambi´en las tienen y se verifica que (AB)−1 = B −1 A−1

En efecto: AB invertible ⇒ det(AB) 6= 0 ⇒ det(A)det(B) 6= 0 ⇒  det(A) 6= 0 ⇒ ∃ A−1 det(B) 6= 0 ⇒ ∃ B −1 (AB)−1 AB = I ⇒ (AB)−1 ABB −1 = IB −1 ⇒ (AB)−1 A = B −1 ⇒ (AB)−1 AA−1 = B −1 A−1 ⇒ (AB)−1 = B −1 A−1 . c) Si A posee inversa A−1 se verifica que det(A−1 ) =

1 det(A)

En efecto: A−1 A = I ⇒ det(A−1 A) = detI ⇒ det(A−1 )det(A) = 1 ⇒ det(A−1 ) = 1 . det(A)

20

Matrices y determinantes

1.7.1

C´ alculo de la matriz inversa.

a) La suma de los productos de los elementos de una l´ınea por los adjuntos de una paralela es cero. n X

akj Aij = 0 si k 6= i

j=1

Este sumatorio corresponder´ıa al desarrollo de un determinante con las filas k e i iguales. b) Se denomina matriz adjunta de A y se denota por Adj(A) a la matriz resultante de sustituir cada elemento de la matriz cuadrada A por su adjunto. c) A · Adj(A)t = det(A) · I. En efecto: t

Sea C = A · Adj(A) . Entonces, cij =

n X

aik bkj con bkj = Ajk . Por

k=1

tanto, cij =

n X

aik Ajk

k=1

Si i 6= j ⇒ cij = 0 (suma de los productos de los elementos de la fila i por los adjuntos de los de la fila j). n X Si i = j ⇒ cii = aik Aik = det(A) ⇒ C = det(A) · I ⇒ k=1

A · Adj(A)t = det(A) · I. d) Al ser A invertible ⇒ det(A) 6= 0 ⇒ A · A−1 =

1 · Adj(A)t = I ⇒ det(A)

1 · Adj(A)t . det(A)

Ejercicios propuestos

1.8

21

Ejercicios propuestos

Ejercicio 1.1 Demostrar que el producto de dos matrices diagonales es otra matriz diagonal. ¿Es conmutativo este producto? Ejercicio 1.2 Hallar todas las matrices cuadradas de orden 2 cuyo cuadrado sea nulo. 

 0 −1 1 1 −1  . Ejercicio 1.3 Se considera la matriz A =  0 0 0 1 Hallar una f´ormula para An , siendo n un entero positivo. Ejercicio 1.4 Hallar las potencias n-´esimas de las matrices     1 1 1 α 1 A= 1 1 1  B= 0 α 1 1 1 Ejercicio 1.5 Decidir cu´ales de las siguientes afirmaciones son verdaderas y cu´ales falsas, dando en cada caso una demostraci´on o un contraejemplo, seg´ un corresponda: a) Si A y B son sim´etricas, entonces A · B es sim´etrica. b) Si A es sim´etrica y P es cuadrada, entonces P · A · P t es sim´etrica. c) Si A es una matriz cualquiera, entonces A · At y At · A son sim´etricas. d) Si A · B es sim´etrica, entonces A y B tambi´en lo son. Ejercicio 1.6 Demostrar que una matriz cuadrada de orden n puede descomponerse de forma u ´nica como suma de una matriz sim´etrica y otra antisim´etrica. Realizar la descomposici´on de la matriz   −2 7 0 4 1  A= 5 2 −5 5 Ejercicio 1.7 Sea A una matriz antisim´etrica. Demostrar: a) A2 es sim´etrica.

22

Matrices y determinantes

b) Si B es sim´etrica, entonces A · B es sim´etrica si, y s´olo si A · B = −B · A.  Ejercicio 1.8 Hallar todas las matrices que conmutan con A =  Ejercicio 1.9 Dada la matriz A = In −

1 n

   

1 1 .. .

1 −2 −3 4



   · 

 1 1 · · · 1 , probar

1 que: a) Es sim´etrica. b) A2 = A. c) La traza de A es n − 1. Ejercicio 1.10 Calcular los siguientes determinantes: 1 3 x 1 1 x+1 0 1 1 −1 2 −4 1 x 1 1 x+1 1 1 1 2 1 1 x 1 1 x+1



Ejercicio 1.11 Calcular los siguientes determinantes por dos procedimientos: desarrollando por los elementos de la primera fila y mediante triangularizaci´on por transformaciones elementales. 1 −3 1 7 6 8 5 5 4 6 7 10 6 0 3 −2 1 7 8 8 9 2 4 −2 3 8 7 9 6 3 4 1 Ejercicio 1.12 Demostrar que el determinante del producto de una matriz 2 × 1 por otra 1 × 2 es siempre cero. Ejercicio 1.13 ¿Es cierto que el determinante de una matriz antisim´etrica es siempre cero? Ejercicio 1.14 Demostrar que el determinante de una matriz de orden n ≥ 2 con todos sus elementos iguales a ±1 es siempre un n´ umero par.

Ejercicios propuestos

23

Ejercicio 1.15 Sabiendo que los n´ umeros 23715, 23529, 21359, 19437 y 17453 son m´ ultiplos de 31, probar que el determinante de la matriz   2 3 7 1 5  2 3 5 2 9     2 1 3 5 9 A=    1 9 4 3 7  1 7 4 5 3 es divisible por 31, sin calcular el determinante. Ejercicio 1.16 Hallar los posibles valores del determinante de una matriz A en cada uno de los casos siguientes: a) A es idempotente, es decir A2 = A. b) A es ortogonal, es decir A · At = I. c) A es nilpotente, es decir existe k tal que Ak = 0. Ejercicio 1 a 0 2 0 0 .. .. . . 0 0 0 0

1.17 Calcular los siguientes determinantes: 1 2 3 ··· n − 1 a ··· a a n 1 3 3 ··· n − 1 a ··· a a n 3 ··· a a n 1 2 5 ··· n − 1 .. .. .. . . .. . . .. .. .. .. . . . . . . . . . . 1 2 3 · · · 2n − 3 0 · · · n − 1 a n 1 2 3 · · · n − 1 2n − 1 0 ··· 0 n

Ejercicio 1.18 Resolver la siguiente ecuaci´on: 1+x 1 1 1 1 1 + x 1 1 1 1 1+x 1 1 1 1 1+x Ejercicio 1.19 2 1 0 1 2 1 0 1 2 .. .. .. . . . 0 0 0 0 0 0

=0

Calcular el valor de los determinantes: 0 · · · 0 0 1 1 1 1 ··· 1 0 ··· 0 0 −1 2 0 0 ··· 0 1 · · · 0 0 0 −1 2 0 · · · 0 .. . . .. .. .. . . . .. .. .. . . .. . . . . . . . 0 · · · 2 1 0 0 0 0 · · · −1 0 ··· 1 2

2

1 0 0 .. .



24

Matrices y determinantes

Ejercicio 1.20 Calcular los siguientes determinantes: a b b ··· b a b ··· a b c b b a ··· c a b .. .. .. . . . . . . b c a b b b ··· b b b ···

b b b b b b .. .. . . a b b a

Ejercicio 1.21 Los determinantes de Vandermonde son de la forma: 1 1 1 · · · 1 a1 a2 a3 · · · an a2 a22 a23 · · · a2n 1 .. .. .. . . . .. . . n−1 . n−1 . n−1 n−1 a1 a2 a3 · · · an Demostrar que el valor de este determinante es Y (aj − ai ) 1≤i<j≤n

2. Sistemas de ecuaciones lineales. Espacios vectoriales. ´ Uno de los problemas fundamentales del Algebra Lineal es la resoluci´on simult´anea de ecuaciones lineales, siendo el caso m´as simple aquel en el que el n´ umero de inc´ognitas coincide con el n´ umero de ecuaciones. Desde los textos de secundaria se proponen dos m´etodos para resolver tales sistemas de ecuaciones lineales: eliminaci´ on y determinantes. El primer m´etodo, eliminaci´on, consiste en sustraer m´ ultiplos de la primera ecuaci´on de las restantes, de tal manera que sea posible eliminar una misma inc´ognita en el resto de las ecuaciones, con lo que se obtiene un sistema con una ecuaci´on y una inc´ognita menos. El proceso se repite una y otra vez hasta que s´olo queda una ecuaci´on con una inc´ognita, que se resuelve inmediatamente. No es dif´ıcil recorrer los pasos seguidos en sentido contrario y calcular el resto de las inc´ognitas. El procedimiento permite adem´as detectar aquellos casos en que no existe soluci´on o, por el contrario, existe infinidad de ellas. El segundo m´etodo, determinantes, m´as complicado, introduce la idea de los determinantes y mediante la regla de Cramer se obtienen las soluciones como cocientes de dos determinantes. Su estudio no ser´a abordado en esta asignatura. El coste de c´alculo de dicho m´etodo lo hace viable para tama˜ no n = 2 o 3, pero cuando se trata de resolver sistemas con un n´ umero grande de inc´ognitas, se utiliza el m´etodo de eliminaci´on, de coste bastante inferior. ´ Esta primera parte corresponde al Algebra Cl´asica que se ocupa, fundamentalmente, de la resoluci´on de ecuaciones y sistemas de ecuaciones. La segunda ´ parte corresponde al Algebra Moderna, que estudia las llamadas estructuras ´ algebraicas. Estas se pueden interpretar como sistemas de elementos entre los que se definen operaciones similares a las que podemos realizar con n´ umeros. El estudio abstracto de tales estructuras permite su aplicaci´on casi inmediata 25

26

Sistemas de ecuaciones lineales. Espacios vectoriales.

en numerosos ´areas donde aparecen estructuras particulares de forma natural, lo que pone de manifiesto la unidad profunda entre los diversos campos de la matem´atica. Una de las estructuras algebraicas m´as relevantes, dentro del ´algebra lineal, es la estructura de espacio vectorial, ´ıntimamente ligada al estudio y resoluci´on de sistemas de ecuaciones lineales.

2.1

Notaci´ on y definiciones

• Se denomina sistema de m-ecuaciones lineales con n-inc´ ognitas a un sistema de ecuaciones de la forma:   a11 x1 + a12 x2 + · · · + a1n xn = b1    a21 x1 + a22 x2 + · · · + a2n xn = b2 S≡ .  ..    a x + a x + ··· + a x = b m1 1 m2 2 mn n m siendo x1 , x2 , . . . , xn las inc´ognitas del sistema y todos los aij y bi representan valores escalares pertenecientes a un cuerpo de n´ umeros, K, que para nuestros prop´ositos en esta asignatura corresponder´a con el cuerpo de los n´ umeros reales, R. • Una soluci´on del sistema consiste en la asignaci´on de valores de R a cada una de las inc´ognitas de tal forma que se verifique cada una de las ecuaciones que componen el sistema. • Sea S(S) el conjunto de todas las posibles soluciones de un sistema S. Se pueden presentar los siguientes casos: a) Si S(S) = ∅ ⇒ Sistema Incompatible  S(S) unitario ⇒ Determinado b) Si S(S) 6= ∅ ⇒ S. Compatible S(S) no unitario ⇒ Indeterminado • Dos ecuaciones se dicen equivalentes cuando las soluciones de la primera lo son tambi´en de la segunda y viceversa. Por extensi´on, dos sistemas se dicen equivalentes cuando sus conjuntos de soluciones son id´enticos. Propiedades: a) Si se multiplican los dos miembros de una ecuaci´on por un escalar (real) no nulo, la ecuaci´on resultante es equivalente a la primitiva. b) Si se suman, miembro a miembro, dos ecuaciones con soluciones comunes, la ecuaci´on resultante conserva las soluciones comunes.

Notaci´on y definiciones

27

Los sistemas lineales admiten una sencilla representaci´on matricial. As´ı, podemos denotar Ax = b siendo:       a11 a12 · · · a1n x1 b1  a21 a22 · · · a2n   x2   b2        A =  .. x = y b =  ..   ..  .. ..  ..  .     . . . . .  am1 am2 · · · amn xn bm gracias a la definici´on dada para el producto entre matrices y la de igualdad entre matrices. Es importante observar que en esta notaci´on matricial se establece un orden para las variables del sistema ya que los coeficientes asociados a una variable se corresponden con una columna de la matriz A, llamada por ello matriz de los coeficientes del sistema; x es la matriz columna de las variables del sistema y b es la matriz columna de los t´erminos independientes del sistema. Para hacer m´as operativa la notaci´on a la hora de resolver sistemas lineales, podemos prescindir de la matriz columna de las variables del sistema y en su lugar representar el sistema mediante una u ´nica matriz ampliada, (A|b), que consiste en a˜ nadir a la matriz A una u ´ltima columna correspondiente a la matriz b. De esta forma, una vez ordenadas las variables del sistema podemos identificar visualmente cada fila de la nueva matriz con una de las ecuaciones del sistema. Las propiedades enunciadas anteriormente pueden expresarse ahora en t´erminos de las transformaciones elementales fila. Propiedades: a) Si se aplica a la matriz ampliada de un sistema una transformaci´on elemental fila Fi (α), con α no nulo, la matriz resultante representa un sistema lineal equivalente al anterior. b) Si se aplica a la matriz ampliada de un sistema una transformaci´on elemental fila Fij (1), la matriz resultante representa un sistema lineal equivalente al anterior. Evidentemente, la combinaci´on de ambos tipos de transformaciones elementales, nos permite aplicar transformaciones fila del tipo Fij (α), obteni´endose sistemas equivalentes. Finalmente, la transformaci´on elemental Fi,j tan solo representa una permuta entre las ecuaciones i-´esima y j-´esima, por lo que resulta un sistema equivalente. Estamos en condiciones de abordar el primer m´etodo para la resoluci´on de sistemas de ecuaciones lineales.

28

Sistemas de ecuaciones lineales. Espacios vectoriales.

2.2

M´ etodo de eliminaci´ on gaussiana

Este m´etodo de resoluci´on de sistemas de ecuaciones admite una f´acil programaci´on, lo que permite resolver un sistema con la ayuda del ordenador. La idea del m´etodo consiste en aplicar a la matriz ampliada del sistema transformaciones elementales sobre las filas (no pueden realizarse transformaciones columna) obteniendo, de esta forma, sistemas equivalentes al dado pero cada vez m´as manejables. Mediante transformaciones, se consigue obtener un sistema equivalente al dado que tiene por matriz de los coeficientes una matriz escalonada. La notaci´on quedar´a simplificada empleando matrices ampliadas para representar en todo momento a los sistemas lineales equivalentes que resultan tras las transformaciones. Vamos a iniciar el m´etodo con un ejemplo de orden tres. Ejemplo 2.1 Sea el sistema:  1  2x + y + z = 4x + y = −2 S≡  −2x + 2y + z = 7

(2.1)

y nuestro problema es determinar los valores de x, y, z.



En primer lugar, tomaremos la matriz ampliada del sistema, siguiendo el orden natural para las variables de mismo:   2 1 1 1 (A|b) =  4 1 0 −2  −2 2 1 7 Este m´etodo, tambi´en conocido como de eliminaciones sucesivas o m´etodo de escalonamiento comienza restando m´ ultiplos de la primera ecuaci´on (fila) a las restantes, con el fin de eliminar una inc´ognita, la x de las u ´ltimas ecuaciones. Para ello: • Sumamos a la segunda ecuaci´on la primera multiplicada por -2. • Sumamos a la tercera ecuaci´on la primera multiplicada por 1.     2 1 1 1 2 1 1 1 F21 (−2) F31 (1) (A|b) −→  0 −1 −2 −4  −→  0 −1 −2 −4  −2 2 1 7 0 3 2 8

M´etodo de eliminaci´on gaussiana

El resultado es un sistema equivalente  y  2x + 0 −y S ≡  3y

29

al dado: + z = 1 − 2z = −4 + 2z = 8

El coeficiente de x en la primera ecuaci´on se denomina pivote. En el segundo paso, ignoramos la primera ecuaci´on y aplicamos el proceso a las dos ecuaciones restantes, donde las inc´ognitas son y y z. En este caso, el pivote es -1 (coeficiente de y en la segunda ecuaci´on). • Sumamos a la tercera ecuaci´on la segunda multiplicada por 3     2 1 1 1 2 1 1 1 32 (3)  0 −1 −2 −4  F−→  0 −1 −2 −4  0 3 2 8 0 0 −4 −4 y llegamos al sistema equivalente:  1  2x + y + z = 00 − y − 2z = −4 S ≡  − 4z = −4 Ahora, el proceso de eliminaci´on est´a completo. Hay un orden evidente para resolver este sistema: de la u ´ltima ecuaci´on obtenemos z = 1. Sustituyendo este resultado en la segunda ecuaci´on obtenemos −y − 2 = −4 ⇒ y = 2 y por u ´ltimo, sustituyendo ambos resultados en la primera ecuaci´on, se obtiene 2x + 2 + 1 = 1 ⇒ x = −1. Este proceso para obtener los valores de las inc´ognitas, se conoce con el nombre de sustituci´on regresiva. Es f´acil entender c´omo podemos extender la idea de la eliminaci´on gaussiana a un sistema de n-ecuaciones con n-inc´ognitas: a) En un primer paso, utilizamos m´ ultiplos de la primera ecuaci´on para anular todos los coeficientes bajo el primer pivote. b) A continuaci´on, se anula la segunda columna bajo el segundo pivote, etc. c) La u ´ltima columna contiene s´olo a la u ´ltima de las inc´ognitas. d) La sustituci´on regresiva conduce a la soluci´on en sentido contrario, es decir, comenzando por la u ´ltima inc´ognita hasta llegar a la primera.

30

Sistemas de ecuaciones lineales. Espacios vectoriales.

Cabe preguntarse, sin embargo, si este proceso de eliminaci´on gaussiana conduce siempre a una soluci´on y bajo qu´e condiciones puede fallar el proceso. Veamos dos ejemplos m´as. Ejemplo 2.2 Resolver el sistema:   x + y + z = 1 2x + 2y + z = 2 S≡  x + y = 1

(2.2) 

Procedemos a escalonar  1 1 1  2 2 1 1 1 0  1 1  0 0 0 0

la matriz ampliada del sistema:    1 1 1 1 1 F21 (−2) F31 (−1) 2  −→  0 0 −1 0  −→ 1 1 1 0 1    1 1 1 1 1 1 F32 (−1) −1 0  −→  0 0 −1 0  −1 0 0 0 0 0

La presencia de la u ´ltima fila de ceros indica que exist´ıan dos ecuaciones proporcionales en el u ´ltimo paso (la segunda y tercera ecuaciones son id´enticas) por lo que puede ser eliminada del sistema equivalente:  x + y + z = 1 −z = 0 La sustituci´on regresiva, proporciona los valores z = 0 y x = 1−y. Obs´ervese que en este ejemplo existe una relaci´on de dependencia entre las variables x e y. Si tomamos un valor cualquiera para y, ´este determina otro para la x. Existen infinitas soluciones en este caso, que podemos expresar de forma param´etrica como x = 1 − λ, y = λ y z = 0. Se dice que y act´ ua como variable independiente y {x, z} son variables dependientes. Estamos ante un sistema compatible indeterminado. Ejemplo 2.3 Resolver el sistema:   x − 2y + 2z = 3 x − 5y + 4z = 1 S≡  2x − 3y + 2z = 1

(2.3) 

M´etodo de eliminaci´on gaussiana

31

Una vez m´as procedemos a escalonar la matriz ampliada del sistema:     1 −2 2 3 1 −2 2 3 (−3) F31 (−2)  3 −5 4 1  F21 1 −2 −8  −→ −→  0 2 −3 2 1 2 −3 2 1     1 −2 2 3 1 −2 2 3 F32 (−1)  0 1 −2 −8  −→  0 1 −2 −8  0 1 −2 −5 0 0 0 3 La u ´ltima fila representa la ecuaci´on 0x + 0y + 0z = 3 lo que produce un sistema incompatible ya que 0 6= 3. Por tanto no hay soluciones para nuestro sistema original. Tras estos tres ejemplos, podemos analizar el comportamiento del m´etodo de eliminaci´on gaussiana en relaci´on con los pivotes del m´etodo de escalonamiento de Gauss-Jordan. El caso de sistema incompatible (tercer ejemplo) se identifica f´acilmente por el hecho de que existe un pivote en la u ´ltima columna de la matriz ampliada. En caso contrario, el sistema resulta compatible, siendo determinado si el n´ umero de pivotes coincide con el n´ umero de variables y compatible indeterminado si el n´ umero de pivotes es menor que el n´ umero de variables. ¿Cu´antas operaciones aritm´eticas requiere el algoritmo de eliminaci´on para resolver un sistema n × n ?. En el primer paso, una por cada t´ermino de la primera ecuaci´on para cada una de las n − 1 ecuaciones que hay debajo: n(n − 1) = n2 − n. En el segundo paso (n − 1)2 − (n − 1), etc. hasta (2 − 1)2 − (2 − 1). Es decir, en total: (12 + 22 + · · · + n2 ) − (1 + 2 + · · · + n) =

n(n + 1)(2n + 1) (n + 1)n n3 − n − = 6 2 3

por lo que es de orden O(n3 ). (n + 1)n ⇒ O(n2 ). 2 Por lo que en total, podemos decir que el m´etodo de eliminaci´on gaussiana es de orden O(n3 ). Aunque no incluiremos aqu´ı su demostraci´on, el orden del m´etodo de Cramer es O(n n!), si para resolver los determinantes s´olo empleamos su definici´on por permutaciones. Resulta evidente el considerable ahorro de c´alculo que supone el m´etodo de eliminaci´on gaussiana frente a la regla de Cramer. La sustituci´on regresiva requiere 1 + 2 + · · · + n =

32

2.2.1

Sistemas de ecuaciones lineales. Espacios vectoriales.

Sistemas de ecuaciones lineales homog´ eneos

Un sistema de ecuaciones lineales se dice que es homog´eneo cuando todos sus t´erminos independientes son nulos, es decir, es un sistema del tipo:    a11 x1 + a12 x2 + · · · + a1n xn = 0   a21 x1 + a22 x2 + · · · + a2n xn = 0 S≡ .. .. .. ..  . . . .    a x + a x + ··· + a x = 0 m1 1 m2 2 mn n Del apartado anterior se deduce que si aplicamos el m´etodo de eliminaci´on gaussiana, puesto que la matriz ampliada tiene su u ´ltima columna nula, por m´as transformaciones elementales fila que hagamos, siempre resultar´a otra columna nula. En conclusi´on, nunca habr´a un pivote en esa columna y por tanto el sistema siempre es compatible. Si el n´ umero de pivotes es igual al n´ umero de variables, el sistema es compatible determinado con soluci´on u ´nica trivial (todas las variables toman el valor nulo) mientras que si el n´ umero de pivotes es menor, habr´a infinitas soluciones y el sistema es compatible indeterminado. En estos casos, los sistemas homog´eneos se definen como sistemas homog´eneos incompatibles (soluci´on u ´nica trivial) y sistemas homog´eneos compatibles, con infinitas soluciones. Al resolver un sistema homog´eneo compatible mediante eliminaci´on gaussiana, las variables asociadas a las columnas que contienen a los pivotes se denominan variables dependientes, siendo todas las dem´as variables independientes. Podemos despejar, mediante sustituci´on regresiva, las variables dependientes en funci´on de las independientes. Las infinitas soluciones pueden expresarse mediante una serie de par´ametros, tantos como variables independientes haya. Veamos un ejemplo: Ejemplo 2.4 Resolver el sistema homog´eneo:   2x + y − z + t = 0 x + 2y + z − t = 0 S≡  3x − y − 2t = 0

(2.4) 

Como ya comentamos, la matriz ampliada tiene su u ´ltima columna llena de ceros y ´estos permanecer´an por muchas transformaciones elementales fila que hagamos. As´ı pues, para resolver sistemas homog´eneos mediante escalonamiento se prescinde de emplear la matriz ampliada y en su lugar tomamos

M´etodo de eliminaci´on gaussiana

33

simplemente la matriz de los coeficientes. Procedemos a escalonar dicha matriz:     2 1 −1 1 2 1 −1 1 1 F21 (− ) F (− 3 ) 3 3 3  31 2  1 2 1 −1  −→2  0 − −→ 2 2 2 3 −1 0 −2 3 −1 0 −2     2 1 −1 1 2 1 −1 1 5 F32 ( ) 3 3 3  0 − 32  −→3  0 32 − 32  2 2 2 3 0 − 52 − 72 0 0 4 −6 2 Aunque el proceso de escalonamiento ha concluido, podemos simplificar algunas ecuaciones aplicando ahora 

   2 1 −1 1 2 1 −1 1 1 F3 ( 2 )  0 1 1 −1  −→ 1 −1  −→  0 1 0 0 4 −6 0 0 2 −3

F2 ( 32 )

con lo que resulta el sistema equivalente   2x + y − y + S≡ 

z + t = 0 z − t = 0 2z − 3t = 0

Los pivotes se encuentran sobre las tres primeras columnas por lo que tomaremos como variables dependientes {x, y, z}, resultando t la u ´nica variable independiente. El sistema homog´eneo es compatible; presenta infinitas soluciones que podemos expresar, param´etricamente, como x = 21 λ, y = − 12 λ, z = 32 λ, t = λ. Habitualmente, cuando los c´alculos se realizan a mano, con objeto de reducir la cantidad de anotaciones, se realizan transformaciones elementales paralelamente a varias filas a la vez. Por otra parte, tambi´en es deseable evitar, en la medida de lo posible, la manipulaci´on de fracciones. Para ello, realizaremos transformaciones entre las filas que denotaremos a Fi − b Fj y que representan el equivalente a dos transformaciones elementales filas consecutivas: Fi (a) seguida de Fij (−b). As´ı, el procedimiento de escalonamiento de la matriz de coeficientes, puede expresarme m´as abreviadamente



   2 1 −1 1 −→ 2 1 −1 1  1 2 1 −1  2F2 − F1  0 3 3 −3  −→ 3 −1 0 −2 2F3 − 3F1 0 −5 3 −7 3F3 + 5F2

34

Sistemas de ecuaciones lineales. Espacios vectoriales. 

 2 1 −1 1  0 3 3 −3  0 0 24 −36 Aunque no se sigue el m´etodo de Gauss-Jordan en sentido estricto, los sistemas resultantes tambi´en son equivalentes. En nuestro ejemplo, las dos u ´ltimas filas son proporcionales a las obtenidas anteriormente.

2.3

Espacios Vectoriales

El estudio de los sistemas de ecuaciones lineales y del conjunto de sus soluciones nos llevar´a a definir la estructura algebraica de espacio vectorial. Para ello, vamos en primer lugar a interpretar los sistemas bajo otra notaci´on, de tipo vectorial. Dado un sistema de ecuaciones lineales    a11 x1 + · · · + a1n xn = b1 .. S≡ .   a x + ··· + a x = b m1 1 mn n m podemos escribirlo de la forma:        a11 a12 a1n        x1  ...  + x2  ...  + · · · + xn  ...  =  am1 am2 amn

 b1 ..  ⇐⇒ .  bm

x 1 a1 + x 2 a2 + · · · + x n an = b donde ai , b ∈ Rm×1 ∀ i = 1, 2, · · · , n En definitiva, ai , b ∈ Rm y se denominan vectores, mientras que a los xi i = 1, · · · , n se les denomina escalares. En la expresi´on anterior existen dos tipos de operaciones: * Producto de escalar por vector. * Suma de vectores. Dichas operaciones verifican las siguientes propiedades: Suma: a) Ley de composici´on interna: ∀ x, y ∈ Rn ⇒ x + y ∈ Rn .

Espacios Vectoriales

35

b) Asociativa: (x + y) + z = x + (y + z) ∀ x, y, z ∈ Rn . c) Elemento neutro: ∃ 0 ∈ Rn : 0 + x = x + 0 ∀ x ∈ Rn . d) Elemento opuesto: ∀ x ∈ Rn ∃ − x ∈ Rn : x + (−x) = (−x) + x = 0. e) Conmutativa: x + y = y + x ∀ x, y ∈ Rn . Se define (Rn , +) como un Grupo Conmutativo.

Producto por un escalar: f) Ley de composici´on externa: ∀ λ ∈ R, ∀ x ∈ Rn ⇒ λ · x ∈ Rn . g) ∀ α ∈ R, ∀ x, y ∈ Rn ⇒ α(x + y) = αx + αy. h) ∀ α, β ∈ R, ∀ x ∈ Rn ⇒ (α + β)x = αx + βx. i) ∀ α, β ∈ R, ∀ x ∈ Rn ⇒ α(βx) = (αβ)x. j) ∀ x ∈ Rn ⇒ 1 · x = x.

Se define (Rn , +, ·) como un Espacio Vectorial. La definici´on anterior se puede extender a cualquier conjunto V , diferente de Rn . Dado un conjunto V en el que se han definido dos operaciones, una interna, la suma, y otra externa, producto por un escalar, verificando las diez propiedades anteriores, se dice que (V, +, ·) es un espacio vectorial real (o sobre R). As´ı, por ejemplo, son espacios vectoriales: a) El conjunto de las matrices cuadradas de orden 3, R3×3 , junto a las operaciones de suma de matrices y producto de un escalar por una matriz. b) Los polinomios en una variable x, P [x], junto a las operaciones de suma de polinomios y producto de un polinomio por un escalar. c) El conjunto de las sucesiones de n´ umeros reales, R∞ , junto a la suma de sucesiones (t´ermino a t´ermino) y producto de una sucesi´on por un escalar (que se realiza, igualmente, t´ermino a t´ermino). d) El espacio de las funciones, f (x), reales de una variable real, x, definidas en el intervalo [0, 1], junto a la suma de funciones, definida como (f + g)(x) = f (x) + g(x), y al producto de una funci´on por un escalar, definido como (αf )(x) = α f (x).

36

Sistemas de ecuaciones lineales. Espacios vectoriales. 

2

e) Si en R consideramos:

(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ) α(x, y) = (α2 x, α2 y)

(R2 , +, ·) es un espacio vectorial sobre R. 

2

Sin embargo, si en R consideramos:

(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ) α(x, y) = (αx, 0)

(R2 , + ·) no es un espacio vectorial sobre R ya que 1 · x 6= x, pues 1 · (x1 , x2 ) = (1 · x1 , 0) = (x1 , 0) 6= (x1 , x2 ). La definici´on formal de espacio vectorial nos permite pensar en otros entes como vectores, siempre y cuando la suma y el producto por un escalar cumplan las 10 propiedades exigidas. As´ı, por ejemplo, pueden tratarse como vectores las matrices, las sucesiones, los polinomios y las funciones, entre otros muchos. Propiedades: Un espacio vectorial real (V, +, ·) cumple las siguientes propiedades: a) Unicidad de los elementos neutro y opuesto. b) α · 0 = 0 ∀ α ∈ R. c) 0 · x = 0 ∀ x ∈ V . d) α · x = 0 ⇒ α = 0 o x = 0. e) α · x = α · y y α 6= 0 ⇒ x = y. f) α · x = β · x y x 6= 0 ⇒ α = β. g) (−α) · x = α · (−x) = −(α · x). Demostraci´ on. a) Sean 0 y 00 elementos neutro: 0 = 0 + 00 por ser 00 neutro 00 = 0 + 00 por ser 0 neutro



⇒ 0 = 00

Sean x0 y x00 opuestos de x. (x0 + x) + x00 = x0 + (x + x00 ) ⇒ 0 + x00 = x0 + 0 ⇒ x00 = x0 .

Dependencia lineal

37

b) α · x = α(x + 0) = α · x + α · 0 ⇒ α · 0 = 0. c) α · x = (0 + α) · x = 0 · x + α · x ⇒ 0 · x = 0. d) α · x = 0 y α 6= 0 ⇒ ∃ α−1 : α−1 α = 1 ⇒ α−1 αx = α−1 0 ⇒ 1 · x = 0 ⇒ x = 0. e) α · x = α · y y α 6= 0 ⇒ α · x + (−α · y) = 0 ⇒ α−1 αx + α−1 (−αy) = 0 ⇒ x + (−y) = 0 ⇒ x = y. f) α · x = β · x y x 6= o ⇒ α · x − β · x = 0 ⇒ (α − β) · x = 0 ⇒ α − β = 0 ⇒ α = β. g) α · (−x) = α · (0 − x) = α · 0 − α · x = 0 − α · x = −α · x. (−α) · x = (0 − α) · x = 0 · x − α · x = 0 − α · x = −α · x.

2.4

Dependencia lineal

Los siguientes conceptos son fundamentales para el estudio de los espacios vectoriales, ya que la idea de independencia lineal nos llevar´a a las definiciones de base, rango, dimensi´on, etc., de capital importancia para dicho estudio. A partir de estos conceptos podremos profundizar en el an´alisis de estas estructuras algebraicas, encontrando formas alternativas de representaci´on y caracterizando los posibles subconjuntos del espacio vectorial que conservan las mismas propiedades. En lo sucesivo consideraremos un espacio vectorial real cualquiera, (V, +, ·). • Dados los vectores xi ∈ V 1 ≤ i ≤ n y los escalares αi ∈ R 1 ≤ i ≤ n, se denomina combinaci´ on lineal de los vectores x1 , x2 , . . . , xn ∈ V a toda expresi´on del tipo: α1 x1 + α2 x2 + · · · + αn xn ´o en notaci´on abreviada

n X

αi xi

i=1

• Se dice que x ∈ V es una combinaci´on lineal de los vectores {x1 , . . . , xn } de V si existen α1 , α2 , . . . , αn ∈ R tales que: x=

n X i=1

αi xi

38

Sistemas de ecuaciones lineales. Espacios vectoriales.

• Un conjunto finito de vectores H = {x1 , x2 , . . . , xk } siendo H ⊂ V se dice linealmente dependiente o que forman un sistema ligado, si existen α1 , α2 , . . . , αk ∈ R, no todos nulos, tales que n X

αi xi = α1 x1 + α2 x2 + · · · + αk xk = 0

i=1

Teorema 2.1 Un conjunto finito de vectores H = {x1 , x2 , . . . , xk } es linealmente dependiente si y s´olo si, al menos, uno de ellos depende linealmente de los restantes. Demostraci´ on. Si {x1 , x2 , . . . , xk } son linealmente dependientes existe xi con i = 1, 2, . . . , k tal que xi = α1 x1 + · · · + αi−1 xi−1 + αi+1 xi+1 + · · · + αk xk . En efecto: Por ser linealmente dependientes existen λ1 , λ2 , . . . , λk ∈ R no todos nulos tales que λ1 x1 + λ2 x2 + · · · + λk xk = 0. Sea λi 6= 0 1 ≤ i ≤ k. Entonces xi = −

λ1 λi−1 λi+1 λk x1 − · · · − xi−1 − xi+1 − · · · − xk ⇒ λi λi λi λi

xi = α1 x1 + · · · + αi−1 xi−1 + αi+1 xi+1 + · · · + αk xk ⇒ xi es combinaci´on lineal de los dem´as. Rec´ıprocamente, si alg´ un xi es combinaci´on lineal de los dem´as, el conjunto de vectores {x1 , x2 , . . . , xk } es un sistema ligado. En efecto: Si xi es combinaci´on lineal de los dem´as, implica que xi = α1 x1 + · · · + αi−1 xi−1 + αi+1 xi+1 + · · · + αk xk ⇒ α1 x1 + · · · + αi−1 xi−1 − 1 · xi + αi+1 xi+1 + · · · + αk xk = 0 ⇒ k X

αj xj = 0 con αi = −1 y por tanto {x1 , . . . , xk } es un sistema ligado.

j=1

• Se dice que H ⊂ V depende linealmente de H 0 ⊂ V si cualquier vector de H depende linealmente de los vectores de H 0 .

Teorema 2.2 Propiedades de la dependencia lineal. a) Si un conjunto de vectores H = {x1 , x2 , . . . , xk } contiene al vector nulo, es un sistema ligado.

Dependencia lineal

39

b) Si en un conjunto de vectores H = {x1 , x2 , . . . , xk } hay dos proporcionales entonces, H es un sistema ligado. c) Si H = {x1 , x2 , . . . , xr } es un sistema ligado y H 0 = {x1 , x2 , . . . , xk } es tal que H ⊂ H 0 , entonces H 0 es tambi´en un sistema ligado. d) Si un vector x es una combinaci´ on lineal de los vectores {x1 , x2 , . . . , xm } y cada uno de estos depende linealmente de {y1 , y2 , . . . , yk } entonces, x depende linealmente de {y1 , y2 , . . . , yk } Demostraci´ on. a) 0x1 + 0x2 + · · · + 1 · 0 + · · · + 0xk = 0 siendo 1 6= 0. b) Sea xi = kxj . Entonces, 0x1 + · · · + 0xi−1 + kxj + 0xi+1 + · · · + (−k)xj + · · · + 0xk = 0 con k 6= 0, por lo que {x1 , x2 , . . . , xk } es un sistema ligado. c) λ1 x1 + · · · + λr xr = 0 con alg´ un λi 6= 0 ⇒ λ1 x1 + · · · + λr xr + 0xr+1 + · · · + 0xk = 0 con λi 6= 0. d) x =

m X i=1

λi x i =

m X

λi ·

i=1

k X j=1

αij yj =

k X m k X X ( λi αij )yj = βj yj . j=1 i=1

j=1

• Se dice que un conjunto finito de vectores H = {x1 , x2 , . . . , xk } ⊂ V es linealmente independiente o que constituye un sistema libre si no es un sistema ligado, es decir, si de cualquier combinaci´on lineal de ellos igualada a cero, se deduce que todos los coeficientes han de ser nulos. k X

αi xi = 0 ⇒ α1 = α2 = · · · = αk = 0.

i=1

En el caso particular del espacio vectorial (Rn , +, ·) esta definici´on es equivak X lente a decir que el sistema homog´eneo αi xi = 0 es incompatible, es decir, i=1

s´olo admite la soluci´on trivial. Por tanto, para comprobar si un conjunto de vectores {x1 , x2 , . . . , xn } ⊂ Rn es un sistema libre o ligado, se plantea el n X sistema de ecuaciones αi xi = 0 y al resolver, i=1

40

Sistemas de ecuaciones lineales. Espacios vectoriales.

- si s´olo admite la soluci´on trivial ⇔ sistema libre. - si admite soluci´on distinta de la trivial ⇔ sistema ligado. Tambi´en se puede estudiar la dependencia o independencia lineal mediante escalonamiento o triangularizaci´on. Teorema 2.3 Propiedades de la independencia lineal. a) Un conjunto formado por un u ´nico vector no nulo, es un sistema libre. b) Si H = {x1 , x2 , . . . , xn } es un sistema libre, cualquier subconjunto no vac´ıo de H es tambi´en un sistema libre. c) Ning´ un sistema libre puede contener al vector nulo. Demostraci´ on. a) Si x 6= 0 y αx = 0 ⇒ α = 0 ⇒ {x} es un sistema libre. b) Sea {x1 , . . . , xr } ⊂ {x1 , . . . , xk }. Si {x1 , . . . , xr } fuese ligado entonces, {x1 , . . . , xk } ser´ıa ligado en contra de la hip´otesis (ver el apartado c) del Teorema 2.2). c) Si contuviese al 0, ser´ıa un sistema ligado (ver el apartado a) del Teorema 2.2).

2.4.1

Espacios vectoriales de tipo finito

Un espacio vectorial V se dice de tipo finito si posee un sistema finito de generadores es decir, si existe un conjunto finito {u1 , u2 , . . . , un } de vectores de V tales que n X ∀x∈V ⇒x= αi ui con αi ∈ K i=1

donde K es el cuerpo de definici´on de V ; a efectos pr´acticos K = R. Evidentemente, el conjunto de generadores de un espacio vectorial no es u ´nico. Existen numerosos espacios vectoriales que no est´an engendrados por un n´ umero finito de generadores, por ejemplo, el espacio vectorial de los polinomios, pues cualquier conjunto finito de polinomios {p1 (x), p2 (x), . . . , pn (x)},

Dependencia lineal

41

cualesquiera que sean sus grados, generan a un subconjunto de P [x] pero no a todo P [x]. Otros espacios vectoriales est´an generados por un n´ umero finito de generan m×n dores, como por ejemplo R , R ´o Pn [x], el espacio de los polinomios de grado menor o igual que n en la variable x.

2.4.2

Bases de un espacio vectorial

Un conjunto B = {u1 , u2 , . . . , un } de vectores de un espacio vectorial V de tipo finito y definido sobre un cuerpo K se dice que constituye una base si cumple: a) B es un sistema generador de V . b) B es un sistema libre. Teorema 2.4 Todo espacio vectorial V finito y no nulo posee, al menos, una base. Demostraci´ on. Por tratarse de un espacio vectorial de tipo finito, existe un sistema generador finito H = {u1 , u2 , . . . , un } tal que V = L(H) y como V 6= {0} uno, al menos, de estos vectores generadores es no nulo, es decir, existen subconjuntos de H formados por vectores linealmente independientes. Entre todos estos subconjuntos de H elegimos uno cuyo n´ umero de vectores sea m´aximo. Sea este {u1 , u2 , . . . , ur } con 1 ≤ r ≤ n y veamos que constituye una base. a) Es un sistema libre por construcci´on. b) Veamos que es un sistema generador de V . En efecto: como el conjunto de vectores {u1 , u2 , . . . , un } es un sistema generador de V , cualquier vector x ∈ V es combinaci´on lineal de ellos. Como por otra parte, todos ellos son combinaci´on lineal de los vectores {u1 , u2 , . . . , ur }, cualquier vector x ∈ V puede ser expresado como combinaci´on lineal de {u1 , u2 , . . . , ur } (ver el apartado 4 del Teorema 2.2), por lo que es un sistema generador de V . Al ser {u1 , u2 , . . . , ur } un sistema generador y libre, constituye una base de V. Teorema 2.5 Todas las bases de un espacio vectorial V poseen el mismo n´ umero de vectores.

42

Sistemas de ecuaciones lineales. Espacios vectoriales.

Demostraci´ on. Sean B = {u1 , u2 , . . . , un } y B 0 = {v1 , v2 , . . . , vp } dos bases de un mismo espacio vectorial V . a) Supongamos que n > p Por ser B 0 una base de V , existen αij ∈ K tales que u1 = α11 v1 + · · · + α1p vp .. . un = αn1 v1 + · · · + αnp vp Entonces, como

n X

λi ui = 0 ⇒ λi = 0 ∀ i = 1, 2, . . . , n por ser B un

i=1

sistema libre se tiene que λ1 (α11 v1 + · · · + α1p vp ) + · · · + λn (αn1 v1 + · · · + αnp vp ) = 0 ⇒ 0 los coeficientes de v1 , v2 , . . . , vp han de  ser nulos por ser B otra base, λ1 α11 + · · · + λn αn1 = 0   y por tanto ... y como n > p el sistema ho  λ α + ··· + λ α = 0 1 1p

n np

mog´eneo es compatible, por lo que admite soluci´on (λ1 , λ2 , . . . , λn ) distinta de la trivial, en contra de que λi = 0 ∀ i = 1, 2, . . . , n. Deducimos pues que n 6> p o lo que es lo mismo, que n ≤ p b) Supongamos que p > n Un razonamiento an´alogo al anterior nos conduce a que p 6> n es decir, a que n ≥ p Como hemos llegado a que n ≤ p y n ≥ p tenemos que necesariamente es n = p. • Se define dimensi´ on de un espacio vectorial V de tipo finito y se denota por dim V como el n´ umero de vectores que posee una base cualquiera del mismo. Hay que destacar que si B es una base de V significa que cualquier vector x ∈ V puede ser expresado como combinaci´on lineal de los elementos de B, es decir ∀x∈V ⇒x=

n X i=1

x i ui = x 1 u 1 + x 2 u2 + · · · + x n u n

con xi ∈ K

Dependencia lineal

43

• A los escalares (x1 , x2 , . . . , xn ) se les denomina coordenadas o componentes del vector x respecto de la base B. Para no confundir el vector con sus coordenadas o incluso un elemento de Rn con sus coordenadas respecto de una determinada base B, denotaremos las coordenadas de la forma (x1 , x2 , . . . , xn )B . A veces se prescinde del sub´ındice cuando por el contexto se sobreentiende que en todo momento nos referimos a las coordenadas respecto de una base fijada previamente. Teorema 2.6 Las coordenadas de un vector respecto de una base son u ´nicas. Demostraci´ on. Sea V un espacio vectorial definido sobre un cuerpo K y consideremos una base B = {u1 , u2 , . . . , un } de dicho espacio. n X ∀x∈V ⇒x= xi ui donde (x1 , x2 , . . . , xn ) son unas coordenadas de x i=1

respecto de la base B. Supongamos que existieran otras coordenadas (y1 , y2 , . . . , yn ) de x respecto de la misma base B, es decir x=

n X

y i ui

i=1

Entonces, x−x =

n X i=1

xi ui −

n X i=1

y i ui =

n X

(xi −yi )ui = 0 y al ser {ui }i=1,

2,..., n

i=1

un sistema libre, xi − yi = 0 ∀ i, por lo que xi = yi i = 1, 2, . . . , n. Es decir, las coordenadas de un vector respecto de una base son u ´nicas. • De entre todas las bases del espacio vectorial (Rn , +, ·) hay una que recibe el nombre especial de base can´ onica y suele denotarse por C = {e1 , e2 , . . . , en }, siendo e1 = (1, 0, 0, . . . , 0) e2 = (0, 1, 0, . . . , 0) .. . en = (0, 0, 0, . . . , 1) La demostraci´on de que realmente constituye una base es trivial, dada la sencillez en la estructura de sus elementos: – se trata de un sistema generador ya que cualquier vector (x1 , x2 , x3 , . . . , xn ) puede obtenerse como x1 e1 + x2 e2 + x3 e3 + . . . + xn en

44

Sistemas de ecuaciones lineales. Espacios vectoriales.

– es un sistema libre de vectores pues n X

xi ei = (x1 , x2 , . . . , xn ) = 0 ⇔ x1 = 0, x2 = 0, . . . , xn = 0

i=1

Obs´ervese que las coordenadas de un vector respecto de la base can´onica coinciden con los n valores que componen el vector. • Dado un espacio vectorial V de dimensi´on finita, dim V = n, una vez elegida una base B para dicho espacio, podemos establecer un isomorfismo entre el espacio V y el espacio Rn . Es decir, podemos asociar (identificar) cada vector de V con un u ´nico elemento de Rn que representa sus coordenadas respecto de la base elegida. Con esta idea, podemos prescindir de trabajar con los vectores originales (matrices, polinomios, funciones, etc.) y trabajar con sus coordenadas. Teorema 2.7 Fijada una base B en un espacio vectorial V de dimensi´ on n, el conjunto de vectores {x1 , x2 , . . . , xm } es un sistema libre si y solo si lo es el conjunto de sus coordenadas como vectores de Rn . Demostraci´ on. Sean (xi1 , xi2 , . . . , xin ), para i = 1, . . . , m, las coordenadas del vector xi ∈ V respecto de la base B = {v1 , v2 , . . . , vn }. N´otese que m X

αi xi = 0 ⇔

i=1

m X i=1

n X αi ( xij vj ) = 0 ⇔ j=1

n X m X ( αi xij )vj = 0 ⇔ por ser B base j=1 i=1

  α1 x11 + α2 x21    α1 x12 + α2 x22 .. ..  . .    αx + α x 1 1n 2 2n    x11 x21  x12   x22    α1  ..  + α2  ..  .   . x1n x2n

+ . . . + αm xm1 = 0 + . . . + αm xm2 = 0 .. .. ⇔ . . + . . . + αm xmn = 0     xm1 0   xm2   0      + · · · + αm  ..  =  ..   .   . xmn 0

    

por tanto, los vectores {x1 , x2 , . . . , xn } son linealmente independientes si y solo si lo son los vectores de Rn : {(x11 , x12 , . . . , x1n ), (x21 , x22 , . . . , x2n ), . . . , (xm1 , xm2 , . . . , xmn )}

Dependencia lineal

2.4.3

45

Rango de un conjunto de vectores

Llamamos rango de un conjunto de vectores al mayor n´ umero de ellos linealmente independientes. ¿Qu´e operaciones o modificaciones se pueden realizar en un conjunto de vectores de forma que no se altere la dependencia lineal, es decir, sin que se altere su rango? a) Si en un conjunto de vectores {x1 , x2 , . . . , xn } se aplican transformaciones elementales, su rango no se altera. La transformaci´on Fij consiste simplemente en cambiar de orden dos vectores; la transformaci´on Fi (α) (para α 6= 0) consiste en reemplazar el vector xi por un m´ ultiplo de ´el, αxi . Obviamente este reemplazamiento no cambia el n´ umero de vectores linealmente independientes que existe en el conjunto. Finalmente, la transformaci´on Fij (α) reemplaza el vector xi por el nuevo vector v = xi +αxj . Veamos que esto tampoco cambia el n´ umero de vectores linealmente independientes: • Si xi es combinaci´on lineal de los restantes vectores, xi =

n X

λk x k ,

k=1 k6=i

entonces resulta v = xi +αxj =

n X

λk xk +αxj , de donde v tambi´en

k=1 k6=i

es combinaci´on lineal de los restantes. • Si xi es linealmente independiente de los dem´as, necesariamente n X v tambi´en pues en caso contrario, si v = xi + αxj = λk x k , k=1 k6=i

despejando xi resulta xi =

n X

λk xk − αxj con lo que tendr´ıamos

k=1 k6=i

que xi es combinaci´on de los dem´as tambi´en, lo cual es imposible. b) La dependencia o independencia lineal del conjunto {x1 , x2 , . . . , xn } de vectores, equivale a la compatibilidad o incompatibilidad del sistema de ecuaciones lineales homog´eneo dado por α1 x1 + α2 x2 + · · · + αn xn = 0    α1 x11 + · · · + αm x1m = 0 x11 · · · x1m α1  .. ..   ..  ⇔ Ax = 0 ⇔  ... . . . . .  .  α1 xn1 + · · · + αm xnm = 0 xn1 · · · xnm αm

46

Sistemas de ecuaciones lineales. Espacios vectoriales. donde las columnas de A son las componentes de los vectores xi ∈ Rm con 1 ≤ i ≤ m.

Como el rango de {x1 , x2 , . . . , xn } no var´ıa al hacer transformaciones elementales, esto equivale a que el rango de A no se altera al hacerle transformaciones elementales. M´as espec´ıficamente, si consideramos una matriz cuyas columnas las forman los vectores x1 , x2 , . . . , xm ∈ Rn , el rango de dicho conjunto de vectores no var´ıa si en la matriz A (cuyas columnas son dichos vectores) realizamos • Transformaciones columnas, como consecuencia de a). • Transformaciones filas, como consecuencia de b). Por tanto, el rango de un conjunto de vectores se puede calcular escalonando la matriz A mediante transformaciones filas o columnas. Sin embargo, los subespacios generados por las filas o las columnas son distintos.   u1   Sea L = L({u1 , u2 , . . . , ur }) y sea A =  ...  la matriz cuyas filas son los ur vectores u1 , u2 , . . . , ur . Triangularizando por filas obtenemos otros vectores {x1 , x2 , . . . , xr } y consideremos L1 = L({x1 , x2 , . . . , xr }). Realizando el mismo proceso por columnas obtenemos L2 = L({y1 , y2 , . . . , yr }). En general se cumple que L ≡ L1 y L 6≡ L2 . Comprob´emoslo con un ejemplo: Ejemplo 2.5 Consideramos los vectores u1 = (1, 1, 1, 1) y u2 = (2, 1, 1, 1) de R4 y sea L = L({u1 , u2 }). Si realizamos transformaciones filas tenemos:     1 1 1 1 1 1 1 1 → 2 1 1 1 0 −1 −1 −1 de donde L1 = L({(1, 1, 1, 1), (0, 1, 1, 1)} Mientras que realizando transformaciones columnas obtenemos:     1 1 1 1 1 0 0 0 → 2 1 1 1 2 −1 0 0

Dependencia lineal

47

es decir L2 = L({(1, 0, 0, 0), (2, −1, 0, 0)} obteni´endose que L1 ≡ L y L2 6≡ L.

2.4.4



Rango de una matriz

Sea A ∈ Rm×n . Se define rango fila de A y lo denotamos por rf (A) como el rango del conjunto de vectores de Rn formado por las filas de la matriz A. An´alogamente, se define rango columna de A y se denota por rc (A) como el rango del conjunto de vectores de Rm formado por sus columnas. Teorema 2.8 [Teorema del rango] En toda matriz se verifica que los rangos fila y columna coinciden. rf (A) = rc (A) Demostraci´ on. a) Sabemos que el rango no se altera si realizamos transformaciones filas o columnas. b) Sabemos que mediante transformaciones elementales podemos reducir la matriz A a una de la forma   Ir 0 =D 0 0  rf (A) = rf (D) = r ⇒ rf (A) = rc (A) = r. rc (A) = rc (D) = r Podemos entonces hablar de rango de una matriz sin especificar si se trata del rango fila o del rango columna y lo representaremos por r(A). Por otra parte ha quedado demostrado que el rango de una matriz coincide con el n´ umero de pivotes en cualquier forma escalonada obtenida a partir de dicha matriz. Corolario 2.9 Cualquiera que sea la matriz A ∈ Rm×n se verifica que r(A) = r(At ).

48

Sistemas de ecuaciones lineales. Espacios vectoriales.

Demostraci´ on. Dado que rf (A) = rc (At ) y rc (A) = rf (At ) y que rf (A) = rc (A) = r(A) se tiene que rf (At ) = rc (At ) = r(At ) = r(A). Teorema 2.10 Dadas las matrices A ∈ Rm×p y B ∈ Rp×n se cumple que r(AB) ≤ r(A)r(B) verific´andose adem´as que r(AB) ≤ min{r(A), r(B)}. Demostraci´ on. Cualquier columna de la matriz C = AB es una combinaci´on lineal de los vectores columna de la matriz A.  Pp  Pp a b · · · a b i=1 1i i1 i=1 1i in   . . . .. AB =  ...  .P Pp p i=1 ami bi1 · · · i=1 ami bin Fij´andonos ahora en la primera columna de C = AB observamos que       a11 b11 + a12 b21 + · · · + a1p bp1 a11 a1p    .   .  ..   = b11  ..  + · · · + bp1  ..  . am1 b11 + am2 b21 + · · · + amp bp1 am1 amp es decir, las columnas de C = AB son combinaciones lineales de las de A, por lo que (2.5) rc (AB) ≤ rc (A) ⇔ r(AB) ≤ r(A) An´alogamente, fij´andonos en la k-´esima fila de C = AB observamos que (ak1 b11 + · · · + akp b1n · · · ak1 b1n + · · · + akp bpn ) = ak1 (b11 · · · b1n ) + · · · + akp (bp1 · · · bpn ) es decir, es una combinaci´on de las filas de B y por tanto, rf (AB) ≤ rf (B) ⇐⇒ r(AB) ≤ r(B)

(2.6)

Fij´andonos ahora en las ecuaciones (2.5) y (2.6) deducimos que r(AB) ≤ min{r(A), r(B)}. Adem´as, observando que r(AB) ≤ [r(AB)]2 = r(AB)r(AB) ≤ r(A)r(B) podemos asegurar que r(AB) ≤ r(A)r(B)

Variedades lineales

2.5

49

Variedades lineales

Sea (V, +, ·) un espacio vectorial y L ⊂ V . Decimos que L es un subespacio vectorial o variedad lineal de V si L tiene estructura de espacio vectorial para las mismas operaciones de V y sobre el mismo cuerpo (R), es decir:  1. ∀ x, y ∈ L ⇒ x+y ∈L L subespacio vectorial de V ⇔ 2. ∀ x ∈ L y ∀ α ∈ R ⇒ αx ∈ L

2.5.1

Caracterizaci´ on de los subespacios vectoriales

De la propia definici´on de subespacio vectorial se deduce que L es un subespacio de V si y s´olo si ∀ x, y ∈ L y ∀ α, β ∈ R se verifica que αx + βy ∈ L Teorema 2.11 Las siguientes proposiciones son equivalentes: a) L es subespacio vectorial de V . b) ∀ α, β ∈ R y ∀ x, y ∈ L ⇒ αx + βy ∈ L.  x+y ∈L c) ∀ α ∈ R y ∀ x, y ∈ L ⇒ αx ∈ L Demostraci´ on.  1 ⇒ 2 : ya que por ser L espacio vectorial

∀ α ∈ R ∀ x ∈ L ⇒ αx ∈ L ∀ β ∈ R ∀ y ∈ L ⇒ βy ∈ L



αx + βy ∈ L. 2 ⇒ 3 : para α = β = 1 ⇒ x + y ∈ L y para β = 0 ⇒ αx ∈ L. 3 ⇒ 1 : ya que al ser x + y ∈ L (interna), todas las propiedades de la suma se verifican por ser x, y ∈ V , y an´alogamente ocurre con la ley externa. Ejemplo 2.6 a) Sea L ⊂ R3 , L = {x = (x1 , x2 , 0) : x1 , x2 ∈ R} L es subespacio vectorial de R3 . b) Sea L ⊂ R2 , L = {x = (−α, α) : α ∈ R}

50

Sistemas de ecuaciones lineales. Espacios vectoriales. L es subespacio vectorial de R2 . c) Sea L ⊂ R2 , L = {x = (α, 3α) : α ∈ R} L es subespacio vectorial de R2 

2.5.2

Variedad engendrada por un conjunto finito de vectores

Sean V ⊂ Rn un espacio vectorial real y H ⊂ V . Se denomina variedad lineal engendrada por H y la denotamos por L(H) al conjunto de vectores de V que son combinaci´on lineal de los vectores de H. Al conjunto H se le denomina sistema generador de L(H). Teorema 2.12 L(H) es una variedad lineal de V .

Demostraci´ on. x, y ∈ L(H) =⇒ existen

  x 1 , . . . , xk , y 1 , . . . , y p ∈ H  α ,..., α , β ,..., β ∈ R 1 k 1 p

tales que: x=

k X

αi xi

y=

i=1

p X

βj yj

j=1

de donde αx + βy = α

k X i=1

αi xi + β

p X j=1

βj yj =

k X i=1

(ααi )xi +

p X

(ββj )yj ,

j=1

es decir, αx + βy es combinaci´on lineal de x1 , . . . , xk , y1 , . . . , yp ∈ H, por lo que αx + βy ∈ L(H) y por tanto, L(H) es una variedad lineal de V . Propiedades: Sea V ∈ Rn un espacio vectorial y sean H, H 0 ⊂ V . Se cumplen: a) H ⊆ L(H). b) Si H ⊂ H 0 ⇒ L(H) ⊆ L(H 0 ).

Operaciones con variedades lineales

51

c) L(L(H)) = L(H). En efecto: a) ∀ x ∈ H, como 1 ∈ R ⇒ 1 · x ∈ L(H) ⇒ x ∈ L(H) ⇒ H ⊆ L(H). b) ∀ x ∈ L(H) ⇒ x =

k X

αi xi con xi ∈ H ⊂ H 0 ⇒ x =

i=1

k X

αi xi con

i=1

xi ∈ H 0 ⇒ x ∈ L(H 0 ) ⇒ L(H) ⊆ L(H 0 ).

c) H ⊆ L(H) ⇒ L(H) ⊆ L(L(H)). Veamos ahora que L(L(H)) ⊆ L(H). p k X X x ∈ L(L(H)) ⇒ x = αi xi con xi ∈ L(H) ⇒ xi = βij xj con i=1

xj ∈ H ⇒ x =

k X

αi

i=1

p X j=1

j=1

p p k X X X βij xj = ( αi βij )xj = γj xj con xj ∈ j=1 i=1

j=1

H ⇒ x ∈ L(H) ⇒ L(L(H)) ⊆ L(H) y por tanto, L(L(H)) = L(H).

2.6 2.6.1

Operaciones con variedades lineales Intersecci´ on

Sea V un espacio vectorial definido sobre un cuerpo K y sean L1 y L2 dos variedades lineales de V . L = L1 ∩ L2 es otra variedad lineal de V . En efecto:  x, y ∈ L1 ⇒ λx + µy ∈ L1 ∀ x, y ∈ L ⇒ ∀ λ, µ ∈ K ⇒ λx + µy ∈ L1 ∩ L2 x, y ∈ L2 ⇒ λx + µy ∈ L2 Por tanto, L1 ∩ L2 es una variedad lineal de V . Si Li i ∈ I es un conjunto de variedades lineales de V entonces, L =

\

Li es

i∈I

tambi´en una variedad lineal de V . Este resultado es f´acil probarlo utilizando para ello el m´etodo de inducci´on.

2.6.2

Uni´ on

La uni´on de dos variedades lineales no es, en general, otra variedad lineal.

52

Sistemas de ecuaciones lineales. Espacios vectoriales.

En efecto: sean L1 y L2 dos variedades lineales de un espacio vectorial V definido sobre un cuerpo K.  x ∈ L1 o x ∈ L2 ∀ x, y ∈ L1 ∪ L2 ⇒ y ∈ L1 o y ∈ L 2 Supongamos x ∈ L1 e y ∈ L2 (y 6∈ L1 , x 6∈ L2 ). Entonces, x + y 6∈ L1 y x + y 6∈ L2 por lo que x + y 6∈ L1 ∪ L2 y por tanto, L1 ∪ L2 no es una variedad lineal.

2.6.3

Suma

Sean L1 y L2 dos variedades lineales de un espacio vectorial V definido sobre un mismo cuerpo K. Consideremos el conjunto L = L1 + L2 = {x1 + x2 : x1 ∈ L1 ∧ x2 ∈ L2 } El conjunto L de vectores de V tiene estructura de espacio vectorial sobre K y recibe el nombre de subespacio suma. En efecto:  x = x1 + x2 con x1 ∈ L1 x2 ∈ L2 ∀ x, y ∈ L = L1 + L2 ⇒ y = y1 + y2 con y1 ∈ L1 y2 ∈ L2 ∀λ, µ ∈ K es λx + µy = λ(x1 + x2 ) + µ(y1 + y2 ) = (λx1 + µy1 ) + (λx2 + µy2 )  x1 , y1 ∈ L1 ⇒ λx1 + µy1 ∈ L1 Como x2 , y2 ∈ L2 ⇒ λx2 + µy2 nL2 Por lo que λx + µy = (λx1 + µy1 ) + (λx2 + µy2 ) ∈ L1 + L2 = L Es decir, L = L1 + L2 es una variedad lineal de V . Propiedades: a) Toda variedad L que contenga a L1 y a L2 , tambi´en contiene a L1 + L2 y viceversa. b) L1 + L2 es la variedad lineal m´as peque˜ na que contiene a las variedades L1 y L2 . En efecto: a) Sea L una variedad que contenga a L1 y a L2 .  x ∈ L1 ⇒ x ∈ L ∀ z ∈ L 1 + L2 ⇒ z = x + y y ∈ L2 ⇒ y ∈ L

Operaciones con variedades lineales

53

y como L es una variedad lineal x, y ∈ L ⇒ z = x + y ∈ L ⇒ L1 + L2 ⊂ L Rec´ıprocamente si L1 + L2 ⊂ L ∀ x ∈ L1 ⇒ x = x + 0 con x ∈ L1 0 ∈ L2 ⇒ L1 ⊂ L1 + L2 ⊂ L ∀ y ∈ L2 ⇒ y = 0 + y con 0 ∈ L1 y ∈ L2 ⇒ L2 ⊂ L1 + L2 ⊂ L b) Sea L = L1 + L2 y sea L0 una variedad lineal de V tal que L1 , L2 ⊂ L0 . Veamos entonces que L ⊂ L0 . ∀ x ∈ L ⇒ x = x1 + x2 con x1 ∈ L1 , x2 ∈ L2 ⇒ x1 ∈ L0 , x2 ∈ L0 y por ser L0 una variedad lineal x1 + x2 ∈ L0 ⇒ x ∈ L0 ⇒ L ⊂ L0 .

2.6.4

Suma directa

Si dos variedades lineales L1 y L2 de un espacio vectorial V son disjuntas, es decir, si L1 ∩ L2 = {0} su suma se denomina suma directa y se denota por L1 ⊕ L2 Teorema 2.13 Si la suma de dos variedades es directa, cualquier vector de dicha suma se puede expresar de manera u ´nica como suma de un vector de cada una de las variedades. Es decir: ∀ x ∈ L = L1 ⊕ L2 ⇒ existen unos u ´nicos vectores x1 ∈ L1 , x2 ∈ L2 tales que x = x1 + x2 . Rec´ıprocamente si la descomposici´ on es u ´nica, la suma es directa. Demostraci´ on. Supongamos que x ∈ L1 ⊕L2 admitiese dos descomposiciones  x = x 1 + x 2 : x 1 ∈ L1 x 2 ∈ L2 ⇒ x1 + x2 = y1 + y2 ⇒ x1 − y1 = x 2 − y2 x = y 1 + y 2 : y 1 ∈ L1 y 2 ∈ L2 Como x1 − y1 ∈ L1 y x2 − y2 ∈ L2 , x1 − y1 = x2 − y2 ∈ L1 ∩ L2 = {0} ⇒ x1 − y1 = x2 − y2 = 0 ⇒ x1 = y1 , x2 = y2 y por tanto, la descomposici´on es u ´nica. Rec´ıprocamente si la descomposici´on es u ´nica, como  x = x + 0 con x ∈ L1 0 ∈ L2 ∀ x ∈ L1 ∩ L2 ⇒ x = x + 0 = 0 + x ⇒ x = 0 + x con 0 ∈ L1 x ∈ L2 y al ser u ´nica la descomposici´on x = 0 ⇒ L1 ∩ L2 = {0}, por lo que la suma es directa.

54

2.7

Sistemas de ecuaciones lineales. Espacios vectoriales.

Ecuaciones de los subespacios.

Sean V un espacio vectorial de dimensi´on n, B = {v1 , v2 , . . . , vn } una base de V , L un subespacio de V de dimensi´on r < n y B 0 = {u1 , u2 , . . . , ur } una base de L. Se llaman ecuaciones param´ etricas de L a las relaciones que ligan las coordenadas de un vector cualquiera x ∈ L respecto de las bases B 0 de L y B de V . r n X X ∀x∈L⇔x= λi u i ∀x∈L⊂V ⇒x= xj vj i=1

j=1

u1 , u2 , . . . , ur ∈ V ⇒ ui = a1i v1 + a2i v2 + · · · + ani vn i = 1, 2, . . . , r x = λ1 u 1 + λ 2 u 2 + · · · + λ r u r = x 1 v 1 + x 2 v 2 + · · · + x n v n ⇒ λ1 (a11 v1 + · · · + an1 vn ) + · · · + λr (a1r v1 + · · · + anr vn ) = x1 v1 + · · · + xn vn ⇒ (λ1 a11 + · · · + λr a1r )v1 + · · · + (λ1 an1 + · · · + λr anr )vn = x1 v1 + · · · + xn vn y al ser u ´nicas las coordenadas de un vector respecto de una base, se tiene:  x1 = λ1 a11 + · · · + λr a1r   .. Ecuaciones param´etricas de L. .   xn = λ1 an1 + · · · + λr anr Se trata pues, de un sistema de n ecuaciones con r inc´ognitas siendo r < n. Si en el sistema anterior eliminamos los par´ametros λ1 , λ2 , . . . , λr , se obtienen las denominadas ecuaciones impl´ıcitas de la variedad lineal L. Visto de otra forma, un vector (x1 , x2 , . . . , xn ) pertenece a la variedad L si y solo si el sistema anterior es compatible determinado en los par´ametros {λ1 , . . . , λr }. Por tanto, si escalonamos la matriz ampliada del sistema, no debe haber pivotes en la u ´ltima columna. Al igualar a cero esos pivotes obtenemos las ecuaciones impl´ıcitas de L. Ejemplo 2.7 Para hallar las ecuaciones param´etricas e impl´ıcitas de la variedad L de R5 engendrada por los vectores (1, 2, 1, 0, 0), (0, −1, 1, 1, 0), (1, 0, −1, 0, 1), (1, 1, 2, 1, 0). Determinamos, en  1 2 1  0 −1 1  1 0 −1 1 1 2

primer lugar, una  0 0 −→ 1 0  0 1  F13 (−1) 1 0 F41 (−1)

base  1 0  0 0

de L. 2 1 0 −1 1 1 −2 −2 0 −1 1 1

 0 0  −→ 1  F32 (−2) F42 (−1) 0

Ecuaciones de los subespacios.

55



 1 2 1 0 0  0 −1 1 1 0   0 0 −4 −2 1  0 0 0 0 0 por tanto, una base de L es B = {(1, 2, 1, 0, 0), (0, −1, 1, 1, 0), (1, 0, −1, 0, 1)} y dim L = 3. Debido a ello, cualquier vector x ∈ L puede expresarse de la forma: x = (x1 , x2 , x3 , x4 , x5 ) = λ1 (1, 2, 1, 0, 0) + λ2 (0, −1, 1, 1, 0) + λ3 (1, 0, −1, 0, 1) de donde x1 x2 x3 x4 x5

= λ1 + λ3 = 2λ1 − λ2 = λ 1 + λ 2 − λ3 = λ2 = λ3

     

Ecuaciones param´etricas de L.

    

Obs´ervese que las ecuaciones param´etricas no son u ´nicas, dependen de las bases elegidas. Por ejemplo, otra base de L est´a formada por las filas no nulas y finales de la matriz escalonada resultante: B 0 = {(1, 2, 1, 0, 0), (0, −1, 1, 1, 0), (0, 0, −4, −2, 1)}, por lo que podemos elegir libremente la base que mejor nos convenga. Vamos a hallar ahora unas ecuaciones impl´ıcitas a partir de las anteriores ecuaciones param´etricas:     −→ 1 0 1 x1 1 0 1 x1    2 −1 0 x2   F21 (−2)  0 −1 −2 x2 − 2x1  −→    1 1 −2 x3 − x1  1 −1 x3   F32 (1)  F31 (−1)  0   0  F42 (1)  0 1 0 x4  1 0 x4 0 0 1 x5 0 0 1 x5   1 0 1 x1   0 −1 −2 x − 2x1 2     0 0 −4 −3x + x + x −→ 1 2 3     0 0 2 −2x1 + x2 + x4 2F4 + F3 0 0 1 x5 4F5 + F3   1 0 1 x1 )  0 −1 −2  x2 − 2x1 −7x1 + 3x2 + x3 + 2x4 = 0    0 ⇒ 0 −4 −3x1 + x2 + x3   −3x1 + x2 + x3 + 4x5 = 0  0 0 0 −7x1 + 3x2 + x3 + 2x4  0 0 0 −3x1 + x2 + x3 + 4x5 Estas dos u ´ltimas son unas ecuaciones impl´ıcitas de L.



56

Sistemas de ecuaciones lineales. Espacios vectoriales.

Analicemos una forma alternativa de resolver el ejercicio anterior. Puesto que el objetivo del primer escalonamiento en el ejercicio es s´olo determinar vectores linealmente independientes en L, podemos ahorrar esfuerzos y pasar directamente al segundo escalonamiento para hallar simult´aneamente las ecuaciones impl´ıcitas y una base de L. Basta tomar desde el principio todos los vectores generadores de L:     1 0 1 1 x1 −→ 1 0 1 1 x1  2 −1   0 1 x2    F21 (−2)  0 −1 −2 −1 x2 − 2x1  −→  1   1 −1 2 x3  F31 (−1)  0 1 −2 1 x3 − x1    F32 (1)  0    F42 (1) 1 0 1 x4 0 1 0 1 x4 0 0 1 0 x5 0 0 1 0 x5 

 1 0 1 1 x1  0 −1 −2 −1  x2 − 2x1    0 0 −4 0 −3x1 + x2 + x3  −→    0  0 2 0 −2x1 + x2 + x4 2F4 + F3 0 0 1 0 x5 4F5 + F3   1 0 1 1 x1  0 −1 −2 −1  x2 − 2x1    0  0 −4 0 −3x1 + x2 + x3    0 0 0 0 −7x1 + 3x2 + x3 + 2x4  0 0 0 0 −3x1 + x2 + x3 + 4x5 Como puede observarse se han obtenido las mismas ecuaciones impl´ıcitas para L. Por otra parte, puesto que los pivotes del escalonamiento se encuentran en las tres primeras columnas de la matriz, una base de L est´a formada por los tres primeros vectores del sistema generador inicial. Esto nos llevar´ıa a construir las mismas ecuaciones param´etricas que en la resoluci´on anterior.

2.7.1

Ecuaciones del subespacio suma

Sean dos subespacios vectoriales L1 y L2 de un mismo espacio vectorial V . Supongamos que disponemos de una base para cada uno de los subespacios: {u1 , u2 , . . . , ur } base de L1 y {v1 , v2 , . . . , vs } base de L2 . Queremos caracterizar el subespacio suma L1 + L2 , proporcionando sus ecuaciones. Sea x ∈ L1 + L2 =⇒ x = x1 + x2 con xi ∈ Li . De donde resulta que x = x1 + x2 =

r X i=1

αi ui +

s X j=1

βj vj

Ecuaciones de los subespacios.

57

es una combinaci´on lineal de los vectores {u1 , u2 , . . . , ur , v1 , v2 , . . . , vs }. Tenemos por tanto un sistema generador de L1 +L2 sin m´as que juntar las dos bases. A partir de este sistema generador podemos eliminar vectores linealmente dependientes y obtener una base de L1 + L2 . Con esa base, ya sabemos c´omo obtener las ecuaciones param´etricas e impl´ıcitas que caracterizan al subespacio suma.

2.7.2

Ecuaciones del subespacio intersecci´ on

Sean dos subespacios vectoriales L1 y L2 de un mismo espacio vectorial V . Supongamos que disponemos de unas ecuaciones impl´ıcitas para cada uno de los subespacios, referidas a una misma base del espacio V :   a11 x1 + a12 x2 + . . . a1n xn = 0    a21 x1 + a22 x2 + . . . a2n xn = 0 L1 : .. .. .. ..  . . . .    a x + a x + ... a x = 0 r1 1

r2 2

rn n

  b11 x1 + b12 x2 + . . . b1n xn = 0    b21 x1 + b22 x2 + . . . b2n xn = 0 L2 : .. .. .. ..  . . . .    b x + b x + ... b x = 0 s1 1 s2 2 sn n Queremos caracterizar el subespacio intersecci´on L1 ∩ L2 , proporcionando sus ecuaciones. Sea x ∈ L1 ∩ L2 . Como x ∈ Li , i = 1, 2 entonces ha de verificar las ecuaciones impl´ıcitas de ambos subespacios. Tenemos entonces un nuevo sistema formado por la uni´on de los dos sistemas de ecuaciones anteriores. Si obtenemos, mediante escalonamiento, un sistema equivalente al anterior, las nuevas ecuaciones no nulas del sistema resultante constituyen unas ecuaciones impl´ıcitas del subespacio intersecci´on L1 ∩ L2 . A partir de tales ecuaciones impl´ıcitas podemos obtener, resolviendo el sistema, una base del subespacio y con ´esta, unas ecuaciones param´etricas. Ejemplo 2.8 Sean los subespacios vectoriales L1 = L({(1, 1, 0, 1), (0, 1, 1, 0)}) y L2 = L({(1, 0, 0, 0), (0, 1, 0, 1)}). Hallar bases, ecuaciones param´etricas y ecuaciones impl´ıcitas de las variedades: L1 , L2 , L1 ∩ L2 y L1 + L2 . Calculamos en  1  1   0 1

primer lugar unas ecuaciones impl´ıcitas de L1 :    0 x1 → 1 0 x1   1 x2  →  F21 (−1)  0 1 x2 − x1     1 x3 0 1 x3 F32 (−1) 0 x4 F41 (−1) 0 0 x4 − x1

58 

1  0   0 0

Sistemas de ecuaciones lineales. Espacios vectoriales.  0 x1   1 x2 − x1 x1 − x2 + x3 = 0  =⇒ L1 :  0 x3 − x2 + x1 −x1 + x4 = 0 0 x4 − x1

Como los pivotes se encuentran sobre las dos primeras columnas, los dos vectores del sistema generador de L1 son linealmente independientes y por tanto constituyen una base de L1 . A partir de esta base obtenemos las ecuaciones param´etricas  x1 = λ1    x 2 = λ1 + λ2 Ecuaciones param´etricas de L1 x3 = λ2    x4 = λ1 De manera an´aloga, para L2 tenemos:    1 0 x1   0 1 x2  →      0 0 x3  F42 (−1) 0 1 x4  x3 L2 : − x2

1 0 0 0

 0 x1  1 x2  =⇒  0 x3 0 x4 − x2

+ x4

= 0 = 0

Como los pivotes se encuentran sobre las dos primeras columnas, los dos vectores del sistema generador de L2 son linealmente independientes y por tanto constituyen una base de L2 . A partir de esta base obtenemos las ecuaciones param´etricas  x 1 = λ1    x 2 = λ2 Ecuaciones param´etricas de L2 x3 = 0    x 4 = λ2 El subespacio intersecci´on, L1 ∩ L2 , viene determinado por las ecuaciones  x1 − x2 + x3 = 0    −x1 + x4 = 0 L1 ∩ L2 : x = 0  3   − x2 + x4 = 0 Si escalonamos dicho  1 −1  −1 0   0 0 0 −1

sistema resulta:  1 0 → 0 1  F  21 (1) 1 0  0 1



 1 −1 1 0  0 −1 1 1  →    0 0 1 0  0 −1 0 1 F42 (−1)

Ecuaciones de los subespacios. 

1 −1 1  0 −1 1   0 0 1 0 0 −1   L1 ∩ L2 : 

 0 1   0  → 0 F43 (1)

59  1 −1 1 0  0 −1 1 1     0 0 1 0  =⇒ 0 0 0 0 

x1 − x2 + x3 = 0 − x2 + x3 + x4 = 0 x3 = 0

que constituyen sus ecuaciones impl´ıcitas. Resolviendo el sistema, tenemos x3 = 0, x2 = x4 y x1 = x4 . Una base de L1 ∩ L2 est´a formada (para x4 = 1) por el vector (1, 1, 0, 1) y sus ecuaciones param´etricas son:  x1 = λ    x2 = λ Ecuaciones param´etricas de L1 ∩ L2 x3 = 0    x4 = λ Finalmente, un sistema generador de L1 + L2 est´a formado por la uni´on de las bases de L1 y L2 . A partir de ´este, obtenemos las ecuaciones impl´ıcitas:     1 0 1 0 x1 → 1 0 1 0 x1  1 1 0 1 x2  F21 (−1)  0 1 −1 1 x2 − x1  →      0 1 0 0 x3   0 1 0 0  F32 (−1) x3 1 0 0 1 x4 F41 (−1) 0 0 −1 1 x4 − x1 

1  0   0 0

 0 1 0 x1  1 −1 1 x2 − x1  0 1 −1 x3 − x2 + x1  → F43 (1) 0 −1 1 x4 − x1



1  0   0 0

 0 1 0 x1  1 −1 1 x2 − x1  0 1 −1 x3 − x2 + x1  0 0 0 x4 + x3 − x2

=⇒ ecuaci´on impl´ıcita de L1 + L2 : −x2 + x3 + x4 = 0 Como los pivotes se encuentran en las tres primeras columnas de la matriz, una base de L1 + L2 est´a formada por los tres primeros vectores del sistema generador: {(1, 1, 0, 1), (0, 1, 1, 0), (0, 1, 0, 0)}. Las ecuaciones param´etricas son:  x 1 = λ1 + λ3    x 2 = λ1 + λ2 Ecuaciones param´etricas de L1 + L2 x3 = λ2    x4 = λ1 

60

2.8

Sistemas de ecuaciones lineales. Espacios vectoriales.

Propiedades de los espacios vectoriales de tipo finito.

Sea V un espacio vectorial de tipo finito con dim V = n. Teorema 2.14 Todo subespacio propio H de V (H ⊂ V siendo H 6= V ) tiene dimensi´on menor que la de V . Demostraci´ on. dim H ≤ dim V ya que si V tiene dimensi´on n, no podemos encontrar n + 1 vectores linealmente independientes. Veamos entonces que si H es un subespacio propio de V es dim H 6= dim V . H subespacio propio de V ⇒ ∃ x ∈ V : x 6∈ H. Si {u1 , u2 , . . . , uk } es una base de H, H 0 = L({u1 , u2 , . . . , uk , x} es otro subespacio de V con dim H 0 = k + 1 dim V ≥ dim H 0 > dim H ⇒ dim V > dim H Por tanto, la dimensi´on de H es estrictamente menor que la de V. Teorema 2.15 Dado un conjunto de vectores linealmente independientes {u1 , u2 , . . . , uk } siendo k < n = dim V , se pueden encontrar n − k vectores uk+1 , uk+2 , . . . , un tales que el conjunto {u1 , . . . , uk , uk+1 , . . . , un } constituya una base de V . Demostraci´ on. {u1 , u2 , . . . , uk } genera un subespacio de V de dimensi´on k < n H1 = L({u1 , u2 , . . . , uk }) es decir, H1 es un subespacio propio de V por lo que existe, al menos, un vector uk+1 ∈ V tal que uk+1 6∈ H1 . {u1 , . . . , uk , uk+1 } es un sistema libre (ya que uk+1 6∈ H) que genera a la variedad H2 = L({u1 , . . . , uk , uk+1 }), que es otro subespacio de V de dimensi´on k + 1. Si k + 1 = n queda probada el Teorema. Si k + 1 < n, H2 es un subespacio propio de V por lo que existe otro vector uk+2 6∈ H2 y hacemos un razonamiento an´alogo al anterior. Este proceso podr´a continuarse n − k veces, por lo que podr´an encontrarse los n − k vectores indicados. Teorema 2.16 Si {u1 , . . . , ur , v1 , . . . , vp } es un sistema libre, los subespacios H1 y H2 dados por H1 = L({u1 , . . . , ur }) y H2 = L({v1 , . . . , vp }) son disjuntos, es decir, H1 ∩ H2 = {0}.

Propiedades de los espacios vectoriales de tipo finito.

Demostraci´ on. x ∈ H1 ∩ H2 ⇒

61

 r X    αi ui   x ∈ H1 ⇒ x = i=1 p

X    x ∈ H ⇒ x = βj vj 2   j=1

0 = x−x =

r X i=1

αi ui −

p X

βj vj y como {u1 , . . . , ur , v1 , . . . , vp } es un sistema

j=1

libre, α1 = · · · = αr = β1 = · · · = βp = 0 ⇒ x = 0 ⇒ H1 ∩ H2 = {0}. Teorema 2.17 Si H1 y H2 son dos subespacios de V , se verifica que dim(H1 + H2 ) = dim H1 + dim H2 − dim(H1 ∩ H2 ) Demostraci´ on. Sea {u1 , u2 , . . . , ur } una base de H1 ∩ H2 y ampli´emosla hasta obtener una base {u1 , u2 , . . . , ur , a1 , . . . , an−r } de H1 y otra base de H2 {u1 , u2 , . . . , ur , b1 , . . . , bm−r }. Veamos que {u1 , u2 , . . . , ur , a1 , . . . , an−r , b1 , . . . , bm−r } es una base de H1 + H2 . a) El conjunto {u1 , u2 , . . . , ur , a1 , . . . , an−r , b1 , . . . , bm−r } es un sistema libre ya que {u1 , u2 , . . . , ur , a1 , . . . , an−r } lo es por ser una base de H1 y los vectores b1 , . . . , bm−r son linealmente independientes con ellos, pues si alg´ un bi dependiera de ellos ser´ıa bi ∈ H1 , y como bi ∈ H2 se tendr´ıa que bi ∈ H1 ∩ H2 , por lo que bi ser´ıa combinaci´on lineal de los u1 , . . . , ur y {u1 , u2 , . . . , ur , b1 , . . . , bm−r } no ser´ıa un sistema libre, en contra de que constituye una base de H2 . b) {u1 , u2 , . . . , ur , a1 , . . . , an−r , b1 , . . . , bm−r } generan a H1 + H2 . En efecto: ∀ x ∈ H1 + H2 ⇒ x = u + v con u ∈ H1 v ∈ H2 ⇒  u = α1 u1 + · · · + αr ur + αr+1 a1 + · · · + αn an−r ⇒ v = β1 u1 + · · · + βr ur + βr+1 b1 + · · · + βm bm−r x = (α1 + β1 )u1 + · · · + (αr + βr )ur + αr+1 a1 + · · · + αn an−r + βr+1 b1 + · · · + βm bm−r ⇒ {u1 , . . . , ur , a1 , . . . , an−r , b1 , . . . , bm−r } genera a H1 + H2 . Por tanto, dim(H1 +H2 ) = n+m−r = dim H1 +dim H2 −dim(H1 ∩H2 ).

62

Sistemas de ecuaciones lineales. Espacios vectoriales.

Teorema 2.18 Si H1 y H2 son dos subespacios complementarios de un espacio vectorial V , es decir tales que H1 + H2 = V y H1 ∩ H2 = {0}, se verifica que dim V = dim H1 + dim H2 Demostraci´ on. H1 + H2 = V ⇒ dim V = dim(H1 + H2 ) H1 ∩ H2 = {0} ⇒ dim(H1 ∩ H2 ) = 0 Por el Teorema anterior nos queda entonces que: dim V = dim H1 + dim H2

2.9

Cambio de bases

Sea V un espacio vectorial finito y consideremos dos bases cualesquiera B = {u1 , u2 , . . . , un } y B 0 = {v1 , v2 , . . . , vn } del espacio V . Se llaman ecuaciones de cambio de bases en V a las relaciones que ligan las coordenadas de un mismo vector x ∈ V respecto de las bases B y B 0 .  n X   x = λi ui ⇒ (λ1 , . . . , λn )B coord. de x respecto a B   i=1 ∀x∈V ⇒ n X    x= µi vi ⇒ (µ1 , . . . , µn )B 0 coord. de x respecto a B 0  i=1

0

Como B = {v1 , v2 , . . . , vn } ⊂ V podemos expresar cada uno de los vectores de B 0 en funci´on de la base B, es decir, (a1j , a2j , . . . , anj )B ser´an las coordenadas de vj respecto de la base B. ! ! n n n n n n X X X X X X x= λi u i = µj v j = µj aij ui = aij µj ui ⇒ i=1

j=1

j=1

λi =

n X

i=1

aij µj

i=1

j=1

i = 1, 2, . . . , n

j=1

o en forma matricial,     λ1 a11 · · · a1n  ..   .. . . .   . = . . ..   λn an1 · · · ann

 µ1 ..  es decir x = P 0 x 0 .  B BB B µn

Cambio de bases

63

donde PB 0 B ∈ Rn×n es la matriz del cambio de bases, llamada tambi´en matriz de paso, xB es el vector de coordenadas referido a la base B y xB 0 el vector de coordenadas referido a la base B 0 . Obs´ervese que las columnas de la matriz PB 0 B est´an formadas por las coordenadas de cada vector de B 0 respecto de la base B. Veamos dos propiedades interesantes de las matrices de paso: • PB 0 B es una matriz regular ya que sus columnas son las coordenadas de los vectores de una base y ´estos son linealmente independientes. • (PB 0 B )−1 = PBB 0 . Puesto que las coordenadas de un vector respecto de una base son u ´nicas, tenemos:  xB = PB 0 B xB 0 =⇒ xB 0 = (PB 0 B )−1 xB por ser matriz regular → xB 0 = PBB 0 xB ecuaci´on del cambio de B a B 0 (PB 0 B )−1 = PBB 0 Ejemplo 2.9 Dadas las bases de R4 B = {u1 , u2 , u3 , u4 } y B 0 = {v1 , v2 , v3 , v4 } donde v1 = u1 − 2u2 + u3 , v2 = u1 − u3 , v3 = u2 + u4 , v4 = u2 + u3 se desea conocer: a) Ecuaciones del cambio de bases. b) Si x tiene de coordenadas (1, 2, 0, −1)B , ¿qu´e coordenadas tendr´a respecto a B 0 ? c) Si x tiene de coordenadas (0, 0, −1, 1)B 0 , ¿qu´e coordenadas tendr´a respecto a B? Para resolverlo, nos basta con: a) v1 v2 v3 v4

= u1 − 2u2 + u3 = u 1 − u3 = u 2 + u4 = u 2 + u3

→ → → →

v1 v2 v3 v4

= (1, −2, 1, 0)B = (1, 0, −1, 0)B = (0, 1, 0, 1)B = (0, 1, 1, 0)B

y estamos en condiciones de escribir la ecuaci´on matricial del cambio de base xB = PB 0 B xB 0 :

64

Sistemas de ecuaciones lineales. Espacios vectoriales.



  b)  

1 2 0 −1

  1 1 0 0 x1  x2   −2 0 1 1     x3  =  1 −1 0 1 x4 0 0 1 0  0    x1 1 1 0 0   −2   0 1 1   x02   =   1 −1 0 1   x03  ⇒ x04 0 0 1 0   x01 1 1 0  x02   −2 0 1  0 =  x3   1 −1 0 x04 0 0 1 

 x01   x02   0    x3  x04 

−1  1 0  2 1    1   0 0 −1

   

de donde obtenemos una vez resuelta la matriz inversa: x01 = −1/2 , x02 = 3/2 , x03 = −1 , x04 = 2 Es decir, las coordenadas de x respecto de la base B 0 son x = (− 12 , 32 , −1, 2)B 0        x1 1 1 0 0 0 0      x2   −2 0 1 1   0  =  0  = c)   x3   1 −1 0 1   −1   1  1 −1 x4 0 0 1 0 Es decir, las coordenadas de x respecto de la base B son x = (0, 0, 1, −1)B . 

2.10

Espacios fundamentales asociados a una matriz.

Generalmente los subespacios vectoriales pueden ser descritos de dos formas: dando un conjunto de vectores que generen a dicho subespacio, tal como sucede con el espacio columna (o el espacio fila) de una matriz, donde se especifican las columnas (o filas) o dando una lista de restricciones que debe cumplir el subespacio, es decir, en lugar de dar los vectores que lo generan, dar las propiedades que deben cumplir. Por ejemplo, el espacio nulo de una matriz

Espacios fundamentales asociados a una matriz.

65

A consta de todos los vectores que verifican Ax = 0 donde cada una de las ecuaciones de este sistema representa una restricci´on. En el primer tipo de descripci´on puede haber filas o columnas combinaciones lineales de las dem´as y por ello, no ser´ıa necesario darlas para definir al subespacio. En la segunda, pueden existir restricciones a las que les ocurra lo mismo, es decir, que puedan evitarse por estar impl´ıcitamente exigidas en las dem´as. En ambos casos es dif´ıcil dar una base a simple vista, siendo necesario un procedimiento sistem´atico. La idea consiste en dar una base para cada uno de los subespacios asociados a una matriz A a partir de una matriz escalonada U , obtenida por eliminaci´on gaussiana.

2.10.1

Espacio fila de A: [R(At )].

Al aplicar la eliminaci´on gaussiana a una matriz A se produce una matriz escalonada U . El espacio fila de U o espacio generado por las filas de U , se obtiene directamente. Su dimensi´on es el n´ umero de filas linealmente independientes y las filas no nulas constituyen una base. El espacio fila de A tiene la misma dimensi´on que el de U as´ı como la misma base, ya que ambos espacios fila son el mismo, pues las transformaciones elementales filas no alteran el espacio fila, ya que cada fila de U es una combinaci´on lineal de las de A por lo que el nuevo espacio fila est´a contenido en el primitivo. Como cada paso puede anularse al mismo tiempo mediante una transformaci´on elemental inversa, el espacio original est´a contenido en el nuevo espacio fila.

2.10.2

Espacio nulo de A: [N (A)].

Se denomina espacio nulo de una matriz A a la variedad formada por todos los vectores x ∈ Rn tales que Ax = 0. El prop´osito original de la eliminaci´on gaussiana es el de simplificar un sistema de ecuaciones lineales haci´endolo m´as manejable y sin alterar sus soluciones. Dado el sistema Ax = 0 y mediante eliminaci´on obtenemos U x = 0 siendo el proceso reversible y por tanto, el espacio nulo de A es el mismo que el de U . Dado el sistema con m-ecuaciones, de las m-aparentes restricciones de Ax = 0 suponemos que s´olo r son independientes (r < m) y estar´an especificada por

66

Sistemas de ecuaciones lineales. Espacios vectoriales.

cualesquiera r-filas de A que sean independientes, o lo que es lo mismo, por las r-filas de U no nulas. El espacio nulo de A, N (A) tendr´a dimensi´on n − r y podemos obtener una base mediante la reducci´on al sistema U x = 0 que tiene (n − r)-variables libres correspondientes a las columnas de U sin pivotes. Dando alternativamente los valores 1 y 0 para cada una de las variables libres y resolviendo U x = 0 para las restantes variables, mediante sustituci´on regresiva obtenemos los (n − r)vectores que forman una base de N (A). Ejemplo 2.10 Para hallar una base del  1 3  0 0 A= 0 0 

1 dado que U = A, U x = 0 ⇒  0 0 x1 + 3x2 + 3x3 + 2x4 = 0 3x3 + x4 = 0

 ⇔

espacio nulo de la matriz  3 2 3 1  0 0 

 x1 3 3 2  x2   0 3 1   x3  = 0 0 0 0 x4  x4 = −3x3 ⇒ x1 = −3x2 + 3x3 

x2 = 1 x3 = 0 ⇒ x1 = −3 x4 = 0 (−3, 1, 0, 0) x2 = 0 x3 = 1 ⇒ x1 = 3 x4 = −3 (3, 0, 1, −3) B N (A) = {(−3, 1, 0, 0), (3, 0, 1, −3)} 

2.10.3

Espacio columna de A. [R(A)].

Es frecuente denominarlo recorrido de A y se denota por R(A), siendo consistente con la idea usual de recorrido de una funci´on f como el conjunto de todos los posibles valores de f (x). Si f (x) est´a definida, x est´a en el dominio y f (x) es el recorrido. En nuestro caso, el dominio de la funci´on f (x) = Ax consta de todos los vectores x ∈ Rn y su recorrido, de todos los posibles valores Ax. En definitiva, los valores b para los que puede resolverse Ax = b.

Teorema de Rouche-Fr¨obenius

67

El problema que pretendemos resolver es encontrar una base de R(A) as´ı como su dimensi´on. Una idea razonable es calcular el espacio fila de At que coincide con el espacio columna de A pero vamos a relacionarlo a continuaci´on con la eliminaci´on gaussiana. Hay que destacar que los espacios columnas de A y de U no coinciden. La eliminaci´on gaussiana no altera ni el espacio nulo ni el fila, pero las columnas son completamente diferentes. Si por ejemplo 

   1 3 3 2 1 3 3 2 6 9 5  A= 2 ⇒ U = 0 0 3 1  −1 −3 3 0 0 0 0 0 es cierto que, cada vez que ciertas columnas de U forman una base del espacio columna de U , las correspondientes columnas de A forman una base del espacio columna de A. La raz´on es que el sistema Ax = 0 es equivalente al U x = 0, teniendo por tanto las mismas soluciones. Encontrar una base de R(A) consistir´a en encontrar una base del espacio columna de U y como sabemos que al ser linealmente independientes las rfilas distintas de cero de la matriz escalonada U tambi´en lo son las r-columnas que contienen a los pivotes no nulos, podemos asegurar que una base de R(U ) est´a constituida por las r-columnas de U que contienen a los pivotes no nulos. Conclusi´ on: La dimensi´on del espacio columna de A es igual a la dimensi´on del espacio fila R(At ), el n´ umero de columnas independientes es igual al n´ umero de filas independientes, es decir, una base de R(A) est´a formada por aquellas r-columnas de A correspondientes en U a las que contienen a los pivotes no nulos. El hecho de que tanto el espacio fila como el espacio columna tengan la misma ´ dimensi´on, expresa uno de los teoremas m´as importantes del Algebra Lineal denominado teorema del rango: el rango fila es igual al rango columna.

2.11

Teorema de Rouche-Fr¨ obenius

Consideremos el sistema de ecuaciones lineales no homog´eneo    a11 x1 + · · · + a1n xn = b1 .. S≡ ⇔ Ax = b .   a x + ··· + a x = b m1 1 mn n m

68

Sistemas de ecuaciones lineales. Espacios vectoriales.

donde A ∈ Rm×n , x ∈ Rn×1 , b ∈ Rm×1 . Se denomina matriz ampliada con los t´erminos independientes y se denota por (A|b) a la matriz   a11 · · · a1n b1  .. ..  ... (A|b) =  ... . .  am1 · · · amn bm

¨ benius.] Teorema 2.19 [Teorema de Rouche-Fro a) El sistema Ax = b es compatible, es decir, tiene soluci´ on si y s´ olo si r(A) = r(A|b). a.1) Si b = 0 el conjunto de soluciones de Ax = 0 constituye un subespacio vectorial L de Rn . a.2) Si b 6= 0 el conjunto de soluciones, si existen, es de la forma x1 + L donde x1 es una soluci´ on particular de Ax = b y L es la variedad lineal de los vectores soluciones de Ax = 0, es decir, del espacio nulo de A. b) Si r(A) = r ⇒ dim L = n − r. Demostraci´ on. a) Si Ax = b tiene soluci´on, equivale a que b es una combinaci´on lineal de las columnas de A, es decir, al a˜ nadir a la matriz A la columna b, no se altera su rango y por tanto r(A) = r(A|b). a.1) Si x, y verifican que Ax = 0 , Ay = 0 ⇒, ∀ λ, µ ∈ R, A(λx+µy) = λAx + µAy = λ0 + µ0 = 0 ⇒ λx + µy ∈ L ⇒ el conjunto L de las soluciones de Ax = 0 es una variedad lineal de Rn . a.2) Si x, x1 verifican Ax = b , Ax1 = b ⇒ A(x − x1 ) = Ax − Ax1 = b − b = 0 ⇒ x − x1 ∈ L ⇒ x ∈ x1 + L. b) r(A) = r equivale a decir que el sistema Ax = 0 posee n − r variables libres, es decir, que dim L = n − r. Observaciones: • De a) se deduce que Ax = b es incompatible si y solo si r(A) 6= r(A|b)

Teorema de Rouche-Fr¨obenius

69

• De b) se deduce que si r(A) = r = n entonces dim L = 0 y por tanto el espacio nulo est´a formado s´olo por la soluci´on trivial. El sistema homog´eneo Ax = 0 es incompatible.

70

2.12

Sistemas de ecuaciones lineales. Espacios vectoriales.

Ejercicios propuestos

Ejercicio 2.1 Resolver, utilizando el guiente sistema:  x + 2y + z    −2x − 4y − z 2x + 4y    3x + 6y + z

m´etodo de reducci´on de Gauss, el si-

+ 2t + 4u = 4 − 3t − 6u = −6 + t + 4u = 4 + 4t + 7u = 8

Ejercicio 2.2 Resolver, utilizando el m´etodo de guiente sistema homog´eneo:   2x + y − z + t x + 2y + z − t  3x − y − 2t Ejercicio 2.3 Discutir, temas:   x − y 3x + 2y  4x + y

reducci´on de Gauss, el si-

= 0 = 0 = 0

y resolver en su caso, seg´ un los valores de a, los sis  ax + ay + z = 1 x + ay + z = a  x + y + az = a

= 2 = 4 = a

Ejercicio 2.4 Discutir, y sistema:  x    x x    x

resolver en su caso, seg´ un los valores de a y c, el − + − +

y y y y

− + + −

z z z z

+ at = c + t = 0 − t = 12 + t = −8

Ejercicio 2.5 Estudiar, seg´ un los valores de m, el   6x + 18y − 2mz = 7x − 2y − 4z =  4x + 10y − 6z = Ejercicio 2.6 Estudiar, y resolver el   4x + 2y 2x + 4y  2x + 4y

siguiente sistema: 0 0 0

sistema: + z = λx + 2z = λ y + 8z = λ z

Ejercicios propuestos

71 

Ejercicio 2.7 Sea A =

1 2 3 m

 . Se pide:

a) Encontrar m para que existan matrices cuadradas B y no nulas tales que A · B = 0. b) Probar que el conjunto de todas estas matrices B, es una variedad lineal de las matrices cuadradas de orden 2. Ejercicio 2.8 Se dice que una matriz M ∈ R3×3 es m´agica si las ocho sumas siguientes son iguales: 3 X i=1

aij (j = 1, 2, 3)

3 X j=1

aij (i = 1, 2, 3)

3 X

aii

a13 + a22 + a31

i=1

Designando por s el valor de estas sumas y por M (s) a las matrices correspondientes: a) Probar que las matrices m´agicas M (s) cualquiera que sea s ∈ R constituyen una variedad lineal de R3×3 . b) Construir todas las matrices m´agicas antisim´etricas, as´ı como todas las sim´etricas. Ejercicio 2.9 De un sistema de tres ecuaciones lineales con tres inc´ognitas se sabe que admite las soluciones (1, 0, 0), (0, 1, 0), (0, 0, 1) y que adem´as uno de los coeficientes del sistema es no nulo. Hallar, en funci´on de los par´ametros que sean necesarios, todas las soluciones del sistema. Ejercicio 2.10 Factorizar A en LU y escribir el sistema triangular superior U x = c que aparece despu´es de la eliminaci´on, resolvi´endolo, para:     2 3 3 2    0 5 7 2  A= b= 6 9 8 5 Ejercicio 2.11 En R3 se considera el sistema de ecuaciones lineales:  = 3α − 6  4x + (α + 8)y αx − 2αy + 3z = 0  2x + 8y − z = 2α − 4 Discutirlo y resolverlo seg´ un los valores del par´ametro α.

72

Sistemas de ecuaciones lineales. Espacios vectoriales.

Ejercicio 2.12 Dados los vectores v1 = (−1, 0, 4, 1), v2 = (3, −2, 0, 2) y v3 = (2, a, −2, 0) de R4 , determinar qu´e condici´on ha de verificar a para que v = (2, −3, −2, 3) sea combinaci´on lineal de v1 , v2 y v3 . Ejercicio 2.13 Determinar si los vectores del espacio vectorial R4 : v1 = (0, 1, −2, 1), v2 = (−1, 7, 2, −4), v3 = (1, 3, 2, −1) y v4 = (1, 0, 0, 1) son linealmente independientes. En caso de no serlo, encontrar la relaci´on de dependencia. Ejercicio 2.14 Sean u, v, y w tres vectores, linealmente independientes, de un espacio vectorial. Demostrar que los vectores u + v, u − v, y u − 2v + w, tambi´en son linealmente independientes. Ejercicio 2.15 Estudiar, seg´ un los valores de m y n, la dependencia, o independencia, lineal de los siguientes vectores: a) u = (1, 1, 0, m), v = (3, −1, n, −1) y w = (−3, 5, m, −4) b) (1, −2, 1, 0), (1, −3, −2, 2), (0, −2, 1, −5), (2, 0, 7, 1) y (4, −5, 6, m) Ejercicio 2.16 Sea {u1 , ..., un } un conjunto de vectores linealmente independientes de un espacio vectorial V . Demostrar que el conjunto de vectores {v1 , ..., vn }, donde v1 = u1 , v2 = u1 −u2 , v3 = u1 − u2 − u3 ,. . ., vn = u1 − u2 − · · · − un , es linealmente independiente. Ejercicio 2.17 Sea V un espacio vectorial, L un subespacio de V y {u1 , ..., un } un sistema generador de L formado por vectores linealmente independientes. Demostrar que si x es un vector de V que no pertenece a L, entonces {u1 , ..., un , x} es un conjunto de vectores linealmente independientes. Ejercicio 2.18 Calcular el rango de las siguientes matrices:  A=



−1 1 −2 1 1 0  2 1 1

 B=



−1 2 3 4 5 1 2 1 3 2  0 4 4 7 7



1  −1 C=  3 0

2 1 3 3

 3 1   5  4

Ejercicio 2.19 En R3 , consideremos el subconjunto A = {(0, x, y) : x, y ∈ R}. Se pide:

Ejercicios propuestos

73

a) Demostrar que A es un subespacio vectorial de R3 . b) Probar que si B = {(0, 1, 0), (0, 1, 1)} y C = {(0, 1, 1), (0, 1, 2), (0, 2, 1)} entonces A = L(B) = L(C). Ejercicio 2.20 En R3 se consideran los conjuntos: A = {(1, 0, 1)}, B = {(1, 0, 0), (0, 1, 1)} y C = {(1, 0, 0), (0, 0, 1)} Sean U = L(A), V = L(B) y W = L(C). Se pide: a) Estudiar si U y V son subespacios suplementarios. An´alogamente, para V y W. b) Expresar, si es posible, (2, 1, 2) como suma de un vector de U y otro de V . ¿La descomposici´on es u ´nica? c) Expresar, si es posible, (3, 0, 3) como suma de un vector de V y otro de W . ¿La descomposici´on es u ´nica? Ejercicio 2.21 Sea Pn [x] el conjunto de los polinomios de grado menor o igual que n con coeficientes reales. a) Demostrar que Pn [x] es un R-espacio vectorial. b) Demostrar que {1, x, x2 } es una base de P2 [x]. Generalizar a una base de Pn [x]. Ejercicio 2.22 En R4 se consideran los vectores {u1 , u2 , u3 , u4 }, siendo: u1 = (1, 2, 3, 4), u2 = (2, 3, 4, 1), u3 = (3, 4, 1, 2) y u4 = (4, 1, 2, 3) Probar que forman una base de R4 y hallar, respecto de ella, las coordenadas de v = (1, 1, 1, 1). Ejercicio 2.23 Probar que el conjunto de las matrices de orden m×n, con elementos reales, es un R-espacio vectorial. Determinar una base y la dimensi´on de dicho espacio vectorial.

74

Sistemas de ecuaciones lineales. Espacios vectoriales.

Ejercicio 2.24 Sea B = {u1 , u2 , u3 , u4 } una base del R-espacio vectorial V . Se consideran los conjuntos B 0 = {v1 , v2 , v3 , v4 } y B 00 = {w1 , w2 , w3 , w4 }, donde: v1 = (0, 1, 0, 3), v2 = (−1, 1, 0, 0), v3 = (−2, 0, −1, 2), v4 = (−1, −1, −1, 1) w1 = (2, −2, 0, 1), w2 = (1, 1, 1, 0), w3 = (3, 0, 1, −1), w4 = (0, −2, −1, 1) respecto de la base B. Se pide: a) Probar que B y B 0 son bases de V . b) Hallar la matriz del cambio de base de B 0 a B 00 . c) Determinar las coordenadas respecto de B 0 del vector x cuyas coordenadas respecto de B 00 son (2, 1, 0, −1). Ejercicio 2.25 Sea B = {u, v, w} una base del espacio vectorial V . Sean u0 = 2u − v + w, v 0 = u + w y w0 = 3u − v + 3w. a) Probar que B 0 = {u0 , v 0 , w0 } es una base de V . b) Establecer las ecuaciones del cambio de base de B a B 0 . c) Hallar las coordenadas respecto de B del vector z = −2u0 + 3v 0 + w0 . Ejercicio 2.26 Sea V un R-espacio vectorial y B = {e1 , e2 , e3 , e4 } una base de V . Para cada uno de los subespacios engendrados por los vectores que se expresan calcular, la dimensi´on, una base contenida en el sistema de generadores dado y la expresi´on de los restantes vectores respecto de la base.   v1 = 2e1 − 3e2 + e3 v2 = 6e1 − 5e2 + 2e4 L1 :  v3 = 2e1 + e2 − 2e3 + 2e4    u1 = e1 − e2 + e3 − e4  u2 = e1 + e2 + e3 + e4 L2 : u3 = − e2 + e3 + e4    u4 = e1 + e2 + e4 Ejercicio 2.27 En R4 se consideran los vectores, u1 = (1, −2, 1, 3), u2 = (2, −4, 0, 2), u3 = (3, −6, 1, 5) y u4 = (2, −4, −4, −6). Se pide: a) Ecuaciones impl´ıcitas de L = L(u1 , u2 , u3 , u4 ).

Ejercicios propuestos

75

b) Dimensi´on y base de L. c) Coordenadas de los vectores dados respecto de la base formada. d) Prolongaci´on de la base de L a una de R4 . Ejercicio 2.28 Determinar en R3 un subespacio suplementario de cada uno de los subespacios engendrados por los siguientes vectores: a) u = (−3, 1, 0) b) u = (−1, 2, 1), v = (2, −4, 3) c) u = (−1, 2, 1), v = (2, 1, −2), w = (1, 1, −1) Ejercicio 2.29 Construir en R5 , un subespacio suplementario del subespacio:  x4 − x5 = 0  2x1 − x2 + 4x1 + 2x4 + x5 = 0 L:  3x2 − x4 + 2x5 = 0 Ejercicio 2.30 Sea V un R-espacio vectorial de dimensi´on 5 y B una base de V B = {u1 , u2 , u3 , u4 , u5 } Se consideran los subespacios:  x1 + x2 + x3 − x4 = 0 F : 2x2 + x3 + 2x4 − x5 = 0 respecto de B, y G =< v1 , v2 , v3 , v4 > donde los vectores v1 , v2 , v3 y v4 vienen dados por: v1 = (1, 0, 0, −1, 0)B v3 = (1, 1, 0, −4, 0)B

v2 = (0, −1, −1, 4, −1)B v4 = (3, −2, 4, −1, 4)B

Determinar la dimensi´on, una base, ecuaciones impl´ıcitas y param´etricas de F , G, F ∩ G y F + G, respecto de la base B. Ejercicio 2.31 Dados los siguientes subespacios de R4 por sus ecuaciones param´etricas, obtener sus ecuaciones impl´ıcitas:   x1 = α + β x1 = 2α − β       x2 = β + µ x2 = α + 2β L1 : L2 : x = α + µ x = −α + β   3 3     x4 = α + β + µ x4 = β

76

Sistemas de ecuaciones lineales. Espacios vectoriales.

Ejercicio 2.32 Se consideran en R4 los subespacios F y G engendrados respectivamente por < u1 , u2 , u3 > y < v1 , v2 , v3 >, siendo: u1 = (3, 3, 1, 1)

u2 = (1, −3, 1, 1)

v1 = (2, 2, 0, 1)

v2 = (2, 0, 1, 1)

u3 = (3, 1, −1, 3) v3 = (1, 1, −1, −1)

Hallar las ecuaciones de F ∩ G y de F + G. Ejercicio 2.33 Dar una condici´on necesaria y suficiente para que: L(v1 , v2 , · · · , vn )

y

L(v1 , v2 , · · · , vn , w)

sean las mismas variedades lineales. Ejercicio 2.34 Sean F , L1 y L2 , variedades lineales de Rn , y F ⊂ L1 + L2 . ¿Es siempre cierto que F = (F ∩ L1 ) + (F ∩ L2 )? ¿Qu´e se puede decir acerca de esta relaci´on, en el caso particular en que L1 ⊂ F? Ejercicio 2.35 Sean F y G variedades lineales de Rn . ¿Existe alguna condici´on para que F ∪ G sea variedad lineal? Ejercicio 2.36 En R4 se consideran las variedades lineales: L1 =< (1, −1, 2, 0), (1, 2, −1, 3), (2, 2 + α, 3 + 2α, 3) >   x1 + x2 + (β − 1)x3 + x4 = 0 x1 + x2 + + x4 = 0 L2 :  x1 + x2 − 2βx3 = 0 Estudiar, en funci´on de los valores de α y β, L1 + L2 y L1 ∩ L2 , dando sus ecuaciones, dimensiones y bases. Ejercicio 2.37 En R4 se consideran las variedades lineales: L1 =< (1, −1, 0, 2), (0, 2, 1, −1), (2, 0, 1, α) >   x1 − x2 − x3 − x4 = 0 2x1 − 3x3 − x4 = 0 L2 :  2x2 − 5x3 + αx4 = 0 a) Hallar α para que L1 ∩ L2 est´e engendrado por un u ´nico vector. ¿Existe alg´ un α para el cu´al L1 ∩ L2 tenga una base de dos elementos?

Ejercicios propuestos

77

b) Para los valores anteriores de α, hallar tres bases B0 , B1 y B2 de L1 ∩L2 , L1 y L1 + L2 , respectivamente, de modo que B0 ⊂ B1 ⊂ B2 . Ejercicio 2.38 Dadas las variedades lineales de R4 :   x1 + x2 = 0 x1 − αx4 = 0 L1 : L2 : x2 + x4 = 0 x2 + x3 = 0 Hallar, en funci´on de α, una base de L1 ∩ L2 y unas ecuaciones de L1 + L2 .

78

Sistemas de ecuaciones lineales. Espacios vectoriales.

3. Aplicaciones lineales. A menudo el concepto de aplicaci´on se confunde con el de funci´on. A diferencia de una aplicaci´on, no todos los elementos del conjunto de partida de una funci´on tienen necesariamente una imagen en el conjunto de llegada. Por ejemplo, la funci´on f : R −→ R / x 7−→ x2 es aplicaci´on, sin embargo f : R −→ R / x 7−→ x1 no lo es pues el 0 no tiene imagen. En otras palabras, una aplicaci´on de un conjunto en otro es cualquier regla mediante la cual a cada elemento del conjunto de partida se le asocia un u ´nico elemento del conjunto de llegada. Sean U y V dos espacios vectoriales definidos sobre el mismo cuerpo K (normalmente trabajaremos en R) y sea f : U → V una aplicaci´on. Se dice que f es una aplicaci´ on lineal u homomorfismo entre los espacios vectoriales U y V si cumple: a) ∀ x, y ∈ U

f (x + y) = f (x) + f (y)

b) ∀ λ ∈ K ∀ x ∈ U

f (λx) = λf (x)

aditividad. homogeneidad.

Es f´acil probar la siguiente caracterizaci´on de las aplicaciones lineales. Teorema 3.1 Una aplicaci´ on f entre dos espacios vectoriales U y V definidos sobre el mismo cuerpo K es un homomorfismo si, y s´ olo si, ∀ λ, µ ∈ K

∀ x, y ∈ V ⇒ f (λx + µy) = λf (x) + µf (y).

• Si U ≡ V y f : U → V es lineal se dice que f es un endomorfismo. • Si f : U → V es lineal y biyectiva se dice que es un isomorfismo. 79

80

Aplicaciones lineales.

• Si U ≡ V y f es un isomorfismo se dice que f es un automorfismo.

Nota: Recordemos que una aplicaci´on lineal f : U −→ V es biyectiva si es inyectiva y sobreyectiva. Es inyectiva si todo elemento de V es imagen, a lo sumo, de un elemento de U o dicho de otra forma, no puede haber dos elementos distintos en U con la misma imagen en V . Es sobreyectiva si todo elemento de V es imagen al menos, de un elemento de U . Ejemplo 3.1 a) f : P2 [x] → P1 [x] definida por f (ax2 + bx + c) = 2ax + b es un homomorfismo. Ve´amoslo: Seg´ un el Teorema 3.1, tendr´ıamos que probar que f (λ(ax2 + bx + c) + µ(ax2 + bx + c)) = λf (ax2 + bx + c) + µf (ax2 + bx + c) f (λ(ax2 + bx + c) + µ(ax2 + bx + c)) = 2aλx + bλ + 2µax + µb = λ(2ax + b) + µ(2ax + b) = λf (ax2 + bx + c) + µf (ax2 + bx + c) b) θ : U → V definida por θ(u) = 0 ∀ u ∈ U es un homomorfismo y se dice que es el homomorfismo nulo. c) I : U → U definida por I(u) = u ∀ u ∈ U es un automorfismo y se dice que es el automorfismo identidad. 

Propiedades: Sea f una aplicaci´on lineal entre los espacios vectoriales E y E 0 definidos sobre el mismo cuerpo K. Se verifican las siguientes propiedades: a) f (0E ) = 0E 0

y f (−x) = −f (x) ∀ x ∈ E

ya que f (x) = f (x + 0E ) = f (x) + f (0E ) ⇒ f (0E ) = 0E 0 0E 0 = f (0E ) = f (x + (−x)) = f (x) + f (−x) ⇒ f (−x) = −f (x) ∀ x ∈ E.

81 b) Si U es un subespacio vectorial de E, f (U ) lo es de E 0 , puesto que ∀ x, y ∈ f (U ) ⇒ ∃ u, v ∈ U : f (u) = x, f (v) = y u, v ∈ U y U subespacio de E ⇒ ∀ λ, µ ∈ K es λu + µv ∈ U ⇒ f (λu + µv) ∈ f (U ) ⇒ λf (u) + µf (v) ∈ f (U ) ⇒ λx + µy ∈ f (U ) ⇒ f (U ) es un subespacio vectorial de E 0 . c) Si V es un subespacio vectorial de E 0 , f −1 (V ) lo es de E ya que ∀ x, y ∈ f −1 (V ) = {x ∈ E : f (x) ∈ V } ⇒ f (x), f (y) ∈ V ⇒ ∀ λ, µ ∈ K λf (x) + µf (y) ∈ V (por ser V subespacio de E 0 ) ⇒ f (λx + µy) ∈ V ⇒ λx + µy ∈ f −1 (V ) ⇒ f −1 (V ) es un subespacio vectorial de E. d) Si v1 , v2 , . . . , vn son vectores linealmente dependientes en el espacio E, f (u1 ), f (u2 ), . . . , f (un ) son vectores linealmente dependientes en E 0 . En efecto: Si los vectores {v1 , v2 , . . . , vn } son linealmente dependientes, existen α1 , . . . , αn ∈ K con alg´ un αi 6= 0 tales que α1 v1 + · · · + αn vn = 0, por lo que f (α1 v1 + · · · + αn vn ) = f (0) = 0. Por ser f lineal, se tiene que α1 f (v1 )+· · ·+αn f (vn ) = 0 con alg´ un αi 6= 0, por lo que {f (v1 ), f (v2 ), . . . , f (vn )} son linealmente dependientes. e) Si {v1 , v2 , . . . , vn } es un sistema generador de E, el conjunto de vectores {f (u1 ), f (u2 ), . . . , f (un )} es un sistema generador de f (E) ⊂ E 0 . En efecto: ∀ x ∈ f (E) ⇒ ∃ y ∈ E : f (y) = x y∈E⇒y=

n X

n n X X αi vi ⇒ x = f (y) = f ( αi vi ) = αi f (vi ) ⇒

i=1

i=1

i=1

{f (v1 ), f (v2 ), . . . , f (vn )} es un sistema generador de f (E).

82

Aplicaciones lineales.

3.1

N´ ucleo e Imagen de una aplicaci´ on lineal.

Sea f : U → V una aplicaci´on lineal. Se denomina imagen de f y se denota por Imf o f (U ) al conjunto Imf = f (U ) = {v ∈ V : v = f (u) con u ∈ U } Se denomina n´ ucleo de f y se denota por Kerf al conjunto Kerf = {x ∈ U : f (x) = 0} = f −1 (0) Teorema 3.2 a) La imagen de f es una variedad lineal de V . b) El n´ ucleo de f es una variedad lineal de U . Demostraci´ on. a) Es una consecuencia inmediata de la segunda propiedad de las aplicaciones lineales. b) Es consecuencia de la tercera propiedad, ya que {0} es una variedad lineal de U y Kerf = f −1 (0). Teorema 3.3 Una aplicaci´on lineal f entre dos espacios vectoriales definidos sobre un mismo cuerpo K es inyectiva si, y s´ olo si, Kerf = {0}. Demostraci´ on. Si f es inyectiva y x ∈ Kerf ⇒ f (x) = 0. Al ser f (0) = 0, se tiene que f (x) = f (0) y por ser f inyectiva es x = 0, por lo que Kerf = {0}. Rec´ıprocamente, si Kerf = {0} y f (x) = f (y) ⇒ f (x − y) = 0 ⇒ x − y ∈ Kerf ⇒ x − y = 0 ⇒ x = y es decir, f es inyectiva. Teorema 3.4 Una aplicaci´on lineal f : U → V es inyectiva si, y s´ olo si, cualquier sistema de vectores linealmente independientes de U se transforma mediante f en un sistema linealmente independiente de vectores de V . Demostraci´ on. Sea f inyectiva y sea {u1 , u2 , . . . , un } un sistema libre de vectores. Vamos a probar que {f (u1 ), f (u2 ), . . . , f (un )} es tambi´en un sistema libre. En efecto: 0 = α1 f (u1 ) + α2 f (u2 ) + · · · + αn f (un ) ⇔ 0 = f (α1 u1 + α2 u2 + · · · + αn un ) ⇔

N´ ucleo e Imagen de una aplicaci´on lineal.

83

α1 u1 + α2 u2 + · · · + αn un ∈ Kerf ⇔ α1 u1 + α2 u2 + · · · + αn un = 0 y como {u1 , u2 , . . . , un } es un sistema libre de vectores, han de ser nulos todos los αi 1 ≤ i ≤ n, por lo que {f (u1 ), f (u2 ), . . . , f (un )} es un sistema libre. Rec´ıprocamente, si para cualquier sistema libre {u1 , u2 , . . . , un } es tambi´en libre el sistema {f (u1 ), f (u2 ), . . . , f (un )} entonces f es inyectivo. En efecto: Por ser para cualquier sistema libre, ha de verificarse para {u} con u 6= 0, por lo que entonces {f (u)} es un sistema libre, es decir, f (u) 6= 0 lo que implica que u 6∈ Kerf de donde se deduce que si u 6= 0 ⇒ u 6∈ Kerf es decir, Kerf = {0} lo que nos lleva a que f es inyectivo. Teorema 3.5 Una aplicaci´ on lineal f : U → V es sobreyectiva si, y s´ olo si, cualquier sistema generador de U se transforma mediante f en un sistema generador de V . Demostraci´ on. f sobreyectiva ⇔ ∀ v ∈ V ∃ u ∈ U : f (u) = v n X Si {u1 , u2 , . . . , un } es un sistema generador de U u = αi ui ⇒ i=1

v = f (u) =

n X

αi f (ui ) ⇔ {f (u1 ), f (u2 ), . . . , f (un )} es un sistema generador

i=1

de V . Teorema 3.6 Si f : U → V es una aplicaci´ on lineal entre dos espacios vectoriales definidos sobre un mismo cuerpo K se verifica que: dim(U ) = dim(Kerf ) + dim(Imf ) Demostraci´ on. Sean dim U = n y dim V = m. Si {a1 , a2 , . . . , ar } es una base de Kerf podemos ampliarla hasta formar una base de U . Sean {b1 , b2 , . . . , bn−r } los vectores necesarios para la ampliaci´on. Entonces, los vectores {b1 , b2 , . . . , bn−r } constituyen una base de un subespacio vectorial H de U complementario del Kerf Kerf + H = U

Kerf ∩ H = {0}

f ({a1 , a2 , . . . , ar , b1 , . . . , bn−r }) = {0, 0, . . . , 0, f (b1 ), . . . , f (bn−r )} es un sistema generador de Imf = f (U ) y por tanto, {f (b1 ), . . . , f (bn−r )} es un sistema generador de Imf . Veamos que son linealmente independientes. Si λ1 f (b1 ) + · · · + λn−r f (bn−r ) = 0 ⇒ f (λ1 b1 + · · · + λn−r bn−r ) = 0 ⇒

84

Aplicaciones lineales.

λ1 b1 + · · · + λn−r bn−r ∈ Kerf Como adem´as λ1 b1 + · · · + λn−r bn−r ∈ H ⇒ λ1 b1 + · · · + λn−r bn−r ∈ Kerf ∩ H = {0} ⇒ λ1 b1 + · · · + λn−r bn−r = 0 y como {b1 , . . . , bn−r } son linealmente independientes, han de ser necesariamente λ1 = · · · = λn−r = 0 ⇒ {f (b1 ), . . . , f (bn−r )} son linealmente independientes y por tanto, constituyen una base de Imf ⇒ dim(Imf ) = n − r = dim U − dim(Kerf ) ⇒ dim(U ) = dim(Kerf ) + dim(Imf ).

3.2

Ecuaciones de una aplicaci´ on lineal.

Sean U y V dos espacios vectoriales definidos sobre un mismo cuerpo K, {u1 , u2 , . . . , un } una base de U , {v1 , v2 , . . . , vm } una base de V y sean w1 , w2 , . . . , wn vectores de V . wi = a1i v1 + a2i v2 + · · · + ami vm ∀ i = 1, 2, . . . , n Existe una u ´nica aplicaci´on lineal f : U → V tal que f (ui ) = wi por lo que n n X X ∀ x ∈ U ⇒ f (x) = f ( x i ui ) = xi wi . i=1

i=1

0

0

Por otra parte, como x = f (x) ∈ V ⇒ x = f (x) =

m X

x0j vj ⇒

j=1 m X j=1

x0j vj

=

n X i=1

xi wi =

n X i=1

xi ·

m X

m X n X aji vj = ( xi aji )vj ⇒

j=1

x0j =

n X

j=1 i=1

xi aji 1 ≤ j ≤ m

i=1

x01 = x1 a11 + x2 a12 + · · · xn a1n x02 = x1 a21 + x2 a22 + · · · xn a2n .. . x0m = x1 am1 + x2 am2 + · · · xn amn

        

⇐⇒

Ecuaciones de una aplicaci´on lineal.

    

x01 x02 .. . x0m





    =  

a11 a21 .. .

a12 a22 .. .

am1 am2

· · · a1n · · · a2n .. .. . . · · · amn

85

    

x1 x2 .. .

    ⇐⇒ x0 = Ax 

xn

donde (x01 , . . . , x0m ) representan las coordenadas de los vectores de Imf respecto de la base {v1 , . . . , vm } de V y (x1 , . . . , xn ) las de los vectores de U respecto de la base {u1 , . . . , un }. As´ı pues, para poder determinar una aplicaci´on lineal es necesario y suficiente conocer los transformados de una base. • Se denomina rango de una aplicaci´on lineal entre dos espacios vectoriales a la dimensi´on del subespacio imagen. r(f ) = dim(Imf ) Como la dimensi´on de Imf es u ´nica, el rango de la aplicaci´on no depende de las bases elegidas de U y de V . El rango de una aplicaci´on lineal f es, por tanto, el rango del conjunto de vectores {f (u1 ), . . . , f (un )} donde {u1 , . . . , un } constituye una base de U .

3.2.1

Matriz asociada a una aplicaci´ on lineal.

Sean U y V espacios vectoriales definidos sobre un mismo cuerpo K y consideremos las bases B = {u1 , u2 , . . . , un } de U y B 0 = {v1 , v2 , . . . , vm } del espacio V . Se denomina matriz asociada a la aplicaci´on lineal f : U → V respecto a las bases B y B 0 a la matriz que tiene por columnas a las coordenadas de los transformados de los vectores de B respecto a la base B 0 de V . Es decir   a11 a12 · · · a1n  a21 a22 · · · a2n    A =  .. .. ..  . .  . . . .  am1 am2 · · · amn donde f (ui ) = a1i v1 + a2i v2 + · · · + ami vm ∀ i = 1, 2, . . . , n Ejemplo 3.1 Determinar una aplicaci´on lineal f : R4 → R3 , cuya imagen est´e engendrada por (2, 0, 1) y (−1, 3, 1). 

86

Aplicaciones lineales. f (1, 0, 0, 0) f (0, 1, 0, 0) f (0, 0, 1, 0) f (0, 0, 0, 1)

     = (2, 0, 1) x1 x1 2 −1 0 0  x2 = (−1, 3, 1) 3 0 0   =⇒  x2  =  0  x3 = (0, 0, 0) x3 1 1 0 0 = (0, 0, 0) x4

   

Como el rango de una aplicaci´on lineal es el rango de los vectores transformados de una base de U y este es el rango de la matriz de la aplicaci´on, se tiene que: El rango de una aplicaci´on lineal es el rango de su matriz asociada respecto de dos bases cualesquiera. Como dim U = dim(Kerf ) + dim(Imf ), si denotamos por n = dim U y r = dim(Imf ) = r(A) ⇒ dim(Kerf ) = n − r, siendo A cualquier matriz asociada a f .

3.2.2

Matrices equivalentes.

Sean U y V espacios vectoriales definidos sobre un mismo cuerpo K y sean B = {u1 , u2 , . . . , un } una base de U y B 0 = {v1 , v2 , . . . , vm } una de V . La aplicaci´on f : U → V es una aplicaci´on lineal si, y s´olo si, existe una u ´nica 0 0 matriz A asociada a f respecto de las bases B y B tal que x = Ax donde las matrices columnas x y x0 son las coordenadas de los vectores x y f (x) respecto a B y B 0 respectivamente. Sean C y C 0 bases respectivas de U y V y sea A0 la matriz asociada a f respecto de las bases anteriores. Entonces y 0 = A0 y donde las matrices columnas y e y 0 son las coordenadas de y y f (y) respecto a C y C 0 . Veamos qu´e relaci´on existe entre las matrices A y A0 . Sean P la matriz regular del cambio de base de C a B y Q la del cambio de base de C 0 a B 0 tambi´en regular. Entonces, x = P y y x0 = Qy 0 .  x0 = Ax = AP y ⇒ QA0 y = AP y ∀ y ⇒ QA0 = AP ⇒ x0 = Qy 0 = QA0 y A0 = Q−1 AP • Dos matrices A y B, del mismo orden, se dicen equivalentes cuando existen dos matrices regulares Q y P tales que A = Q−1 BP

Ecuaciones de una aplicaci´on lineal.

87

Es decir, dos matrices A y B son equivalentes si est´an asociadas a la misma aplicaci´on lineal y viceversa. La equivalencia de matrices es una relaci´on de equivalencia. Los elementos de una misma clase de equivalencia son todas las matrices asociadas a una misma aplicaci´on lineal y por tanto, todas ellas tienen el mismo rango. Puede probarse tambi´en el teorema rec´ıproco. Teorema 3.7 Si dos matrices tienen el mismo rango, son equivalentes. • Puede ser considerado como un caso particular de la equivalencia aquel en que las matrices sean cuadradas. En este caso, dos matrices cuadradas A y B, del mismo orden, se dice que son semejantes si existe otra matriz P regular tal que B = P −1 AP De la propia definici´on de semejanza de matrices, se deduce el siguiente teorema: Teorema 3.8 Dos matrices cuadradas son semejantes si, y s´ olo si, est´ an asociadas a un mismo endomorfismo.

3.2.3

Imagen inversa de una variedad lineal.

Si L es una variedad lineal, su imagen inversa por la aplicaci´on lineal f, f −1 (L) es otra variedad lineal que se obtiene de la siguiente forma: x ∈ f −1 (L) ⇔ f (x) ∈ L y como f ser´a conocido, impondremos que el vector f (x) verifique las ecuaciones impl´ıcitas de L, as´ı obtendremos las ec. impl´ıcitas de f −1 (L) Matricialmente podemos tambi´en resolver esta cuesti´on de la siguiente forma: Sea L una variedad lineal dada por sus ecuaciones impl´ıcitas respecto de una base fijada. A la matriz asociada al sistema de ecuaciones que constituye dichas ecuaciones impl´ıcitas, la llamaremos B, con lo que las ecuaciones impl´ıcitas de L las representamos matricialmente como Bx = 0. Sea f la aplicaci´on lineal dada por f (x) = y y llamando A a la matriz de f , dichas ecuaciones matricialmente ser´ıan Ax = y. Obtengamos unas ecuaciones impl´ıcitas de f −1 (L):

88

Aplicaciones lineales.

x ∈ f −1 (L) ⇔ f (x) ∈ L ⇔ Ax ∈ L como Ax es un vector, la condici´on para que pertenezca a L es que verifique sus ecuaciones impl´ıcitas, es decir que B(Ax) = 0 y esta nueva matriz BA es la matriz asociada a las ec. impl´ıcitas de f −1 (L). Desde luego nada garantiza que esas ecuaciones sean linealmente independientes entre s´ı, habr´ıa que eliminar las que no lo sean. Ejemplo 3.2 Sea la aplicaci´on lineal f : R3 −→ R2 de ecuaciones respecto de la base can´onica de R3 : f (x1 , x2 , x3 ) = (2x1 − x2 , −x1 + x3 ) y sea L = h(1, 3)i Hallar f −1 (L)  L es una variedad lineal de dimensi´on 1 y estamos en el espacio vectorial R3 , por lo tanto la variedad lineal f −1 (L) tendr´a dimensi´on 2 es decir una ecuaci´on impl´ıcita. x ∈ f −1 (L) ⇐⇒ f (x) ∈ L ⇐⇒ (2x1 − x2 , −x1 + x3 ) verifica las ecuaciones impl´ıcitas de L ≡ 3x1 −x2 = 0 por tanto f −1 (L) ≡ −3(2x1 −x2 )+(−x1 +x3 ) = 0 es decir f −1 (L) ≡ 7x1 + 3x2 − x3 = 0

3.2.4

Operaciones con aplicaciones lineales.

Trataremos las operaciones usuales entre aplicaciones lineales: suma de dos aplicaciones lineales, producto de un escalar por una aplicaci´on lineal y composici´on de dos aplicaciones lineales. Sean f : U −→ V y g : U −→ V dos aplicaciones lineales cualesquiera definidas sobre un mismo cuerpo K. Se definen las aplicaciones f + g y λf como • f + g : U −→ V tal que (f + g)(u) = f (u) + g(u)∀u ∈ U . • λf : U −→ V tal que (λf )(u) = λ · f (u) ∀u ∈ U, ∀ λ ∈ K. Es sencillo demostrar que ambas aplicaciones son lineales. Si llamamos A a la matriz asociada a la aplicaci´on lineal f respecto de una base de U y otra de V y B a la matriz asociada a la aplicaci´on lineal g respecto de las mismas bases anteriores, la matriz asociada a la aplicaci´on lineal f + g es A + B y la matriz asociada a la aplicaci´on lineal (λf ) es λA. Sean ahora otras dos aplicaciones lineales: f : V −→ W y g : W −→ U , la aplicaci´on lineal (g ◦ f ) : V −→ U tal que (g ◦ f )(x) = g[f (x)] recibe el nombre de aplicaci´on lineal compuesta (g compuesta con f). Observaci´on: no es lo mismo f ◦ g que g ◦ f , podr´ıa incluso tener sentido una de ellas y la otra no.

Ecuaciones de una aplicaci´on lineal.

89

Si continuamos llamando A a la matriz asociada a la aplicaci´on lineal f y B a la matriz asociada a la aplicaci´on lineal g, la matriz asociada a la aplicaci´on lineal (g ◦ f ) es B · A. Siempre que las siguientes composiciones tengan sentido, y siendo f, g,y h homomorfismos y λ escalar, se verifica que: (f ◦ g) ◦ h (f + g) ◦ h h ◦ (f + g) λ(f ◦ g)

= = = =

f ◦ (g ◦ h) f ◦h+g◦h h◦f +h◦g (λf ) ◦ g = f ◦ (λg)

Ejemplo 3.3 Sean f : R3 −→ R2 y g : R2 −→ R3 las aplicaciones lineales que tienen por ecuaciones: f (x1 , x2 , x3 ) = (x1 + 2x2 + 3x3 , −x1 + x2 + 5x3 ) g(x1 , x2 ) = (x1 + x2 , 2x1 − x2 , 3x1 − 4x2 ) Hallar las ecuaciones matriciales respecto de las correspondientes bases can´onicas de g ◦f y f ◦g. Obs´ervese que, en este caso, ambas composiciones son posibles.  Denotemos por Af la matriz asociada a f cuyas columnas ser´an las im´agenes 3 por f  de los vectores  de la base can´onica de R 1 2 3 Af = −1 1 5 An´alogamente Bg es la matriz asociada a g y sus columnas son las im´agenes por g  de los vectores de la base can´onica de R2  1 1 Bg =  2 −1  3 −4 La matrizasociada a g  ◦ f ser´a 0 3 8 1  Bg · Af =  3 3 7 2 −11 La matrizasociada af ◦ g ser´a 14 −13 Af · Bg = 16 −22 Entonces las ecuaciones pedidas son: g ◦ f : R3 −→ R3

90

Aplicaciones lineales. 

     x1 0 3 8 x1  x2  7−→  3 3 1  ·  x2  7 2 −11 x3 x3 An´alogamente, f ◦ g : R2 −→ R2       x1 14 −13 x1 7−→ · x2 16 −22 x2 Ejemplo 3.4 Sean los homomorfismos f : R4 → R3 y g : R3 → R3 tales que: 1. f (e1 ) = (1, 2, −3), f (e2 ) = (2, 1, 3), f (e3 ) = (1, 3, −3).  0 x1 − 2x02 = 0 −1 2. (1, 0, 0, 1) ∈ f (L), siendo L ≡ x02 − x03 = 0 3. g(0, 0, 1) = (1, 1, −1) 4. Ker g ◦ f ≡ x1 − x2 + x3 − 2x4 = 0 Determinar: a) f , g y g ◦ f .  Para conocer la matriz asociada a f s´olo nos hace falta conocer la imagen por f de e4 ya que al ser f : R4 → R3 su matriz asociada tiene por columnas las im´agenes por f de los vectores de una base de R4 , en este caso nos dan como dato las im´agenes de los tres primeros vectores de la base can´onica de R4 , as´ı pues basta conocer f (e4 ) para tener dicha matriz. Con el primer dato dado y, llamando f(e4 ) = (x, y, z) sabemos que la matriz  1 2 1 x 3 y  asociada a f , Af es de la forma: Af =  2 1 −3 3 −3 z El segundo dato (1, 0, 0, 1) ∈ f −1 (L), equivale a decir que f (1,  0,0 0, 1) ∈0 L, es x1 − 2x2 = 0 decir que verifica las ecuaciones impl´ıcitas de L siendo L ≡ x02 − x03 = 0 y f (1, 0, 0, 1) es un vector de R3 luego f (1, 0, 0, 1) = (a, b, c) impongamos que

Ecuaciones de una aplicaci´on lineal.

91 

verifique las ecuaciones impl´ıcitas de L con lo que tendremos:

a − 2b = 0 b−c=0

=⇒ f (1, 0, 0, 1) = (2b, b, b) Seguimos sin saber cu´anto vale f (0, 0, 0, 1) pero como f es una aplicaci´on lineal podemos expresar f (1, 0, 0, 1) = f ((1, 0, 0, 0) + (0, 0, 0, 1)) = f (1, 0, 0, 0) + f (0, 0, 0, 1) =⇒ f (e4 ) = f (1, 0, 0, 1)−f (1, 0, 0, 0) de lo que se deduce: f (e4 ) = (2b−1, b−2, b+3) Luego hasta  1  2 Af = −3

ahora la matriz asociada a f es  2 1 2b − 1 1 3 b−2  3 −3 b + 3

El cuarto dato nos permite obtener f´acilmente una base del n´ ucleo de g ◦ f BKer g◦f = {(1, 1, 0, 0), (−1, 0, 1, 0), (2, 0, 0, 1)} y por definici´on del n´ ucleo de una variedad lineal, si x ∈ (Ker g ◦ f ) ⇒ (g ◦ f )(x) = 0 entonces: • 0 = g[f (1, 1, 0, 0)] = g[f (1, 0, 0, 0)+f (0, 1, 0, 0)] = g[(1, 2, −3)+(2, 1, 3)] = g[3, 3, 0] = 3 · g(1, 1, 0) Es decir, g(1, 1, 0) = (0, 0, 0) • 0 = g[f (−1, 0, 1, 0)] = g[−f (e1 ) + f (e3 )] = g(0, 1, 0) Es decir g(0, 1, 0) = (0, 0, 0) • 0 = g[f (2, 0, 0, 1)] = g[2f (e1 )+f (e4 ))] =⇒ g(2b+1, b+2, b−3) = (0, 0, 0) Pero ya podemos averiguar el valor de b porque la matriz asociada a g es conocida ya que sabemos las im´agenes por g de los tres vectores de la base can´onica de R3 Es decir • g(1, 0, 0) = (0, 0, 0) • g(0, 1, 0) = (0, 0, 0) • g(0, 0, 1) = (1, 1, −1) =⇒ 

 0 0 1 1  Bg =  0 0 0 0 −1 Entonces

92

Aplicaciones lineales. 

   0 0 1 2b + 1 1 · b+2  g(2b + 1, b + 2, b − 3) =  0 0 0 0 −1 b−3 =⇒ g(2b + 1, b + 2, b − 3) = (b − 3, b − 3, −b + 3) = (0, 0, 0) =⇒ b = 3 Tenemos tambi´en ya  1 2 1 3 Af =  2 1 −3 3 −3 Y llamando  0  0 Cg◦f = 0

la matriz asociada a f :  5 1  6

Cg◦f a la matriz de g ◦ f resulta Cg◦f = Bg · Af es decir:     0 1 1 2 1 5 −3 3 −3 6 0 1 · 2 1 3 1  As´ı, Cg◦f =  −3 3 −3 6  0 −1 −3 3 −3 6 3 −3 3 −6

Nota: Este ejemplo es la resoluci´on del apartado a) del ejercicio propuesto 3.13

Ejercicios propuestos

3.3

93

Ejercicios propuestos

Ejercicio 3.1 Determinar una aplicaci´on lineal f : R4 → R3 , sabiendo que (−1, 0, 0, 1) y (1, 3, 2, 0) constituyen un sistema generador de Kerf y que los vectores (1, 1, 1) y (0, −2, 1) generan a Imgf . Ejercicio 3.2 Consideremos la aplicaci´on lineal f : R3 → R3 definida por f (x, y, z) = (2x + y, −z, 0) a) Determinar Kerf y hallar una base de dicho subespacio. b) Hallar el rango de f . c) ¿Pertenece (6, −2, 0) a Kerf ? Ejercicio 3.3 Sean V y W espacios vectoriales reales de dimensiones 3 y 4 respectivamente, B = {v1 , v2 , v3 } una base de V , B 0 = {w1 , w2 , w3 , w4 } una de W y f la aplicaci´on lineal determinada por: f (v1 ) = 2w1 − w2 + w3 + w4 f (v2 ) = w2 − 2w3 + w4 f (v3 ) = 4w1 − w2 + 3w4 a) Obtener las ecuaciones de f . b) Determinar Kerf e Imgf . Ejercicio 3.4 Consideremos la aplicaci´on lineal f : P2 [x] → R4 que a cada polinomio p ∈ P2 [x] le asigna (p(0), p(1), p(2), p(3)). Se pide: a) Calcular las ecuaciones de f respecto de las bases can´onicas. b) Obtener las coordenadas de f (2x2 − x + 1) respecto de la base can´onica de R4 . c) Determinar Kerf e Imgf . Ejercicio 3.5 Consideremos la aplicaci´on lineal f : R3 → R2 , definida por f (x, y, z) = (−2x + y, 3z). Calcular las ecuaciones de f a) Respecto de las bases can´onicas.

94

Aplicaciones lineales.  B = {(1, 2, −1), (0, 1, 0), (3, 1, 1)} de R3   y b) Respecto de las bases   B 0 = {(0, 2), (−1, 1)} de R2  C = {(1, 1, 1), (0, 1, 0), (0, 0, 1)} de R3   y c) Respecto de las bases   C 0 = {f (1, 1, 1), f (0, 1, 0)} de R2

Ejercicio 3.6 Sea f el endomorfismo de R3 talque Kerf viene dado por x1 + x3 = 0 x1 + x2 + x3 = 0 y unas ecuaciones de Imgf son respecto de x2 = 0 una base B de R3 a) Hallar las ecuaciones de f respecto de B. b) Determinar f 2 . Ejercicio 3.7 Sean f : E → F una aplicaci´on lineal cuyas ecuaciones, respecto de las bases B y B 0 , son    0    x1 x1 −1 1 2 0    x02  =  2 1 −1 1   x2   x3  1 2 1 1 x03 x4 y L un subespacio de E. Determinar f (L) en los siguientes casos: a) Una base de L est´a formada por los vectores v y w, cuyas coordenadas respecto de B son (3, 0, 2, 1) y (4, 2, 2, 2) respectivamente. b) Unas ecuaciones impl´ıcitas de L son:  x1 − x2 + 2x3 − x4 = 0 L= x1 + x2 + x3 − x4 = 0 Ejercicio 3.8 Sea f la aplicaci´on lineal de R3 en R4 que respecto de las bases can´onicas tiene por ecuaciones:  0     x1 1 2 5   x02   −2 −1 −1  x1  0 =    x3   1 −1 −4  x2 x3 x04 5 1 −2 Determinar f −1 (L) para los siguientes subespacios L de R4 :

Ejercicios propuestos

95

a) Las ecuaciones impl´ıcitas de L son ax1 + bx2 + cx3 + dx4 = 0.  x1 + 2x2 + x4 = 0 b) Las ecuaciones de L son: 3x2 − x3 + x4 = 0 c) L est´a engendrado por los vectores (1, 0, −1, −1) y (1, −1, 0, 2). Ejercicio 3.9 Sea f : R3 → R4 la aplicaci´on lineal tal que f (e1 ) = (1, 1, 0, 1) , f (e2 ) = (−1, 2, 0, 0) , f (e3 ) = (0, 3, 0, 1) Hallar la matriz asociada a f respecto de las bases B = {(1, 2, 1), (0, 1, 2), (0, 0, 1)} y B 0 = {(2, 1, 0, 1), (0, 0, 1, 0), (0, 0, 0, 3)}. Ejercicio 3.10 Sea B = {u1 , u2 , u3 , u4 } una base de R4 y sean f y g los endomorfismos de R4 determinados por: f (u1 ) = (−1, 2, 0, −1) f (u2 ) = (0, 0, −1, 0) f (u3 ) = (−2, 4, −1, −2) f (u4 ) = (0, 0, 0, 1)

g(u1 ) = (2, 0, 0, 1) g(u2 ) = (0, 1, −1, 0) g(u3 ) = (2, 1, −1, 1) g(u4 ) = (4, 0, 0, 2)

a) Determinar las matrices asociadas a f y g, respecto de la base B. b) Idem para 3f, 2f − g, g ◦ f y f ◦ g. Ejercicio 3.11 Sea f el endomorfismo de R3 definido por 1. f (1, 1, 0) = (3, 6, 9). 2. Si L =< (1, 2, 3) > entonces x1 = x3 es una ecuaci´on impl´ıcita de f −1 (L). 3. En la matriz asociada a f respecto de la base can´onica a11 = 1 y a33 = 3. Se pide: a) La matriz asociada a f , respecto de las bases can´onicas. b) La dimensi´on, una base y unas ecuaciones impl´ıcitas de Kerf e Imgf .

96

Aplicaciones lineales.

Ejercicio 3.12 Sea f el endomorfismo de R3 determinado por f (1, 1, 1) = (1 + a, 1, 1 + a), f (0, 1, 1) = (a, 1, 1 + a), f (0, 0, 1) = (0, 1, a) y sean L1 , L2 las variedades lineales de R3 definidas por:  x1 + x2 = 0 L1 ≡ x 2 − x 3 = 0 L2 ≡ 2x1 − x2 = 0 a) Hallar la matriz de f respecto de la base can´onica. b) Estudiar para qu´e valores de a es f un automorfismo. c) Hallar una base y unas ecuaciones impl´ıcitas de la variedad lineal L3 = f −1 (f (L1 ) + L1 ) d) Determinar para qu´e valores de a es R3 = L2 ⊕ L3 . Ejercicio 3.13 Sean los homomorfismos f : R4 → R3 y g : R3 → R3 tales que: 1. f (e1 ) = (1, 2, −3), f (e2 ) = (2, 1, 3), f (e3 ) = (1, 3, −3).  0 x1 − 2x02 = 0 −1 2. (1, 0, 0, 1) ∈ f (L), siendo L ≡ x02 − x03 = 0 3. g(0, 0, 1) = (1, 1, −1) 4. Ker g ◦ f ≡ x1 − x2 + x3 − 2x4 = 0 Determinar: a) f , g y g ◦ f . b) Unas ecuaciones impl´ıcitas de Img g ◦ f . c) Una base de (g ◦ f )(L1 ), siendo L1 ≡ x1 − x2 + x4 = 0 Ejercicio 3.14 Sean f, g ∈ End(R3 ) tales que: 1. f (x1 , x2 , x3 ) = (x1 + x3 , x1 − x2 + x3 , x2 ) 2. g(1, 0, 0) = (1, 1, 1)

Ejercicios propuestos

3. g(f (x1 , x2 , x3 )) = (0, 0, 0)

97 ∀ (x1 , x2 , x3 ) ∈ R3 .

Se pide: a) Demostrar que Kerg = Imgf . b) Hallar las matrices asociadas a g y f ◦ g, respecto de la base can´onica. c) Hallar unas ecuaciones impl´ıcitas de Img f ◦ g respecto de la base can´onica, y una base de Ker f ◦ g. Ejercicio 3.15 En R3 , respecto de la base can´onica, se consideran las variedades lineales: L1 : x − y = 0 L2 =< (1, −1, 1) > a) Probar que R3 = L1 ⊕ L2 . b) Calcular, respecto de la base can´onica, la matriz de todos los endomorfismos f de R3 tales que f (L1 ) ⊂ L2 y f (0, 1, 0) = (1, 0, −1). c) Comprobar que todos los endomorfismos del apartado anterior tienen, a lo sumo, rango 2. ¿Existe alg´ un endomorfismo de rango 1? d) Encontrar f ∈ End(R3 ) que cumple las condiciones del segundo apartado y que adem´as (1, 1, 1) ∈ Ker(f ), f (1, 0, −1) = (−3, 2, −1). ¿Es u ´nico? −1 En tal caso, calcular una base de los subespacios f (L1 ) y f (L2 ). Ejercicio 3.16 Sean f, g : R3 → R4 definidas por: f (x, y, z) = (x, −y, z, x + y + z)

y

g(x, y, z) = (−x, y, 2x, −x − y + z)

a) Hallar la expresi´on matricial de f + g respecto de las bases can´onicas. b) Idem para 3f − 2g. c) Determinar Kerf y Kerg. ¿Es Kerf + Kerg = Ker(f + g)? Ejercicio 3.17 En el espacio vectorial R4 y respecto a la base can´onica se consideran las variedades lineales siguientes: L =< (1, 4, 1, −1), (2, 3, 2, 3) >

R =< (0, 1, 0, 0), (1, 0, −1, 2) >

98

Aplicaciones lineales. (

M =< (1, 1, 1, −3), (3, −2, 3, −4), (3, −2, 3, −4) >

K:

x2 − x4 = 0 2x2 + 3x4 = 0

Sea f el endomorfismo dado por: f (0, 1, 0, 0) = (−1, 3, 0, −1)

f (1, −1, 1, −1) = (1, −2, a, b)

f (1, 1, 0, −3) = (m, −5, n, 2)

Ker(f ) = L ∩ M

f (K) = R

a) Hallar la matriz asociada a f respecto a la base can´onica. b) Hallar la matriz asociada a f respecto a la base: B = {(−1, 2, 0, −1), (0, 1, 0, 0), (1, −2, 1, 0), (0, 1, 0, −1)} Ejercicio 3.18 Para cada λ ∈ R se define la aplicaci´on lineal fλ : R4 → R3 , fλ (x1 , x2 , x3 , x4 ) = (λx1 + x2 , x1 + λx3 , x2 + x4 ) a) Estudiar los valores de λ que hacen que fλ sea inyectiva, sobreyectiva o biyectiva. b) Hallar una base de N (fλ ) para λ = 2. c) Sea la variedad lineal L de R4 de ecuaciones x1 = x3 = 0, calcular fλ (L) para λ = 0. d) Dada la base de R3 , B = {(1, 0, 1), (0, 1, 1), (1, 1, 0)}, hallar la matriz de fλ (L), para λ = 1, respecto a la base can´onica de R4 y B de R3 . Ejercicio 3.19 Sea f el endomorfismo de R3 definido por: 1) El vector (1, 0, 1) se transforma, mediante f , en s´ı mismo. 2) La variedad lineal de ecuaci´on x1 − x2 = 0 tambi´en se transforma en s´ı misma mediante f . 3) La matriz asociada a f , respecto de la base can´onica, es sim´etrica y de traza nula. Se pide: a) Hallar la matriz A asociada a f respecto de la base can´onica.

Ejercicios propuestos

99

b) ¿Es posible determinar una base del n´ ucleo sin necesidad de hallar sus ecuaciones? Razona la respuesta. c) Siendo H la variedad lineal generada por los vectores (1, 1, 1) y (2, 2, 0), hallar una base de f 1996 (H). d) Determinar una base de f (L) ∩ H donde L es la variedad de ecuaci´on x3 = 0

100

Aplicaciones lineales.

4. Ortogonalidad. El concepto de espacio vectorial surgi´o como una generalizaci´on del espacio de los vectores geom´etricos tomando como punto de partida las propiedades de dichos vectores geom´etricos, que proven´ıan de la suma y el producto por un escalar. As´ı se definieron: subespacios vectoriales, dependencia e independencia lineal, transformaciones lineales, etc. Para los vectores geom´etricos hay otros conceptos como los de longitud o norma, ´angulo de dos vectores, etc., que no se contemplan al hacer la anterior abstracci´on y que, por tanto, hasta ahora no tienen significado alguno en un espacio vectorial abstracto. Se trata ahora de superponer a una estructura de espacio vectorial una nueva estructura que nos permita hablar de ´angulos y distancias y conviene tener en cuenta que a partir de este momento el cuerpo base del espacio vectorial, que antes era un cuerpo K cualquiera, ser´a el cuerpo R de los n´ umeros reales o C de los n´ umeros complejos. En el estudio de los vectores geom´etricos, se definen ´angulos y distancias y, a partir de ellos, se introduce el concepto de producto escalar o producto interior de vectores. En el proceso de abstracci´on se tomar´an como axiomas para definir un producto escalar las propiedades que caracterizan al producto escalar de los vectores geom´etricos y, a partir de ´el, se introducir´an los conceptos m´etricos de ´angulos y distancias.

4.1

Formas bilineales.

Sea V un espacio vectorial real. Una forma bilineal b sobre V es una aplicaci´on b : (x, y) ∈ V × V 7→ b(x, y) ∈ R cumpliendo: a) b(x + x0 , y) = b(x, y) + b(x0 , y) 101

102

Ortogonalidad.

b) b(x, y + y 0 ) = b(x, y) + b(x, y 0 ) c) b(αx, y) = b(x, αy) = α · b(x, y) Cualesquiera que sean x, y, x0 , y 0 ∈ V y para cualquiera que sea α ∈ R

4.1.1

Matriz asociada a una forma bilineal.

Sea B = {u1 , u2 , . . . , un } una base de V y b : V ×V → R una forma bilineal.  n X    x = x i ui   i=1 ∀ x, y ∈ V ⇒ n X    y j uj   y= j=1

n n n X X X b(x, y) = b( x i ui , y j uj ) = xi yj b(ui , uj ) y en forma matricial i=1

j=1

i,j=1



b(x, y) = ( x1 x2

b(u1 , u1 ) b(u1 , u2 )  b(u2 , u1 ) b(u2 , u2 )  · · · xn )  .. ..  . . b(un , u1 ) b(un , u2 )

  · · · b(u1 , un ) y1  y2  · · · b(u2 , un )      ..  .. ...  .  . · · · b(un , un ) yn

o bien b(x, y) = xt Ab y siendo Ab = [b(ui , uj )]1≤i,j≤n . A esta matriz Ab se le denomina matriz asociada a la forma bilineal b respecto de la base B. Este resultado tiene el correspondiente rec´ıproco. Sea V un espacio vectorial real y b una forma bilineal sobre V . • Se dice que b es sim´ etrica si b(x, y) = b(y, x) ∀ x, y ∈ V Si b es sim´etrica b(ui , uj ) = b(uj , ui ) y por tanto, la matriz asociada Ab es una matriz sim´etrica.   b(x, x) > 0 si x 6= 0 • Se dice que b es definida positiva si  b(x, x) = 0 ⇔ x = 0

Producto escalar.

4.2

103

Producto escalar.

Se define producto escalar sobre un espacio vectorial real V como una forma bilineal, sim´etrica y definida positiva. El producto escalar no es u ´nico pues pueden definirse numerosas formas bilineales sim´etricas y definidas positivas sobre un mismo espacio vectorial.

4.2.1

Espacio vectorial eucl´ıdeo.

Un espacio vectorial eucl´ıdeo es un par (V, b) en el que V es un R-espacio vectorial y b un producto escalar sobre V . Designando el producto escalar por b(x, y) =< x, y > respecto de una base B de V , su expresi´on viene dada por: < x, y >= xt Ay siendo A la matriz asociada a b respecto de la base B : A = [< ui , uj >]1≤i,j≤n Ejemplo 4.1 Los productos definidos a continuaci´on son productos escalares en R2 respecto de la base B = {u1 , u2 }   a) < x, y >= 2x1 y1 + 3x2 y2 = (x1 x2 )

2 0 0 3



y1 y2



 b) < x, y >= 8x1 y1 + 3x1 y2 + 3x2 y1 + 8x2 y2 = (x1 x2 )  c) < x, y >= x1 y1 + x2 y2 = (x1 x2 )

1 0 0 1



y1 y2

8 3 3 8



y1 y2





Este u ´ltimo ejemplo en el que la matriz asociada es la matriz unidad recibe el nombre de producto escalar can´ onico. Como la expresi´on matricial de un producto escalar depende de la base utilizada, cabe preguntarse si para cualquier producto escalar existir´a siempre una base respecto de la cual su matriz asociada sea la matriz unidad. El prop´osito del tema consiste en encontrar dicha base, que da lugar a la expresi´on can´onica del producto escalar. Teorema 4.1 La matriz asociada a un producto escalar, respecto de cualquier base, es sim´etrica y regular. El rec´ıproco no es cierto.

104

Ortogonalidad.

Demostraci´ on. a) Es sim´etrica por ser el producto escalar una forma bilineal sim´etrica. b) Sea x ∈ V y consideremos < x, y >= 0 ∀ y ∈ V entonces x = 0 ya que de lo contrario se tendr´ıa < x, x >= 0 con x 6= 0 lo que contradice la hip´otesis de ser definida positiva. Es decir, el u ´nico vector x ∈ V tal que < x, y >= 0 ∀ y ∈ V es x = 0. Consideremos el sistema Ax = 0 y veamos que la u ´nica soluci´on que posee es la trivial, lo que equivale a que detA 6= 0, es decir, a que A es regular. Supongamos que existe alg´ un vector no nulo z ∈ V tal que Az = 0. Entonces, ∀ y ∈ V (Az)t y = 0 ⇔ z t AT y = z t Ay =< z, y >= 0. Como < z, y >= 0 ∀ y ∈ V ⇒ z = 0 lo que contradice la hip´otesis de ser z 6= 0 y por tanto, no existe ning´ un vector no nulo z ∈ V tal que Az = 0 es decir, Ax = 0 s´olo admite la soluci´on trivial.   1 3 c) El rec´ıproco no es cierto ya que A = no es la matriz de un 3 1 producto escalar a pesar de ser sim´etrica y regular, pues      1 3 1 1 (1 − 1) = (−2 2) = −4 < 0 3 1 −1 −1 y por tanto A no representa a una forma bilineal definida positiva.

• Sea (V, <, >) un espacio vectorial eucl´ıdeo. Se denomina norma del vector x ∈ V al n´ umero real positivo √ kxk = + < x, x > que tiene sentido ya que < x, x >≥ 0 ∀ x ∈ V .

Propiedades: a) kxk = 0 ⇔ x = 0 b) kα · xk = |α| · kxk c) Ley del paralelogramo: kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 )

Producto escalar.

105

d) Desigualdad de Cauchy-Schwartz: | < x, y > | ≤ kxk · kyk e) Desigualdad de Minkowski: kx + yk ≤ kxk + kyk f) kxk − kyk ≤ kx − yk Cualesquiera que sean x, y ∈ V α ∈ R. Nota: Sean x, y ∈ V no nulos. De la desigualdad de Cauchy-Schwartz se deduce que −kxk · kyk ≤< x, y >≤ kxk · kyk y como kxk = 6 0 kyk = 6 0⇒ −1 ≤

< x, y > ≤1 kxk · kyk

< x, y > se le define como cos α dici´endose que α es el ´angulo que kxk · kyk forman los vectores x e y.

Al n´ umero

[ < x, y >= kxk · kyk · cos (x, y) Teorema 4.2 Para determinar el producto escalar de dos vectores cualesquiera es necesario y suficiente conocer los productos escalares de los vectores de una base. Demostraci´ on. Sea (V, <, >) un espacio eucl´ıdeo y B = {u1 , u2 , . . . , un } una base V . n n X X ∀ x, y ∈ V =⇒ x = x i ui e y = yj uj ⇒ i=1

< x, y >=<

n X i=1

j=i

xi ui ,

n X

yj uj >=

j=1

n X

xi yj < ui , uj >

i,j=1

Si < ui , uj >= aij son conocidos, es conocido el producto de dos vectores cualesquiera, siendo < x, y >=

n X

xi aij yj = xt Ay

i,j=1

Adem´as est´a determinado de manera u ´nica. La matriz A es u ´nica respecto de la base B y se le denomina matriz de Gram correspondiente al producto escalar considerado respecto de la base B de V y, por consiguiente, es sim´etrica y regular.

106

Ortogonalidad.

4.3

Ortogonalidad.

a) Sea (V, <, >) un espacio vectorial eucl´ıdeo. Se dice que los vectores x, y ∈ V son ortogonales respecto del producto escalar <, > si se verifica que < x, y >= 0 (x, y no nulos, ya que si uno de ellos fuese nulo, el producto escalar ser´ıa nulo cualquiera que fuese el otro vector). b) Sea A ⊂ V no vac´ıo. Definimos el conjunto ortogonal de A respecto a <, > y lo denotamos por A⊥ como A⊥ = {x ∈ V : < x, y >= 0 ∀ y ∈ A} Teorema 4.3 Sea (V, <, >) un espacio vectorial eucl´ıdeo y A ⊂ V no vac´ıo. El conjunto A⊥ ortogonal de A es un subespacio vectorial de V que llamaremos subespacio ortogonal de A o variedad ortogonal a A. Demostraci´ on. ∀ x1 , x2 ∈ A⊥ ⇒ αx1 + βx2 ∈ A⊥ ∀ α, β ∈ R. En efecto: ∀y∈A

ya que

< αx1 + βx2 , y >= α < x1 , y > +β < x2 , y >= α · 0 + β · 0 = 0

  x1 ∈ A⊥ ⇒< x1 , y >= 0 ∀ y ∈ A 

x2 ∈ A⊥ ⇒< x2 , y >= 0 ∀ y ∈ A.

Estudiemos ahora algunas propiedades de la ortogonalidad relacionadas con la dependencia lineal y, posteriormente introduciremos unas bases especiales que denominaremos bases ortonormales. Teorema 4.4 Teorema de Pit´ agoras. Sea (V, <, >) un espacio vectorial eucl´ıdeo. Dos vectores x, y ∈ V son ortogonales si y s´olo si kx + yk2 = kxk2 + kyk2 Demostraci´ on. a) x ⊥ y ⇒ kx + yk2 = kxk2 + kyk2 . En efecto: kx + yk2 =< (x + y), (x + y) >= < x, x > + < x, y > + < y, x > + < y, y >= kxk2 + kyk2 ya que < x, y >=< y, x >= 0 por ser x ⊥ y.

Ortogonalidad.

107

b) kx + yk2 = kxk2 + kyk2 ⇒ x ⊥ y. En efecto: kx + yk2 =< (x + y), (x + y) >= kxk2 + 2 < x, y > +kyk2 Si kx + yk2 = kxk2 + kyk2 ⇒< x, y >= 0 ⇒ x ⊥ y. Sea (V, <, >) un espacio vectorial eucl´ıdeo y sean H y H 0 dos subconjuntos no vac´ıos de V . • Se dice que H es ortogonal a H 0 si < x, y >= 0 ∀ x ∈ H ∀ y ∈ H 0 • Se dice que H es un conjunto ortogonal si < x, y >= 0 ∀ x, y ∈ H con x 6= y • Se dice que H es un conjunto ortonormal si es ortogonal y verifica adem´as que kxk = 1 ∀ x ∈ H

Ejemplo: Se considera el espacio vectorial eucl´ıdeo R3 con el producto escalar que respecto a la base can´onica tiene la matriz:   2 1 0  1 2 0  0 0 1 a) Calcular el valor de a para que los vectores (1, 2, a) y (a, −1, 1) sean ortogonales. b) Si L es la variedad lineal de ecuaciones −x1 + x2 + x3 = 0, hallar unas ecuaciones impl´ıcitas de L⊥ .

Nota: Este ejemplo son los apartados a) y b) del ejercicio 4.9 Apartado a) Los dos vectores ser´an ortogonales respecto al producto escalar dado si y s´olo si su producto escalar es cero      2 1 0 a a   1 2 a  1 2 0   −1  = 0 ⇐⇒ 4 5 a  −1  = 0 0 0 1 1 1 ⇐⇒

108

Ortogonalidad.

4a − 5 + a = 5a − 5 = 0 ⇐⇒ a = 1 Apartado b) El n´ umero de ecuaciones impl´ıcitas l.i. de la variedad lineal dada L es uno y, como el espacio vectorial al que pertenece tiene dimensi´on tres, se deduce que la dimensi´on de L es dos. Calculemos dos vectores de R3 que constituyan una base de L: L ≡ −x1 + x2 + x3 = 0 considerando los par´ametros x2 y x3 y d´andoles los x =1 x2 = 0 valores 2 x3 = 0 =⇒ x1 = 1 x3 = 1 =⇒ x1 = 1 Por tanto L = h(1, 1, 0), (1, 0, 1)i Como dim(L) = 2 =⇒ dim(L⊥ ) = 1 Llamemos (a1 , a2 , a3 ) al vector de una base de L⊥ . Para que esto sea cierto, tendr´a que ser ortogonal a los dos vectores de la base de L, respecto del producto escalar dado, es decir h((a1 , a2 , a3 ), (1, 1, 0))i = 0 y h((a1 , a2 , a3 ), (1, 0, 1))i = 0 O sea:  a1 a2 a3



  2 1 0 1  1 2 0  1  = 0 0 0 1 0 

a1 a2

  2 1 0 1     a3 1 2 0 0 =0 0 0 1 1

=⇒ 

2a1 + a2 a1 + 2a2

 1  a3  1  = 3(a1 + a2 ) = 0 0 

2a1 + a2 a1 + 2a2 a3 =⇒ L⊥ = h(1, −1, −1)i



 1  0  = 2a1 + a2 + a3 = 0 1

Ortogonalidad.

109

Teorema 4.5 Si dos subespacios H y H 0 de un espacio vectorial eucl´ıdeo (V, <, >) son ortogonales, entonces son disjuntos, es decir H ∩ H 0 = {0}.   z∈H 0 y Demostraci´ on. ∀ z ∈ H ∩ H ⇒  z ∈ H0 Como z ∈ H , z ∈ H 0 y H ⊥ H 0 ⇒< z, z >= 0 ⇒ z = 0. Esto prueba que H ∩ H 0 = {0}. Teorema 4.6 Sean H y H 0 dos subconjuntos ortogonales de un espacio vectorial eucl´ıdeo (V, <, >). Las variedades L(H) y L(H 0 ) son tambi´en ortogonales. Demostraci´ on.  n X    y ∈ L(H) ⇒ y = αi xi con xi ∈ H   i=1 Sean m X   0  βj x0j con x0j ∈ H 0   z ∈ L(H ) ⇒ z = j=1

< y, z >=<

n X

αi xi ,

i=1 0

m X j=1

xi , x0j

y como H ⊥ H ⇒< tanto, L(H) ⊥ L(H 0 ).

βj x0j

>=

n X m X

αi βj < xi , x0j >

i=1 j=1

>= 0, 1 ≤ i ≤ n, 1 ≤ j ≤ m ⇒< y, z >= 0 y por

Teorema 4.7 Sea H = {x1 , x2 , . . . , xn } un subconjunto ortogonal de un espacio vectorial eucl´ıdeo (V, <, >). Entonces, {x1 , x2 , . . . , xn } es un sistema libre. Es decir, son linealmente independientes. Demostraci´ on. Sea α1 x1 + · · · + αk xk + · · · + αn xn = 0. Tenemos que probar que α1 = · · · = αk = · · · = αn = 0 < α1 x1 + · · · + αk xk + · · · + αn xn , xk >=< 0, xk >= 0 ∀k = 1, 2, . . . , n ⇒ α1 < x1 , xk > + · · · + αk < xk , xk > + · · · + αn < xn , xk >= 0 Como H es ortogonal, < xi , xk >= 0 ∀ i 6= k ⇒ αk < xk , xk >= 0 y como < xk , xk >6= 0 ⇒ αk = 0 ∀ k = 1, 2, . . . , n. Consideremos un espacio vectorial eucl´ıdeo (V, <, >) y dos bases suyas B 1 = {ui }i=1, 2,..., n y B 2 = {vi }i=1, 2,..., n . Llamemos A1 y A2 a las matrices asociadas al producto escalar <, > respecto de las bases B 1 y B 2 y veamos

110

Ortogonalidad.

la relaci´on existente entre ellas. A1 = (< ui , uj >) = (aij )i,j=1...n

A2 = (< vh , vk >) = (a0hk )h,k=1...n

Como {vi } ⊂ V podemos expresarlos en funci´on de los ui . vh = cih ui

vk = cjk uj

a0hk =< vh , vk >=< cih ui , cjk uj >= cih cjk < ui , uj >= cih cjk aij   c11 · · · cn1   Si C =  ... . . . ...  ∈ Rn×n ⇒ A2 = C t A1 C c1n · · · cnn Las matrices asociadas a un producto escalar referidas a distintas bases son congruentes entre s´ı, es decir A2 = C t A1 C Si queremos que A2 = In = (< vi , vj >)i,j=1...n ⇐⇒

  < vi , vj >= 0 i 6= j 

< vi , vi >= 1

que equivale a que B 2 sea ortonormal. Si (V, <, >) es un espacio vectorial eucl´ıdeo y B = {u1 , u2 , . . . , un } es una base ortonormal de V < x, y >= xt Ay = xt In y = xt y ⇔< x, y >= x1 y1 + x2 y2 + · · · + xn yn As´ı pues, para que la matriz asociada a un producto escalar sea la identidad, es decir, podamos usar la expresi´on can´onica del producto escalar, ha de estar referida a una base ortonormal. Cabe preguntarse ahora si siempre ser´a posible encontrar una base ortonormal cualquiera que sea el producto escalar definido. Teorema 4.8 M´ etodo de ortogonalizaci´ on de Gram-Schmidt. Todo espacio vectorial eucl´ıdeo (V, <, >) admite una base ortonormal. En otras palabras, cualquier espacio vectorial eucl´ıdeo admite siempre una base respecto de la cual, la expresi´on del producto escalar es < x, y >= x1 y1 + x2 y2 + · · · + xn yn siendo xi , yi las coordenadas de x e y respectivamente, referidas a dicha base. Demostraci´ on. La demostraci´on del teorema es constructiva, es decir, veamos como a partir de una base B = {v1 , v2 , . . . , vn } cualquiera de V podemos construir otra base ortonormal B ∗ = {u1 , u2 , . . . , un }.

Ortogonalidad.

111

a) A partir de B vamos a construir primero otra base B 0 = {w1 , w2 , . . . , wn } ortogonal. Para ello tomemos w1 = v1 Consideremos w2 = v2 + α21 w1 con < w1 , w2 >= 0. ¿Existe w2 ? < w1 , w2 >=< w1 , v2 + α21 w1 >=< w1 , v2 > +α21 < w1 , w1 >= 0 ⇒ α21 = −

< w 1 , v2 > kw1 k2

ya que kw1 k = 6 0 por ser w1 = v1 6= 0. Tomando ahora w3 = v3 +α32 w2 +α31 w1 con < w1 , w3 >=< w2 , w3 >= 0, tenemos < w 2 , v3 > < w 1 , v3 > α32 = − α31 = − 2 kw2 k kw1 k2 Si hemos calculado, en general w1 , w2 , . . . , wk , hacemos entonces, wk+1 = vk+1 + αk+1 k wk + · · · + αk+1 2 w2 + αk+1 1 w1 con la condici´on < wk+1 , wi >= 0 ∀ i = 1, . . . , k, obteni´endose: αk+1 i = −

< wi , vk+1 > kwi k2

i = 1, 2, . . . , k

Se obtiene as´ı la base ortogonal B 0 {w1 , w2 , . . . , wn }. b) A partir de B 0 vamos a construir la base B ∗ = {u1 , u2 , . . . , un } ortonormal. wi Para ello, ui = lo que implica que kui k = 1 i = 1, 2, . . . , n y por kwi k tanto  < ui , uj >= 0 si i 6= j < ui , ui >= 1 por lo que B ∗ es una base ortonormal de V.

112

4.4

Ortogonalidad.

Ejercicios propuestos

Ejercicio 4.1 Se considera, en el espacio vectorial eucl´ıdeo R3 , la base B = {e1 , e2 , e3 } , tal que: e1 · e1 = 2 , e1 · e2 = 0 , e1 · e3 = 1 , e2 · e2 = 1 , e2 · e3 = −1 y e3 · e3 = 2 a) Hallar la matriz de dicho producto escalar respecto de la base B. b) A partir de B 0 = {(1, 1, 1), (0, 1, −1), (0, 2, 0)} de R3 hallar una base ortonormal. Ejercicio 4.2 Dado, en el espacio vectorial eucl´ıdeo R3 ,el producto  escalar 1 0 1 cuya matriz asociada con respecto a la base can´onica es  0 1 1 . Utili1 1 3 zando el m´etodo de Gram-Schmidt, obtener una base ortonormal asociada a la base {e1 + e2 , e2 , e1 + e3 }. Ejercicio 4.3 En el espacio vectorial eucl´ıdeo R4 , con el producto escalar x · y = x1 y1 + x2 y2 + x3 y3 + 2x4 y4 se considera el subespacio L engendrado por los vectores (1, 0, −1, 0)

y

(0, 2, 3, 1).

Determinar un subespacio suplementario y ortogonal de L. Ejercicio 4.4 Sea V un espacio vectorial eucl´ıdeo de dimensi´on tres y consideremos la base B = {u1 , u2 , u3 } en la que:  ku1 k = 1, ku2 k = 1, ku3 k2 = 5    u1 · u2 = 0    el vector 2u1 − u3 es ortogonal a los vectores u1 y u2 . Calcular: a) La matriz del producto escalar, respecto de la base B. b) Una base ortonormal de V , asociada a la base B.

Ejercicios propuestos

113

Ejercicio 4.5 Dado un producto escalar en R3 , cuya matriz asociada respecto de la base can´onica es:   3 1 −1  1 1 0  −1 0 1 a) Respecto a ese producto escalar, hallar la variedad lineal ortogonal a la generada por los vectores (1, 1, 0) y (0, 1, −1). b) Respecto a ese producto escalar, encontrar una base ortonormal de R3 . Ejercicio 4.6 Sea V el espacio vectorial de los polinomios de grado menor o igual que 2 y una base B = {e1 = x2 , e2 = x, e3 = 1}. Se considera el producto escalar definido por: 1 ei · ej = . Se pide: i+j+1 a) El ´angulo de los vectores 1 y x. b) Estudiar, para qu´e valores de a, son ortogonales x + a y x − a. c) Ortonormalizar la base B. Ejercicio 4.7 En el espacio vectorial eucl´ıdeo (R3 , ·), respecto de una base ortonormal, se consideran a = (1, 1, 1) y el subespacio H = {x ∈ R3 : 6x = 4y = 3z}. a) Obtener una base ortonormal de H ⊥ . b) Expresar a como x + y donde x ∈ H, y ∈ H ⊥ . Ejercicio 4.8 Dada la forma bilineal de R3 definida por x · y = x1 y1 + x1 y2 + x2 y1 + αx2 y2 − x2 y3 − x3 y2 + x3 y3 se pide: a) Calcular α para que sea un producto escalar. b) Para α = 3, hallar una base ortonormal de R3 . c) Para α = 3, L ≡ x1 − x2 = 0 y M ≡ x2 − x3 = 0, hallar una variedad lineal de dimensi´on 2 que contenga a L⊥ y a M ⊥ .

114

Ortogonalidad.

Ejercicio 4.9 Se considera el espacio vectorial eucl´ıdeo R3 con el producto escalar que respecto a la base can´onica tiene la matriz:   2 1 0  1 2 0  0 0 1 a) Calcular el valor de a para que los vectores (1, 2, a) y (a, −1, 1) sean ortogonales. b) Si L es la variedad lineal de ecuaciones −x1 + x2 + x3 = 0, hallar unas ecuaciones impl´ıcitas de L⊥ . c) Dado el vector v = (3, 1, −1), descomponerlo en suma de dos vectores, uno de L y otro de L⊥ . d) Obtener una base ortonormal de R3 , B = {u1 , u2 , u3 }, siendo u1 ∈ L⊥ . Ejercicio 4.10 Sea f : R3 → R3 la aplicaci´on lineal definida por: f (x1 , x2 , x3 ) = (x1 + x2 + x3 , x1 − x2 + x3 , x2 ) y sea L la variedad lineal  L≡

x1 + x2 = 0 x1 + x3 = 0

Si se define en R3 el producto escalar cuya matriz, respecto de la base can´onica es:   1 2 0  2 5 0  0 0 1 a) Descomponer el vector (3, 3, 3) en suma de uno de f (L) y otro de [f (L)]⊥ . b) Hallar una base de la variedad L⊥ + f (L). c) Hallar unas ecuaciones impl´ıcitas de L⊥ ∩ f (L). Ejercicio 4.11 Sea f una forma bilineal base can´onica, es  4 −2  −2 2 0 1 Se pide:

de R3 cuya matriz, respecto de la  0 1  α

Ejercicios propuestos

115

a) Calcular el valor de α para que f sea un producto escalar. b) Determinar α para que adem´as, los vectores u = (1, 1, 1) y v = (0, 3, −1) sean ortogonales. c) Para el valor de α calculado anteriormente, determinar la variedad ortogonal a la variedad lineal L definida por x − y − z = 0. d) A partir de las bases de L y L⊥ , obtener una base ortonormal de R3 . Ejercicio 4.12 En un espacio vectorial eucl´ıdeo V se considera una base B = {u1 , u2 , u3 } y se sabe que ui · uj =

1 ∀i, j ∈ {1, 2, 3} i+j−1

a) Dada la variedad lineal L : x + y = 0, encontrar L⊥ . b) Hallar una base ortonormal aplicando Gram-Schmidt a la base B. Ejercicio 4.13 En el espacio vectorial eucl´ıdeo R3 y respecto a una base ortonormal se consideran las variedades lineales:  x1 − x2 = 0 L1 : 2x2 − x3 = 0 L2 : {x1 + αx2 + βx3 = 0 a) Hallar α y β sabiendo que L1 es ortogonal a L2 . b) Obtener una base B1 de L1 , y otra B2 de L2 , tales que su uni´on B = B1 ∪ B2 sea una base ortonormal de R3 . Ejercicio 4.14 Sean las variedades lineales de R3 : L : x1 − x2 − x3 = 0 y L0 : {2x2 − 5x3 = 0; 2x1 + 4x3 = 0}. Sea b una forma bilineal de R3 cuya matriz respecto a la base can´onica tiene por filas (3,2,0), (2,2,0), (0,0,a). Se pide: a) Calcular a para que b sea un producto escalar. b) Hallar a para que las variedades L y L0 sean ortogonales. c) Base y ecuaciones impl´ıcitas de L⊥ .

116

Ortogonalidad.

d) A partir de las bases de L y L⊥ , obtener una base ortonormal de R3 . Ejercicio en R3 la forma bilineal sim´etrica definida por la  4.15 Se considera  1 1 0  matriz 1 2 −1 , respecto de la base can´onica. 0 −1 a a) ¿Para qu´e valores de a se trata de un producto escalar?  x1 = 0 b) Calcular a sabiendo que, adem´as, las variedades L ≡ y x2 = 0 L0 ≡ x2 − 2x3 = 0 son ortogonales. c) Obtener, para el valor de a obtenido en el apartado anterior, y a partir de L y L0 , una base ortonormal B de R3 .

5. Autovalores y autovectores Sea f ∈ End(V ) donde V es un espacio vectorial definido sobre un cuerpo K. • Se dice que λ ∈ K es un autovalor o valor propio del endomorfismo f si existe alg´ un vector no nulo x ∈ V tal que f (x) = λx. A dicho vector x no nulo se le denomina autovector o vector propio de f asociado al autovalor λ. An´alogamente, si A ∈ Rn×n es una matriz cuadrada cualquiera asociada a f ∈ End(V ), con dim(V ) = n, se define λ ∈ K como un autovalor de A si existe alg´ un vector no nulo x tal que Ax = λx, en cuyo caso diremos que x es un autovector de A asociado al autovalor λ. Teorema 5.1 Todas las matrices asociadas a un mismo endomorfismo tienen los mismos autovalores. Demostraci´ on. Sean A y A0 dos matrices asociadas a f ∈ End(V ) respecto a dos bases B y B 0 de V respectivamente. Sabemos que la relaci´on que existe entre A y A0 viene dada por A0 = P −1 AP donde P representa a la matriz no singular del cambio de base de B 0 a B. Si λ es un autovalor de A, existe un vector x ∈ V no nulo tal que Ax = λx. Como A = P A0 P −1 ⇒ λx = Ax = (P A0 P −1 )x = P A0 (P −1 x) ⇒ P −1 (λx) = A0 (P −1 x) ⇒ λ(P −1 x) = A0 (P −1 x) y llamando y = P −1 x tenemos que A0 y = λy. 117

118

Autovalores y autovectores

Al ser x 6= 0 ⇒ y = P −1 x 6= 0 y por tanto, λ es un autovalor de A0 . Rec´ıprocamente, si λ es un autovalor de A0 existe un vector x 6= 0 tal que A0 x = λx y por tanto, λx = A0 x = P −1 AP x ⇒ P λx = AP x ⇒ A(P x) = λ(P x) con P x 6= 0 por lo que λ es un autovalor de A. Teorema 5.2 Sea f ∈ End(V ) y sea A ∈ Rn×n una matriz asociada a f . Se verifican las siguientes propiedades: a) Si λ es un autovalor de A Vλ = {x ∈ V : Ax = λx} es un subespacio vectorial de V denominado subespacio propio de A asociado al autovalor λ. b) Si λ1 6= λ2 son autovalores de A, Vλ1 ∩ Vλ2 = {0}. c) Si λ1 , λ2 , . . . , λr son autovalores distintos de A y x1 , x2 , . . . , xr son autovectores de A asociados a λ1 , λ2 , . . . , λr respectivamente, dichos autovectores son linealmente independientes. Demostraci´ on. a) ∀ x, y ∈ Vλ y ∀ α, β ∈ K ⇒ A(αx + βy) = αAx + βAy = αλx + βλy = λ(αx + βy) ⇒ αx + βy ∈ Vλ ⇒ Vλ es un subespacio vectorial de V .   x ∈ Vλ1 ⇒ Ax = λ1 x b) x ∈ Vλ1 ∩ Vλ2 ⇒ y ⇒ λ1 x = λ2 x ⇒ (λ1 − λ2 )x = 0  x ∈ Vλ2 ⇒ Ax = λ2 x y al ser λ1 6= λ2 se tiene que x = 0 y por tanto, Vλ1 ∩ Vλ2 = {0}. c) Lo demostraremos por inducci´on en r. c.1) Si r = 1 s´olo tenemos x1 que por ser autovector asociado a λ1 es x1 6= 0 y por tanto, {x1 } es un sistema libre. c.2) Supongamos la propiedad cierta hasta r − 1 y prob´emosla para r. Es decir, supongamos que x1 , x2 , . . . , xr−1 son linealmente independientes y probemos que x1 , x2 , . . . , xr−1 , xr tambi´en lo son. De la combinaci´on lineal: α1 x1 + α2 x2 + · · · + αr−1 xr−1 + αr xr = 0

(5.1)

119 se tiene que A(α1 x1 + α2 x2 + · · · + αr−1 xr−1 + αr xr ) = 0 ⇒ α1 Ax1 + α2 Ax2 + · · · + αr−1 Axr−1 + αr Axr = 0 ⇒ α1 λ1 x1 + α2 λ2 x2 + · · · + αr−1 λr−1 xr−1 + αr λr xr = 0

(5.2)

Multiplicando (5.1) por λr obtenemos: α1 λr x1 + α2 λr x2 + · · · + αr−1 λr xr−1 + αr λr xr = 0

(5.3)

y restando la ecuaci´on (5.3) a la ecuaci´on (5.2) obtenemos α1 (λ1 − λr )x1 + α2 (λ2 − λr )x2 + · · · + αr−1 (λr−1 − λr )xr−1 = 0 Al ser, por hip´otesis de inducci´on, x1 x2 , . . . , xr−1 linealmente independientes, se tiene que

α1 (λ1 − λr ) = 0, α2 (λ2 − λr ), · · · , αr−1 (λr−1 − λr ) = 0 y como λi 6= λj si i 6= j ⇒ α1 = α2 = · · · = αr−1 = 0 que llevados a (5.1) nos reduce esta ecuaci´on a αr xr = 0 de la que al ser xr 6= 0 se deduce que αr = 0. Es decir, α1 x1 + α2 x2 + · · · + αr−1 xr−1 + αr xr = 0 ⇒ αi = 0 1 ≤ i ≤ r Por tanto, x1 , x2 , · · · , xr−1 , xr son linealmente independientes. Como consecuencia de las propiedades anteriores tenemos que si los autovalores λ1 , λ2 , . . . , λr son todos distintos, la suma Vλ1 + Vλ2 + · · · + Vλr es directa.

Propiedades de los autovalores a) λ es un autovalor de f si y s´olo si det(A −λI) = 0 donde A es una matriz cualquiera asociada a f . En efecto: λ autovalor de f ⇒ ∃ x ∈ V no nulo tal que f (x) = λx o bien, Ax = λx ⇒ (A − λI)x = 0 admite soluci´on x no trivial y por tanto, la matriz del sistema es singular, es decir, det(A − λI) = 0 Si det(A − λI) = 0 ⇒ (A − λI)x = 0 admite soluci´on x no trivial, por lo que (A − λI)x = 0 ⇒ λ es autovalor de A y por tanto, de f .

120

Autovalores y autovectores

b) λ = 0 es autovalor de f si y s´olo si f es no inyectivo. Basta con ver que si λ = 0 es un autovalor de f , existen vectores x ∈ V no nulos tales que f (x) = 0x = 0, por lo que Kerf 6= {0} y, por tanto, f es no inyectivo. Rec´ıprocamente, si f es no inyectivo Kerf 6= {0}, por lo que existen vectores x no nulos tales que f (x) = 0 = 0x, de donde se deduce que 0 es un autovalor de f . c) λ es autovalor de f si y s´olo si para cualquiera que sea k, autovalor de f − kI donde I : V → V es la identidad en V .

λ − k es

Puesto que si λ es un autovalor, no nulo, de f ⇒ ∃ x ∈ V tal que f (x) = λx ⇒ ∀ k ∈ K f (x) − kx = λx − kx ⇒ (f − kI)(x) = (λ − k)x ⇒ λ − k es autovalor de f − kI. Si ∀ k ∈ K λ − k es autovalor de f − kI, como 0 ∈ K ⇒ λ − 0 = λ es autovalor de f − 0I = f ⇒ λ es autovalor de f . d) λ es autovalor de f si y s´olo si f − λI es no inyectivo. Basta observar que si λ es un autovalor de f entonces 0 = λ − λ lo es de f − λI (tercera propiedad), por lo que f − λI es no inyectivo (segunda propiedad). Como consecuencia tenemos que: • V (λ) = Ker(f − λI) = Vλ • Las ecuaciones del subespacio propio V (λ) se obtienen del sistema homog´eneo (A − λI)x = 0 y por tanto, si n representa la dimensi´on del espacio V se tiene que dimVλ = n − rg(A − λI)

Polinomio caracter´ıstico.

5.1

121

Polinomio caracter´ıstico.

Se denomina polinomio caracter´ıstico de una matriz A ∈ Rn×n al polinomio de grado n que se obtiene desarrollando el determinante de la matriz λI − A. P (λ) = det(λI − A) (5.4) Teorema 5.3 Dos matrices semejantes tienen el mismo polinomio caracter´ıstico. Demostraci´ on. Si A y B son dos matrices semejantes, existe una matriz P no singular tal que B = P −1 AP y por tanto, λI − B = P −1 λP − P −1 AP = P −1 (λI − A)P por lo que det(λI − B) = det(P −1 (λI − A)P ) = detP −1 · det(λI − A) · detP = det(λI − A) por lo que ambas matrices tienen el mismo polinomio caracter´ıstico. An´alogamente, se denomina polinomio caracter´ıstico de un endomorfismo f de V al polinomio de grado n = dimV que se obtiene desarrollando el determinante de la matriz λI − A, donde A es la matriz asociada al endomorfismo f. Corolario 5.4 El polinomio caracter´ıstico de una transformaci´ on no depende de la matriz representaci´on que se tome. Demostraci´ on. Si A y B son dos matrices que representan al mismo endomorfismo f , sabemos que son semejantes y por el Teorema 5.3 tienen el mismo polinomio caracter´ıstico. Teorema 5.5 Los autovalores de un endomorfismo f (o de una matriz A) son las ra´ıces de su polinomio caracter´ıstico. Demostraci´ on. Si λ0 es un autovalor de f equivale a la existencia de vectores x ∈ V − {0} tales que f (x) = λ0 x es decir, Ax = λ0 x o lo que es lo mismo, (λ0 I − A)x = 0 que equivale a decir que (λ0 I − A)x = 0 posee soluci´on no trivial, es decir, det(λ0 I − A) = 0 que es lo mismo que asegurar que λ0 es una ra´ız de P (λ). Desde el punto de vista matricial, podemos asegurar que todas las matrices semejantes, al tener el mismo polinomio caracter´ıstico, tienen los mismos autovalores.

122

Autovalores y autovectores

5.1.1

Multiplicidad de un autovalor.

Se define multiplicidad de un autovalor λ0 de un endomorfismo f , como la multiplicidad de λ0 como ra´ız del polinomio caracter´ıstico de f . Es decir, como el n´ umero de veces que aparece el factor λ − λ0 en la factorizaci´on de P (λ). Teorema 5.6 Sea λ0 un autovalor del endomorfismo f de multiplicidad α, se verifica que: 1 ≤ dimVλ0 ≤ α

5.1.2

Propiedades.

• Si P (λ) = λn + a1 λn−1 + · · · + an−1 λ + an es el polinomio caracter´ıstico de una matriz A, se tiene que X ai = (−1)i Mi (A) donde Mi (A) representan a los menores principales de orden i de la matriz A.

• La suma de los autovalores coincide con la traza de la matriz,

n X

λi =

i=1

trA • El producto de los autovalores es igual al determinante de la matriz n Y λi = detA i=1



 1 0 2 Ejemplo 5.1 Si A =  2 −1 3 , podemos calcular el polinomio carac1 2 0 ter´ıstico de la siguiente forma: a1 = (−1)1 (1 − 1 + 0) = 0  0 1 2 2 1 a2 = (−1) + 2 −1 1 0 1 0 2 a3 = (−1)3 2 −1 3 = −4 1 2 0

−1 3 + 2 0

 = −1 − 2 − 6 = −9 

Diagonalizaci´on por semejanza

123

El polinomio caracter´ıstico de A es entonces P (λ) = λ3 − 9λ − 4

5.2

Diagonalizaci´ on por semejanza

• Una matriz A ∈ Rn×n se dice diagonalizable si es semejante a otra matriz diagonal D, es decir, si existe una matriz P ∈ Rn×n no singular tal que P −1 AP = D (5.5)   d1 0 · · · 0  0 d2 · · · 0    donde D es una matriz diagonal D =  .. .. . . .. . En este  . . . .  0 0 · · · dn caso se dice que D es una forma diagonal de A y que P es la matriz de paso. De la relaci´on (5.5) se tiene que AP = P D y si Pi representa la columna i-´esima de P tenemos APi = di Pi

i = 1, 2, . . . , n

por lo que los elementos di i = 1, 2, . . . , n de la diagonal de D son los autovalores de la matriz A. Por tanto, salvo reordenaci´on de los elementos diagonales, la matriz D est´a determinada.

5.2.1

Endomorfismos diagonalizables.

• Un endomorfismo f : V → V se dice diagonalizable si lo es cualquier matriz A representaci´on de f . Esta definici´on no tendr´ıa validez de no verificarse el siguiente teorema. Teorema 5.7 Si A es una representaci´ on diagonalizable de f entonces, cualquier matriz B representaci´ on de f es tambi´en diagonalizable.

124

Autovalores y autovectores

Demostraci´ on. Si A es diagonalizable existe una matriz P , no singular, que verifica la ecuaci´on (5.5). El ser A y B representaciones de f ⇒ A ≈ B es decir, existe una matriz Q no singular tal que A = Q−1 BQ y de ambas condiciones se tiene que D = P −1 AP = P −1 Q−1 BQP = (QP )−1 B(QP ) ⇒ B es diagonalizable. Obs´ervese que cuando una matriz A es considerada como una representaci´on de un endomorfismo f , no es v´alida su diagonalizaci´on mediante transformaciones elementales, ya que el sistema de vectores columnas que se obtiene no es equivalente al original, es decir, no genera el mismo espacio vectorial que el sistema original de vectores columnas. Podemos decir entonces que un endomorfismo f : V → V es diagonalizable cuando existe una base de V respecto a la cual la matriz asociada a f es diagonal. An´alogamente podemos decir que una matriz cuadrada A es diagonalizable si est´a asociada a un endomorfismo diagonalizable. Teorema 5.8 Sea A ∈ Rn×n una matriz con n autovectores linealmente independientes x1 , . . . , xn y sea S = (x1 · · · xn ) la matriz cuyas columnas son dichos autovectores. Entonces S −1 AS = D donde D es una matriz diagonal cuyos elementos diagonales son los autovalores de la matriz A. Demostraci´ on. AS = A(x1 x2 · · · xn ) = (Ax1 Ax2 · · · Axn ) = (λ1 x1 λ2 x2 · · · λn xn ) =   λ1 0 · · · 0  0 λ2 · · · 0    (x1 x2 · · · xn )  .. .. . . ..  = SD  . . .  . 0 0 · · · λn Como los vectores x1 , x2 , . . . , xn son linealmente independientes, S es no singular y por tanto invertible. Entonces, AS = SD ⇒ S −1 AS = D. Obs´ervese que si sustituimos xi por axi con a ∈ K, a 6= 0 sigue siendo libre el sistema {x1 , x2 , . . . , axi , . . . , xn } , por lo que S no es u ´nica. Como sabemos que a autovalores distintos corresponden autovectores linealmente independientes, podemos dar el siguiente corolario.

Diagonalizaci´on por semejanza

125

Corolario 5.9 Toda matriz cuadrada A ∈ Rn×n que posea n autovalores reales y distintos es diagonalizable. Como no todas las matrices poseen n autovectores linealmente independientes, no todas las matrices ser´an diagonalizables. 

 0 1 Ejemplo 5.2 Sea A = . Su polinomio caracter´ıstico es P (λ) = λ2 0 0 por lo que sus autovalores son λ1 = λ2 = 0  Los autovectores asociados a su u ´nico autovalor λ = 0 vienen determinados por Ax = 0x = 0 por tanto      0 1 x1 0 = ⇒ x2 = 0 ⇒ x = (x1 , 0) = x1 (1, 0) 0 0 x2 0 es decir, no posee dos autovectores linealmente independientes. Si A fuese diagonalizable su forma diagonal ser´ıa:   λ1 0 D= = 0 ⇒ P −1 AP = 0 ⇒ A = P 0P −1 = 0 0 λ2 y al ser A 6= 0 no puede ser diagonalizable. En este ejemplo vemos que A no posee n (en este caso 2) autovectores linealmente independientes y que A no es diagonalizable (con una matriz diagonal formada por sus autovalores) pero ¿podemos asegurar que si A no posee n autovectores linealmente independientes no es diagonalizable? La respuesta es s´ı pero para ello veamos algunos resultados previos. ´ n de las matrices diagonales] Una Teorema 5.10 [Caracterizacio n×n matriz D ∈ R es diagonal si y s´ olo si admite por autovectores a los vectores n ei de la base can´onica de R . Adem´ as, cada ei es autovector de D asociado al autovalor di (elemento i-´esimo de la diagonal). Demostraci´ on.    D= 

d1 0 0 d2 .. .. . . 0 0

··· ... .. .

0 0 .. .

· · · dn

    ⇒ Dei = di ei ⇒ 

di es autovalor de D y ei es un autovector asociado a di .

126

Autovalores y autovectores

Rec´ıprocamente, si e1 , e2 , . . . , en son autovectores de D asociados a los autovalores λ1 , λ2 , . . . , λn respectivamente, Dei = λi ei i = 1, 2, . . . , n. Ahora bien, Dei = i-´esima  λ1  0  D =  ..  . 0

columna de D y por tanto  0 ··· 0 λ2 . . . 0   .. . . ..  ⇒ D es diagonal. . .  . 0 · · · λn

Teorema 5.11 Toda matriz A ∈ Rn×n diagonalizable posee n autovalores, no necesariamente distintos. Demostraci´ on. Si A es diagonalizable existe una matriz P no singular tal que se verifica la ecuaci´on (5.5). Como A y D son semejantes, poseen los mismos autovalores y dado que D tiene n autovalores (di i = 1, 2, . . . , n), A tambi´en tiene n autovalores. Obs´ervese que si A ∈ Rn×n , como P (λ) es un polinomio de grado n con coeficientes reales, puede no tener n ra´ıces reales, es decir, puede tener ra´ıces complejas y por tanto existir´an matrices A ∈ Rn×n que no posean n autovalores reales. Nos encontramos ahora en condiciones de dar respuesta a la pregunta que nos plante´abamos anteriormente. ´ n de las matrices diagonalizables] Teorema 5.12 [Caracterizacio n×n Una matriz A ∈ R es diagonalizable si y s´ olo si existe una base de Rn constituida por autovectores de A, es decir, si A admite n autovectores linealmente independientes. La matriz de paso P tiene por columnas las coordenadas de dichos autovectores. Demostraci´ on. La condici´on suficiente qued´o probada en el Teorema 5.8. Veamos entonces que si A es diagonalizable posee n autovectores linealmente independientes. A diagonalizable ⇒ ∃ P no singular tal que P −1 AP = D con D diagonal. Al ser D diagonal, admite n autovalores (di i = 1, 2, . . . , n) y n autovectores linealmente independientes (ei i = 1, 2, . . . , n, vectores de la base can´onica de Rn ).

Diagonalizaci´on por semejanza

127

Por ser A y D semejantes poseen el mismo polinomio caracter´ıstico y por tanto, los mismos autovalores con las mismas multiplicidades. Dado que P es no singular rg(A − di I) = rg(P −1 (A − di I)P ) = rg(D − di I) y por tanto: dim VA (di ) = n − rg(A − di I) = n − rg(D − di I) = dim VD (di ) es decir, poseen tambi´en las mismas dimensiones. Como sabemos que a autovalores distintos corresponden autovectores linealmente independientes, tenemos que el n´ umero de autovectores linealmente independientes de una matriz viene dado por la suma de las dimensiones de los subespacios propios asociados a cada autovalor, es decir, por r X

dim VA (λi )

i=1

Al ser dim VA (di ) = dim VD (di ) para i = 1, 2, . . . , r con r = n´ umero de autovalores distintos, y dado que D es diagonal se tiene que r X

dim VD (di ) = n ⇒

i=1

r X

dim VA (di ) = n

i=1

es decir, A posee n autovectores linealmente independientes. Corolario 5.13 Una matriz A ∈ Rn×n es diagonalizable si y s´ olo si: a) Tiene todos sus autovalores reales b) Para cada autovalor λ de A la dimensi´ on del subespacio propio Vλ coincide con la multiplicidad (α) de λ, es decir: dimVλ = α

5.2.2

Diagonalizaci´ on de matrices sim´ etricas.

Hemos visto bajo qu´e condiciones es diagonalizable una matriz cuadrada. En esta secci´on veremos que si la matriz considerada es sim´etrica siempre es diagonalizable y adem´as la matriz de paso puede ser ortogonal. Teorema 5.14 Los autovalores de una matriz real y sim´etrica son todos reales.

128

Autovalores y autovectores

Demostraci´ on. Denotemos por: • A∗ como la matriz traspuesta conjugada de A, siendo el elemento a∗ij de A∗ el complejo conjugado del elemento aij de A. • v ∗ como el vector conjugado traspuesto de v. • λ como el conjugado de λ Por ser A real y sim´etrica, es A = A∗ . Si λ es un autovector de A y v 6= 0 un autovector de A asociado a λ se tiene que Av = λv. Entonces: v ∗ Av = v ∗ λv ⇒ (v ∗ Av)∗ = (v ∗ λv)∗ ⇒ v ∗ A∗ v = v ∗ λ∗ v ⇒ v ∗ Av = v ∗ λv ⇒ v ∗ λv = v ∗ Av = v ∗ λv ⇒ λv ∗ v = λv ∗ v ⇒ (λ − λ)v ∗ v = 0 Como v ∗ v 6= 0 ⇒ λ = λ ⇒ λ ∈ R. Teorema 5.15 Autovectores correspondientes a autovalores distintos de una matriz real y sim´etrica son ortogonales. Demostraci´ on. Sean v1 y v2 autovectores asociados a los autovalores λ1 y λ2 con λ1 6= λ2 . v2t Av1 = v2t λ1 v1

Av1 = λ1 v1 ⇒ Av2 = λ2 v2

v2t Av1 = λ1 v2t v1

(1)

v1t Av2 = λ2 v1t v2

(2)

⇒ v1t Av2 = v1t λ2 v2

Trasponiendo (1) tenemos v1t Av2 = λ1 v1t v2 ⇒ v1t Av2 = λ1 v1t v2 y rest´andola de (2) se obtiene: (λ2 − λ1 )v1t v2 = 0 Como λ1 6= λ2 ⇒ v1t v2 = 0 ⇒ v1 y v2 son ortogonales. Teorema 5.16 Toda matriz real y sim´etrica es diagonalizable con una matriz de paso ortogonal.

Diagonalizaci´on por semejanza

129

Es decir, toda matriz sim´etrica real A puede ser diagonalizada de la forma D = P t AP . Teniendo en cuenta que cuando la matriz es sim´etrica los subespacios propios, adem´as de ser disjuntos, son ortogonales dos a dos, para encontrar la matriz de paso P basta encontrar en cada subespacio propio V (λ) una base y ortonormalizarla. La uni´on de las bases as´ı buscadas es la base de Rn ortonormal de autovectores que nos definen P ,verific´andose adem´as que P −1 = P t , es decir, que P es ortogonal. Por tanto, D = P t AP .

5.2.3

Aplicaciones de la diagonalizaci´ on.

• Potencias. Si A es una matriz diagonalizable, existe otra matriz no singular P tal que P −1 AP = D ⇒ A = P DP −1 . Entonces: m

Am = (P DP −1 )m = P DP −1 · P DP −1 · · · P DP −1 = P Dm P −1 ⇒ Am = P Dm P −1 siendo m ∈ N • Inversa. A−1 = (P DP −1 )−1  d1 · · ·  .. . . Si D =  . . 0

= P D−1 P −1 .    0 1/d1 · · · 0 ..  ⇒ D−1 =  .. ..  ⇒ ..  . . .  .  0 · · · 1/dn · · · dn 

A−1

 1/d1 · · · 0  ..  P −1 ... = P  ... .  0 · · · 1/dn

Se define: A−n = (A−1 )n con n ∈ N

130

5.3

Autovalores y autovectores

Ejercicios propuestos

Ejercicio 5.1 Hallar el polinomio caracter´ıstico, los autovalores y autovectores de cada una de las matrices siguientes:     1 0 0 −1 1 2 A =  0 1 0  B =  −4 3 3  3 1 2 −3 1 4 Ejercicio 5.2 Probar que las matrices   1 0 0 1  y A =  0 −1 0 0 −1



 1 0 0 0  B =  0 −1 0 0 −1

no son semejantes, pero poseen los mismos autovalores. Ejercicio 5.3 Se conocen los tres vectores propios v1 = (0, 1, 1)

v2 = (1, −1, 0)

y

v3 = (1, 0, −1)

de una aplicaci´on lineal f : V → V . Determinar la matriz asociada a dicha aplicaci´on sabiendo que es una matriz 3 × 3 y que su primera columna es (1 2 3)t . Ejercicio 5.4 Sea f ∈ End(R3 ) el endomorfismo que admite los autovalores 1, 2 y -1 con los vectores propios correspondientes (1, 1, 1), (0, 1, 2) y (1, 2, 1) respectivamente. Obtener la matriz asociada a f , respecto de la base can´onica. Ejercicio 5.5 Estudiar si las matrices siguientes son diagonalizables. Si lo son, encontrar la forma diagonal y la matriz de paso:     2 0 −1 0 1 1 −1 1  4 −3  0 1 −3  0 −1 1     A= B =  6 −6  0 −1 3 −6  0 1  2 −2 1 −2 0 0 0 1 Ejercicio 5.6 Estudiar para qu´e valores de α y β, es diagonalizable la matriz   5 0 0 A= 0 1 α  3 0 β

Ejercicios propuestos

131

Ejercicio 5.7 Se considera el endomorfismo f de R3 que, respecto de la base can´onica, tiene por matriz:   3 2 0 A =  −1 0 0  0 0 3 a) Hallar los autovalores de f . b) Estudiar si f es diagonalizable y, en caso afirmativo, encontrar una base, respecto de la cual, la matriz de f sea diagonal. Ejercicio 5.8 ¿Bajo qu´e condiciones  1  a A=  b d

es diagonalizable la matriz  0 0 0 1 0 0  ? c 2 0  e f 2

Ejercicio 5.9 Encontrar la forma diagonal para la matriz sim´etrica:  2 1 1  1 2 1 A=  1 1 2 1 1 1

y una matriz de paso ortogonal  1 1   1  2

Ejercicio 5.10 Diagonalizar por semejanza, con matriz de paso ortogonal, las siguientes matrices:       4 0 4 6 0 1 1 α 1 −1  0 −1 0 0   C= 1 α 1  A= 1 0 1  B=  4 0 0 2  1 1 0 −1 1 α 6 0 2 5 Ejercicio 5.11 Estudiar, seg´ un los valores de α, si matrices:    1 −1 −2 − α 1+α    0 1 α α+2 A= B= 0 0 1 2

son diagonalizables las  −α α −α α − 1  −1 0

132

Autovalores y autovectores

Ejercicio 5.12 Determinar, seg´ un a, b ∈ R, los subespacios propios del en3 domorfismo f ∈ End(R ) que, respecto de la base can´onica, tiene asociada la matriz   a b 0 A =  0 −1 0  0 0 1 Anal´ıcese cu´ando es diagonalizable. Ejercicio 5.13 Sea f ∈ End(R4 ) definido por f (x, y, z, t) = (x, 2x, x, x + ay). Hallar a para que sea diagonalizable, obteniendo una base de R4 en la que la matriz asociada a f sea diagonal. Ejercicio 5.14 Sabiendo que f ∈ End(R3 ) es diagonalizable, que admite por vectores propios a (−1, 2, 2), (2, 2, −1) y (2, −1, 2) y que el vector (5, 2, 5) se transforma, mediante f en (0, 0, 7), hallar los autovalores de f y su ecuaci´on en la base can´onica. Ejercicio 5.15 Diagonalizar, ortogonalmente, las matrices sim´etricas:     3 −1 0 5 −10 8 3 0  2 2  A =  −1 B =  −10 0 0 2 8 2 11 

1  0 Ejercicio 5.16 Dada la matriz A =   0 0

 a 0 1 1 1 b  . Se pide: 0 −1 0  0 0 −1

a) Hallar sus autovalores y autovectores. b) Calcular a y b para que A sea diagonalizable, obteniendo su matriz diagonal y una matriz de paso. Ejercicio 5.17 Sea f ∈ End(R3 ) dado por: f (x, y, z) = (x+αy+(α−2)z, y+ z, αz) a) Hallar los valores de α para los que la matriz de f , respecto de la base can´onica, es diagonalizable, encontrando una matriz de paso. b) Para los valores de α anteriores:

Ejercicios propuestos

133

b.1) Estudiar si f es inyectiva o sobreyectiva. b.2) Dada L =< (1, 2, −1), (0, 3, 1) >, hallar L ∩ Ker(f ). b.3) Hallar L0 , suplementario de Img(f ). c) Dar un subespacio H de dimensi´on 2, tal que f (H) = H. Ejercicio 5.18 Sea f ∈ End(R4 ) cuya matriz y n´ ucleo son respecto a la base can´onica los siguientes:   5 a b c   d 0 3x − z + 3t = 0 0 0   Ker(f ) ≡ A=  e f 5z − 3t = 0 5 −3  4 0 −3 g Sabiendo que f admite por autovalor λ = 5, se pide: a) Determinar la matriz A. b) Calcular los autovalores y autovectores. c) Hallar la forma diagonal y una matriz de paso. Ejercicio 5.19 Sea f : R3 → R3 un endomorfismo tal que f (2, 3, 4) = (6, 3, 6), los vectores (1, 0, 0) y (0, 1, 1) son autovectores y la traza de la matriz asociada a f respecto de la base can´onica es 5. Se pide: a) Hallar la matriz asociada a f respecto de la base can´onica de R3 en los siguientes casos: a.1) Sabiendo que f no es diagonalizable. a.2) Sabiendo que el menor de sus autovalores es doble. b) En las condiciones del apartado a.2 hallar, si es posible, una base de R3 respecto de la cual, la matriz asociada a f sea diagonal. Ejercicio 5.20 Sean las variedades lineales de R4 : L : x1 + x3 = x2 + x4 = 0

y

Sea f un endomorfismo del que se sabe: a) f (1, 0, 0, 0) = (1, 1, 1, 1).

L0 =< (1, −1, 0, 0), (0, 0, 0, 1) >

134

Autovalores y autovectores

b) (0, 0, 0, 1) ∈ N (f ). c) f (L) ⊆ L0 . d) f (f (0, 1, 0, −1)) = (0, 2, 1, 1). e) rg(f ) = 2. Determinar f , sus autovalores y decidir si es, o no, diagonalizable. Ejercicio 5.21 Sea f el endomorfismo de R3 definido por: f (1, 0, 0) = (5, −4, 2)

f (1, 1, 0) = (1, 1, 4)

f (0, 0, 1) = (a, a, b)

Sabiendo que f posee un autovalor doble y que el otro autovalor es 0: a) Hallar la matriz asociada a f respecto a la base can´onica. b) Estudiar si f es diagonalizable y, en caso de serlo, hallar su forma diagonal y la matriz de paso. c) Hallar, si es posible, una base ortonormal de R3 respecto de la cual la matriz asociada a f sea diagonal. 

2α − β  1 Ejercicio 5.22 Dada la matriz A = −α + β

0 α 0

 2α − 2β  se pide: 2 −α + 2β

a) Estudiar, en funci´on de los par´ametros α y β, cu´ando es diagonalizable. b) En los casos en que sea diagonalizable, hallar una forma diagonal y su matriz de paso. c) Hallar A1994 para |α| = 1 y |β| = 1. ¿Depende este resultado de los valores que tomen α y β? Justifica la respuesta. Ejercicio 5.23 Sean las variedades lineales de R4 siguientes: F1 =< (−4, 0, 1, 1), (−5, 1, 1, 1), (1, −1, 0, 0) > L1 : x + y + z + t = 0 F2 =< (−3, 1, 1, 0), (−1, 1, 0, 0), (0, −2, 1, 0) > L2 = F1 + F2 L =< (0, 0, 1, 0), (0, 0, 0, 1) >  x−y+z =0 3 0 y la de R L = 2x − 2y − z = 0

Ejercicios propuestos

135

Sean f : R4 → R3 y g : R3 → R4 aplicaciones lineales que cumplen: g(1, −1, 1) = (−1, −1, −1, 3)

g(0, 1, −2) = (2, −1, 1, −1)

g(1, 1, 0) = (3, 0, 1, 1)

f (0, 1, 0, 0) = (0, 2, 1)

P 2 N (f ) = L1 ∩ L2 ; f (L) = L0 ; ij aij = 14; aij ≥ 0 ∀ i, j, siendo aij los elementos de la matriz asociada a f respecto de las bases can´onicas. a) Hallar las matrices asociadas a f y g respecto de las bases can´onicas. b) ¿Es diagonalizable la matriz que representa a f ◦ g respecto a la base can´onica? Razonar la respuesta. c) Determinar dos n´ umeros reales α, β y una base B de R4 de forma que la matriz de g ◦ f respecto de B sea diagonal con su diagonal igual a (0, 0, α, β). Ejercicio 5.24 Sea α ∈ R. Se considera la matriz   α 0 −1 a= 0 1 α  −1 0 0 a) Estudiar para qu´e valores de α es A una matriz diagonalizable. b) Para α = 0, diagonalizar A con una matriz de paso ortogonal. c) Para α = 0, ¿hay alg´ un n ∈ N tal que An sea la matriz unidad? Razonar la respuesta. 

 3 −1 0 Ejercicio 5.25 Sea la matriz  α 3 0 . Hallar 0 0 2 a) Los valores de α para los que los autovalores son reales. b) Los valores de α para que tenga autovalores dobles. c) Los valores de α para que la matriz sea diagonalizable. d) La forma diagonal y la matriz de paso para α = −4.

136

Autovalores y autovectores

Ejercicio 5.26 Sea f ∈ End(R3 ) y A la matriz asociada a f respecto de la base can´onica. Sabiendo que una base del n´ ucleo de la aplicaci´on lineal que tiene por matriz asociada, respecto de la base can´onica, A−I es {(1, 1, 0), (1, 0, 1)} y que el vector (0, 2, 1) se transforma en el (1, 1, 0), se pide: a) autovalores y subespacios propios de A, b) matriz diagonal asociada a A y su matriz de paso, c) ¿es inyectivo el endomorfismo f ? (justifica la respuesta) y d) subespacios propios de An . 

 1 β α+1 −1 α + 1  Ejercicio 5.27 Sea la matriz A =  0 β + 2 −β β − 1 a) Determinar los valores de α y β para que A sea diagonalizable y tenga el autovalor −1 doble. b) Hallar una forma diagonal dando la matriz de paso correspondiente. c) ¿Es posible encontrar una matriz de paso ortogonal? Razona la respuesta.

138

Autovalores y autovectores

Bibliograf´ıa ´ [1] J. de Burgos. Algebra Lineal. Ed. McGraw-Hill, Madrid, 1993. ´ [2] B. de Diego, E. Gordillo y G. Valeiras. Problemas de Algebra Lineal. Ed. Deimos, Madrid, 1986. ´ [3] F. Granero Rodr´ıguez. Algebra y Geometr´ıa Anal´ıtica. Ed. McGraw-Hill, Madrid, 1985. ´ [4] J. Heinhold y B. Riedmtller. Algebra Lineal y Geometr´ıa Anal´ıtica. 2 vul´ umenes. Ed. Revert´e, Barcalona, 1980. ´ [5] B. Noble y J. W. Daniel. Algebra Lineal Aplicada. Ed. Prentice-Hall, 1989. ´ [6] C. Pita Ruiz. Algebra Lineal. Ed. McGraw-Hill, Madrid, 1992. ´ [7] J. Rojo. Algebra Lineal. Ed. AC, 1986. ´ [8] G. Strang. Algebra Lineal y sus aplicaciones. Fondo Educativo Interamericano, M´exico, 1986. ´ [9] J. R. Torregrosa S´anchez y C. Jordan Lluch. Algebra Lineal y sus aplicaciones. Serie Schaum. Ed. McGraw-Hill, Madrid, 1987.

139

´Indice Pivote, 12

Adjunto de un elemento, 15 Algoritmo de Gauss-Jordan, 13

Sistema compatible, 26 determinado, 26 indeterminado, 26 incompatible, 26

Forma escalonada can´onica, 12 Gauss-Jordan algoritmo de, 13

Transformaciones elementales, 6 Traza, 6

Matrices equidimensionales, 1 iguales, 1 Matriz, 1 adjunta, 20 antisim´etrica, 5 columna, 2 cuadrada de orden n, 2 diagonal, 2 diagonal principal de una, 2 escalar, 2 escalonada, 10 fila, 1 invertible, 18 no singular, 5 ortogonal, 5 regular, 5 sim´etrica, 5 traspuesta, 5 triangular, 3 unidad, 2 Menor complementario, 15 140

Related Documents