Matriz (matemática) De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En matemáticas, una matriz es una ordenación rectangular de números, o más generalmente, una tabla consistente en cantidades abstractas que pueden sumarse y multiplicarse.
Contenido [ocultar]
• • • • • • •
1 Definiciones y notaciones 2 Ejemplo 3 Suma de matrices o 3.1 Propiedades de la suma de matrices 4 Producto de una matriz por un escalar o 4.1 Propiedades del Producto Escalar 5 Producto de matrices 6 División de matrices 7 Inversa de una matriz 8 Clases de matrices 9 Las matrices en la Computación 10 Historia 11 Notas
•
12 Véase también
• • • •
Definiciones y notaciones [editar] Una matriz es una tabla o arreglo rectangular de numeros. Los numeros en el arreglo se denominan elementos de la matriz. Las líneas horizontales en una matriz se denominan filas y las líneas verticales se denominan columnas. A una matriz con m filas y n columnas se le denomina matriz mpor-n (escrito m×n), y m y n son sus dimensiones. Las dimensiones de una matriz siempre se dan con el número de filas primero y el número de columnas después. La entrada de una matriz A que se encuentra en la fila i-ésima y la columna j-ésima se le llama entrada i,j o entrada (i,j)-iésima de A. Esto se escribe como Ai,j o A[i,j]. Normalmente se escribe para definir una matriz A m × n con cada entrada en la matriz A[i,j] llamada aij para todo 1 ≤ i ≤ m y 1 ≤ j ≤ n. Sin embargo, la convención del inicio de los índices i y j en 1 no es universal: algunos lenguajes de programación comienzan en cero, en cuál caso se tiene 0 ≤ i ≤ m − 1 y 0 ≤ j ≤ n − 1.
Una matriz con una sola columna o una sola fila se denomina a menudo vector, y se interpreta como un elemento del espacio euclídeo. Una matriz 1 × n (una fila y n columnas) se denomina vector fila, y una matriz m × 1 (una columna y m filas) se denomina vector columna.
Ejemplo [editar] La matriz
es una matriz 4×3. El elemento A[2,3] o a2,3 es 7. La matriz
es una matriz 1×9, o un vector fila con 9 elementos.
Suma de matrices [editar] Dadas las matrices m-por-n A y B, su suma A + B es la matriz m-por-n calculada sumando los elementos correspondientes (i.e. (A + B)[i, j] = A[i, j] + B[i, j] ). Es decir, sumar cada uno de los elementos homólogos de las matrices a sumar. Por ejemplo:
Propiedades de la suma de matrices [editar] •
Asociativa
Dadas las matrices m×n A, B y C A + (B + C) = (A + B) + C •
Conmutativa
Dadas las matrices m×n A y B A+B=B+A
•
Existencia de matriz cero o matriz nula A+0=0+A=A
•
Existencia de matriz opuesta
con -A = [-aij] A + (-A) = 0
Producto de una matriz por un escalar [editar] Dada una matriz A y un número c, el producto escalar cA se calcula multiplicando el escalar c por cada elemento de A (i.e. (cA)[i, j] = cA[i, j] ). Por ejemplo:
Propiedades del Producto Escalar [editar] Sean A y B matrices y c y d escalares. • • • •
Clausura: Si A es matriz y c es escalar, entonces cA es matriz. Asociatividad: (cd)A = c(dA) Elemento Neutro: 1·A = A Distributividad: o De escalar: c(A+B) = cA+cB o De matriz: (c+d)A = cA+dA
Producto de matrices [editar] Artículo principal: Producto de matrices
El producto de dos matrices se puede definir sólo si el número de columnas de la matriz izquierda es el mismo que el número de filas de la matriz derecha. Si A es una matriz m×n y B es una matriz n×p, entonces su producto matricial AB es la matriz m×p (m filas, p columnas) dada por:
para cada par i y j. Por ejemplo:
El producto de dos matrices no es conmutativo, es decir, AB ≠ BA. La división entre matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra definida. Sin embargo, existe el concepto de matriz inversa, sólo aplicable a las matrices cuadradas.
División de matrices [editar] Es el producto del numerador multiplicado por la matriz inversa del denominador, es decir A / B = A * B^-1
Inversa de una matriz [editar] La inversa de una matriz es 1 dividido por el determinante de dicha matriz, mutiplicado por sus adjuntos transpuestos. Por tanto no siempre existe, y para que así sea su determinante tendrá que ser distinto de cero.
Clases de matrices [editar] Algunas matrices presentan características particulares en la posición o en la naturaleza de sus elementos. Muchas de ellas son tan importantes en la teoría y en las aplicaciones, que han recibido denominaciones específicas. • • • • • • • • • • • • • • • • • • • • •
Matriz antisimétrica Matriz banda Matriz cuadrada Matriz de adjuntos Matrices elementales Matriz definida positivamente Matriz diagonal Matriz de diagonal estrictamente dominante Matriz hermítica Matriz idempotente Matriz identidad Matriz inversa Matriz invertible Matriz involutiva Matriz jacobiana Matriz nilpotente Matriz no singular Matriz normal Matriz nula Matriz ortogonal Matriz permutación
• • • •
Matriz simétrica Matriz singular Matriz traspuesta Matriz triangular (superior o inferior)
Las matrices en la Computación [editar] Las matrices son utilizadas ampliamente en la computación, por su facilidad y liviandad para manipular información. En este contexto, son la mejor forma para representar grafos, y son muy utilizadas en el cálculo numérico.
Historia [editar] El origen de las matrices es muy antiguo. Un cuadrado mágico, 3 por 3, se registra en la literatura china hacia el 650 a. C.1 Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un importante texto matemático chino que proviene del año 300 a. C. a 200 a. C., Nueve capítulos sobre el Arte de las matemáticas (Jiu Zhang Suan Shu), es el primer ejemplo conocido de uso del método de matrices para resolver un sistema de ecuaciones simultáneas.2 En el capítulo séptimo, "Ni mucho ni poco", el concepto de determinante apareció por primera vez, dos mil años antes de su publicación por el matemático japonés Seki Kowa en 1683 y el matemático alemán Gottfried Leibniz en 1693. Los "cuadrados mágicos" eran conocidos por los matemáticos árabes, posiblemente desde comienzos del siglo VII, quienes a su vez pudieron tomarlos de los matemáticos y astrónomos de la India, junto con otros aspectos de las matemáticas combinatorias. Todo esto sugiere que la idea provino de China. Los primeros "cuadrados mágicos" de orden 5 y 6 aparecieron en Bagdad en el 983, en la Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan al-Safa).1 Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz, a finales del siglo XVII, Cramer presentó en 1750 la ahora denominada regla de Cramer. Carl Friedrich Gauss y Wilhelm Jordan desarrollaron la eliminación de Gauss-Jordan en el siglo XIX. El término "matriz" fue acuñado en 1848, por J. J. Sylvester. En 1853, Hamilton hizo algunos aportes a la teoría de matrices. Cayley introdujo en 1858 la notación matricial, como forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas. Grassmann, Frobenius y von Neumann están entre los matemáticos famosos que trabajaron sobre la teoría de matrices. Olga Taussky-Todd (1906-1995), durante la II Guerra Mundial, usó la teoría de matrices para investigar el fenómeno de aeroelasticidad llamado fluttering.
Matriz antisimétrica De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda Una matriz de nxm elementos:
es antisimétrica (o hemisimétrica), si es una matriz cuadrada (m = n) y aji = − aij para todo i,j =1,2,3,...,n. En consecuencia, aii = 0 para todo i. Por lo tanto, la matriz A asume la forma:
Nótese que la matriz traspuesta de la matriz antisimetrica A es -A, y que la antisimetría es respecto a la diagonal principal. Obtenido de "http://es.wikipedia.org/wiki/Matriz_antisim%C3%A9trica"
Matriz banda De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En matemáticas una matriz se le llama Matriz Banda cuando es una matriz donde los valores no nulos son confinados en un entorno de la diagonal principal, formando una banda de valores no nulos que completan la diagonal principal de la matriz y más diagonales en cada uno de sus costados. Escrito formalmente, una matriz n×n A=(ai,j ) es una matriz banda si todos sus elementos son cero fuera de una zona diagonal cuyo rango se determina por las constantes k1 y k2:
Los valores k1 y k2 son el semiancho de banda izquierdo y derecho respectivamente. El ancho de banda de una matriz es k1 + k2 + 1, y se puede definir como el número menor de diagonales adyacentes con valores no nulos. Una matriz banda con k1 = k2 = 0 es una matriz diagonal Una matriz banda con k1 = k2 = 1 es una matriz tridiagonal; cuando k1 = k2 = 2 se tiene una matriz pentadiagonal y así sucesivamente. Una matriz banda con k1 = k2 = p, dependiendo del número p, se le puede llamar matriz p-banda, formalmente se puede definir como
Un matriz con k1 = 0, k2 = n−1, se obtiene la definición de una matriz triangular inferior. De forma similar, para k1 = n−1, k2 = 0 , se obtiene la definición de una matriz triangular superior.
Matriz cuadrada De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda Una matriz de nxm elementos:
es una matriz cuadrada si el número de filas es igual al número columnas. Es decir, n = m. Se dice, entonces que la matriz es de orden n. Toda matriz cuadrada se puede descomponer en la suma de una matriz simétrica y una matriz antisimétrica.
Si A y B son matrices del mismo orden, entonces se pueden sumar entre sí. Los productos de matrices son válidos en ambos sentidos, AB y BA. Además, surgen los conceptos de determinante y traza solo aplicables a matrices cuadradas. Una matriz cuadrada A de orden n es singular si su determinante es nulo. En tal caso se dice que dicha matriz no tiene inversa. Ejemplo de matriz cuadrada para n = 3:
Las matrices cuadradas son las más utilizadas en álgebra. Obtenido de "http://es.wikipedia.org/wiki/Matriz_cuadrada"
Adjunta de una matriz (matriz de adjuntos) De Wikipedia, la enciclopedia libre (Redirigido desde Matriz de adjuntos) Saltar a navegación, búsqueda Dada una matriz cuadrada A, su matriz adjunta o adj(A) es la resultante de sustituir cada término de A por sus adjuntos respectivos. El adjunto de un término ai j de la matriz A resulta del determinante de la submatriz que se obtiene de eliminar de la matriz A, la fila y la columna a la que pertenece el término ai j, multiplicado por (-1)(i+j)
Ejemplos [editar] Un ejemplo sería el siguiente:
En general: dada la matriz
su adjunto es
La matriz de adjuntos suele emplearse para calcular la matriz inversa de una matriz dada. Sin embargo, para matrices de dimensiones grandes, este tipo de cálculo resulta más costoso, en términos de operaciones, que otros métodos como el método de eliminación de Gauss.
Matrices elementales De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda Las matrices elementales son aquellas que se obtienen a partir de una operación elemental de matrices sobre la matriz identidad. Estas son: 1. Escalamiento: multiplicar una fila por un número. 2. Eliminación: sumar a una fila una combinación lineal de las restantes. 3. Permutación: intercambiar dos filas. Las matrices tienen esta forma (en el caso 3X3): Obtenidas por escalamiento
Obtenidas por eliminación
Análogamente, el número a puede estar encima de la diagonal. Obtenidas por permutación Véase: matriz permutación
Propiedades [editar] Si multiplicamos alguna de estas matrices por una matriz A, será como aplicar las operaciones elementales de matrices. Es fácil ver que estas matrices tienen inversas, ya que pensando en ellas como matrices A se debe aplicar la operación "inversa". Por ejemplo, teniendo:
Queremos que el elemento a33 sea 1. Entonces:
Obtenido de "http://es.wikipedia.org/wiki/Matrices_elementales"
Matriz definida positiva De Wikipedia, la enciclopedia libre (Redirigido desde Matriz definida positivamente) Saltar a navegación, búsqueda En el álgebra lineal, una matriz definida positiva es una matriz hermitiana que es análoga a los números reales positivos.
Contenido [ocultar] • • •
1 Definiciones equivalentes 2 Propiedades 3 Matrices definidas negativas, semidefinidas positivas e indefinidas
•
4 Caso no hermitiano
Definiciones equivalentes [editar] Sea M una matriz hermitiana cuadrada n × n. De ahora en adelante notaremos la transpuesta de una matriz o vector a como aT, y el conjugado transpuesto, a * . Esta matriz M se dice definida positiva si cumple con una (y por lo tanto, las demás) de las siguientes formulaciones equivalentes: 1 Para todos los vectores no nulos . .
tenemos que
Nótese que z * Mz es siempre real. 2 Todos los autovalores λi de M son positivos. (Recordamos que los autovalores de una . matriz hermitiana o en su defecto, simétrica, son reales.) 3 La función . define un producto interno . 4 Todos los menores principales de M son positivos. O lo que es equivalente; todas las . siguientes matrices tienen determinantes positivo. • • • •
la superior izquierda de M de dimensión 1x1 la superior izquierda de M de dimensión 2x2 la superior izquierda de M de dimensión 3x3 ...
•
M en sí misma
Análogamente, si M es una matriz real simétrica, se reemplaza conjugada transpuesta por la transpuesta.
por
, y la
Propiedades [editar] •
Toda matriz definida positiva es inversible (su determinante es positivo), y su inversa es definida positiva.
•
Si M es una matriz definida positiva y r > 0 es un número real, entonces rM es definida positiva.
•
Si M y N son matrices definidas positivas, entonces la suma M + N, el producto MNM y NMN son definidas positivas, además si
MN = NM, entonces MN es también definida positiva. •
Toda matriz definida positiva M, tiene al menos una matriz raíz cuadrada N tal que N2 = M.
Matrices definidas negativas, semidefinidas positivas e indefinidas [editar] La matriz hermitiana M se dice: - definida negativa si
para todos los vectores
(ó
- semidefinida positiva si
para todo
(ó
)
- semidefinida negativa si
para todo
(ó
)
) no nulos
Una matriz hermitiana se dice indefinida si no entra en ninguna de las clasificaciones anteriores.
Caso no hermitiano [editar] Una matriz real M puede tener la propiedad xTMx > 0 para todo vector real no nulo sin ser simétrica. La matriz
es un ejemplo. En general, tendremos xTMx > 0 para todo vector real no nulo x si y sólo si la matriz simétrica (M + MT) / 2, es definida positiva. Obtenido de "http://es.wikipedia.org/wiki/Matriz_definida_positiva"
Matriz diagonal De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En álgebra lineal, una matriz diagonal es una matriz cuadrada en que las entradas son todas nulas salvo en la diagonal principal, y éstas pueden ser nulas o no. Así, la matriz D = (di,j) es diagonal si:
Ejemplo:
Toda matriz diagonal es también una matriz simétrica, triangular (superior e inferior) y (si las entradas provienen del cuerpo R o C) normal. Otro ejemplo de matriz diagonal es la matriz identidad.
Operaciones matriciales [editar] Las operaciones de suma y producto de matrices son especialmente sencillas para matrices diagonales. Vamos a emplear aquí la notación de diag(a1,...,an) para una matriz diagonal que tiene las entradas a1,...,an en la diagonal principal, empezando en la esquina superior izquierda. Entonces, para la suma se tiene: diag(a1,...,an) + diag(b1,...,bn) = diag(a1+b1,...,an+bn) y para el producto de matrices, diag(a1,...,an) · diag(b1,...,bn) = diag(a1b1,...,anbn). La matriz diagonal diag(a1,...,an) es invertible si y sólo si las entradas a1,...,an son todas distintas de 0. En este caso, se tiene diag(a1,...,an)-1 = diag(a1-1,...,an-1). En particular, las matrices diagonales forman un subanillo del anillo de las matrices de n×n. Multiplicar la matriz A por la izquierda con diag(a1,...,an) equivale a multiplicar la fila iésima de A por ai para todo i. Multiplicar la matriz A por la derecha con diag(a1,...,an) equivale a multiplicar la columna i-ésima de A por ai para todo i.
Autovalores, autovectores y determinante [editar] • • •
Los autovalores de diag(a1,...,an) son a1,...,an. Los vectores e1,...,en forman una base de autovectores. El determinante de diag(a1,...,an) es igual al producto a1...an.
Usos [editar] Las matrices diagonales tienen lugar en muchas áreas del álgebra lineal. Debido a la sencillez de las operaciones con matrices diagonales y el cálculo de su determinante y de sus valores y vectores propios, siempre es deseable representar una matriz dada o transformación lineal como una matriz diagonal.
De hecho, una matriz dada de n×n es similar a una matriz diagonal si y sólo si tiene n autovectores linealmente independientes. Tales matrices se dicen diagonalizables. En el cuerpo de los números reales o complejos existen más propiedades: toda matriz normal es similar a una matriz diagonal (véase teorema espectral) y toda matriz es equivalente a una matriz diagonal con entradas no negativas.
Matriz de diagonal estrictamente dominante De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En matemáticas, y concretamente en álgebra lineal, una matriz es de diagonal estrictamente dominante, cuando lo es por filas o por columnas. •
•
Lo es por filas cuando, para todas las filas, el valor absoluto del elemento de la diagonal de esa fila es estrictamente mayor que la suma de los valores absolutos del resto de elementos de esa fila. Lo es por columnas cuando, para todas las columnas, el valor absoluto del elemento de la diagonal de esa columna es estrictamente mayor que la suma de los valores absolutos del resto de elementos de esa columna.
Estas matrices también se denominan "matrices de Hadamard". Una matriz de Hadamard siempre es regular, es decir, su determinante es no nulo. Las submatrices fundamentales de una matriz de Hadamard también son de Hadamard y siempre admiten factorización LU. Formalmente, se dice que la matriz A de n x n es estrictamente diagonal dominante cuando se satisface:
El contenido de esta página es un esbozo sobre matemática. Ampliándolo ayudarás a mejorar Wikipedia. Puedes ayudarte con las wikipedias en otras lenguas.
Podemos enunciar a partir de esta definicion el siguiente teorema de convergencia aplicable a los procesos iterativos de Jacobi y Gauss Seidel: Teorema:definimos a como una matriz cuadrada.Si A esdiagonal dominante,los metodos iterativos de JAcobi y Gauss-Seidel convergen a la solucion del sistema de ecuaciones Ax=b.
Obtenido de "http://es.wikipedia.org/wiki/Matriz_de_diagonal_estrictamente_dominante" Categorías: Wikipedia:Esbozo matemática | Matrices | Álgebra lineal numérica
Matriz hermitiana De Wikipedia, la enciclopedia libre (Redirigido desde Matriz hermítica) Saltar a navegación, búsqueda Una matriz hermitiana (o hermítica) es una matriz cuadrada de elementos complejos que tiene la característica de ser igual a su propia traspuesta conjugada. Es decir, el elemento en la i-ésima fila y j-ésima columna es igual al conjugado del elemento en la jésima fila e i-ésima columna, para todos los índices i y j:
o, escrita con la traspuesta conjugada A*:
Por ejemplo,
es una matriz hermítica.
Propiedades [editar] 1. Sea A = B + iC, donde A es hermitiana y B y C reales, entonces B es simétrica (B = Bt) y C antisimétrica (C = − Ct). 2. La inversa de una matriz hermitiana es también hermitiana. 3. En una matriz hermitiana, los elementos de la diagonal principal son reales. 4. La determinante de una matriz hermitiana es un número real. Pero la propiedad más importante de toda matriz hermitiana es que todos sus autovalores son reales.
Matriz idempotente De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda Una matriz idempotente es una matriz la cual es igual a su cuadrado, es decir: A es idempotente si A x A = A
Por ejemplo, la siguiente matriz es idempotente:
O sea: la matriz elevada al cuadrado va a ser la misma matriz sin elevarla. Este artículo es un miniesbozo sobre matemática en el que falta información esencial. Ampliándolo ayudarás a mejorar Wikipedia. Puedes ayudarte con las wikipedias en otras
lenguas.
Nota: su determinante va a valer 1 o 0 Obtenido de "http://es.wikipedia.org/wiki/Matriz_idempotente"
Matriz identidad De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En álgebra lineal, la matriz identidad es una matriz que cumple la propiedad de ser el elemento neutro del producto de matrices. Esto quiere decir que el producto de cualquier matriz por la matriz identidad (donde dicho producto esté definido) no tiene ningún efecto. La columna i-ésima de una matriz identidad es el vector unitario ei de una base vectorial inmersa en un espacio Euclídeo de dimensión n. Como el producto de matrices sólo tiene sentido si sus dimensiones son compatibles, existen infinitas matrices identidad dependiendo de las dimensiones. In, la matriz identidad de tamaño n, se define como la matriz diagonal que tiene 1 en cada una de las entradas de la diagonal principal, y 0 en el resto. Así,
Empleando la notación que a veces se usa para describir concisamente las matrices diagonales, resulta: In = diag(1,1,...,1) Si el tamaño es inmaterial, o se puede deducir de forma trivial por el contexto, entonces se escribe simplemente como I. También se puede escribir usando la notación delta de Kronecker:
Iij = δij o, de forma aún más sencilla, I = (δij) La matriz identidad de orden n puede ser también considerada como la matriz permutación que es elemento neutro del grupo de matrices de permutación de orden n!. Obtenido de "http://es.wikipedia.org/wiki/Matriz_identidad"
Matriz invertible De Wikipedia, la enciclopedia libre (Redirigido desde Matriz inversa) Saltar a navegación, búsqueda En matemáticas, y especialmente en álgebra lineal, una matriz A de dimensiones n×n se dice que es invertible, inversible, inversa o no singular o regular si existe una matriz B de dimensiones n×n tal que AB = BA = In, donde In denota la matriz identidad de orden n (dimensiones n×n) y el producto utilizado es el producto de matrices usual. Una matriz no invertible se dice que es una matriz singular. La inversa de la matriz A es única. Esto se denota por A-1.
Contenido [ocultar] • • •
1 Prueba de que la inversa es única 2 Propiedades de la matriz inversa 3 Teorema sobre la inversibilidad de las matrices cuadradas o 3.1 Demostración 3.1.1 Necesidad 3.1.2 Suficiencia
•
4 Inversion de matrices 2×2
Prueba de que la inversa es única [editar] Supongamos que B y C son inversas de A
AB = BA = I AC = CA = I Multiplicando por C (BA)C = IC = C (BA)C = B(AC) = BI = B De modo que B=C y se prueba que la inversa es única. La matriz inversa de A se denota por A − 1 y satisface la igualdad:
Esta viene dada por:
donde • •
= determinante de A = matriz de adjuntos de A se multiplica en inversas
Propiedades de la matriz inversa [editar] La inversa del productos de dos matrices es el producto de las inversas cambiando el orden:
Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir:
Y, evidentemente:
Teorema sobre la inversibilidad de las matrices cuadradas [editar]
Si A es una matriz de orden n, entonces existe B tal que AB = BA = I si y sólo si el determinante de A es distinto de cero.
Demostración [editar] Se probará por doble implicación.
Necesidad
[editar]
Suponiendo que existe B tal que AB = BA = I. Entonces al aplicar la función determinante se obtiene
usando la propiedad det(I) = 1
Por lo tanto, det(A) es distinto de cero.
Suficiencia
[editar]
Suponiendo que el determinate de A es distinto de cero, sea aij es el elemento ij de la matriz A y sea Aij la matriz A sin la fila i y la columna j (comúnmente conocida como jésimo menor de A). Entonces
Sea
, entonces
Esta afirmación es válida propiedades de los determinantes, pues la parte izquierda de la relación nos conduce a una matriz con la columna j igual a la columna k y los demás términos iguales a los de A. Entonces
donde δjk = 1 cuando j = k y δjk = 0 cuando
. Entonces
Es decir que A tiene inversa izquierda
Como
, entonces At también tiene inversa izquierda que es
Entonces
luego, aplicando la transpuesta
Que es lo que se quería demostrar
Inversion de matrices 2×2 [editar] Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de la siguiente manera: 1
Esto es posible porque 1/(ad-bc) es el determinante reciproco de la matriz en cuestion. Obtenido de "http://es.wikipedia.org/wiki/Matriz_invertible"
Matriz invertible De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En matemáticas, y especialmente en álgebra lineal, una matriz A de dimensiones n×n se dice que es invertible, inversible, inversa o no singular o regular si existe una matriz B de dimensiones n×n tal que
AB = BA = In, donde In denota la matriz identidad de orden n (dimensiones n×n) y el producto utilizado es el producto de matrices usual. Una matriz no invertible se dice que es una matriz singular. La inversa de la matriz A es única. Esto se denota por A-1.
Contenido [ocultar] • • •
1 Prueba de que la inversa es única 2 Propiedades de la matriz inversa 3 Teorema sobre la inversibilidad de las matrices cuadradas o 3.1 Demostración 3.1.1 Necesidad 3.1.2 Suficiencia
•
4 Inversion de matrices 2×2
Prueba de que la inversa es única [editar] Supongamos que B y C son inversas de A AB = BA = I AC = CA = I Multiplicando por C (BA)C = IC = C (BA)C = B(AC) = BI = B De modo que B=C y se prueba que la inversa es única. La matriz inversa de A se denota por A − 1 y satisface la igualdad:
Esta viene dada por:
donde
•
= determinante de A
•
= matriz de adjuntos de A se multiplica en inversas
Propiedades de la matriz inversa [editar] La inversa del productos de dos matrices es el producto de las inversas cambiando el orden:
Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir:
Y, evidentemente:
Teorema sobre la inversibilidad de las matrices cuadradas [editar] Si A es una matriz de orden n, entonces existe B tal que AB = BA = I si y sólo si el determinante de A es distinto de cero.
Demostración [editar] Se probará por doble implicación.
Necesidad
[editar]
Suponiendo que existe B tal que AB = BA = I. Entonces al aplicar la función determinante se obtiene
usando la propiedad det(I) = 1
Por lo tanto, det(A) es distinto de cero.
Suficiencia
[editar]
Suponiendo que el determinate de A es distinto de cero, sea aij es el elemento ij de la matriz A y sea Aij la matriz A sin la fila i y la columna j (comúnmente conocida como jésimo menor de A). Entonces
Sea
, entonces
Esta afirmación es válida propiedades de los determinantes, pues la parte izquierda de la relación nos conduce a una matriz con la columna j igual a la columna k y los demás términos iguales a los de A. Entonces
donde δjk = 1 cuando j = k y δjk = 0 cuando
. Entonces
Es decir que A tiene inversa izquierda
Como
Entonces
luego, aplicando la transpuesta
, entonces At también tiene inversa izquierda que es
Que es lo que se quería demostrar
Inversion de matrices 2×2 [editar] Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de la siguiente manera: 1
Esto es posible porque 1/(ad-bc) es el determinante reciproco de la matriz en cuestion. Obtenido de "http://es.wikipedia.org/wiki/Matriz_invertible"
Matriz involutiva De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda Una matriz involutiva es una matriz cuadrada (tiene igual número de filas que de columnas) tal que su cuadrado es igual a la matriz unidad, es decir: A es involutiva si A x A = I Por ejemplo, la siguiente matriz es involutiva:
Obtenido de "http://es.wikipedia.org/wiki/Matriz_involutiva"
Jacobiano De Wikipedia, la enciclopedia libre (Redirigido desde Matriz jacobiana) Saltar a navegación, búsqueda En cálculo vectorial, el jacobiano es una abreviación de la matriz jacobiana y su determinante, el determinante Jacobiano. Son llamados así en honor al matemático Carl Gustav Jacobi.
En geometría algebraica, el jacobiano de una curva hace referencia a la variedad jacobiana, un grupo y variedad algebraica asociada a la curva, donde la curva puede ser embebida.
Contenido [ocultar] •
•
•
1 Matriz Jacobiana o 1.1 Ejemplo o 1.2 Matriz Jacobiana de un campo vectorial 2 Determinante Jacobiano o 2.1 Ejemplo 3 Véase también
Matriz Jacobiana [editar] La matriz Jacobiana es una matriz formada por las derivadas parciales de primer orden de una función. Una de las aplicaciones más interesantes de esta matriz es la posibilidad de aproximar linealmente a la función en un punto. En este sentido, el Jacobiano representa la derivada de una función multivariable. Supongamos F : Rn → Rm es una función que va del espacio euclidiano n-dimensional a otro espacio euclideano m-dimensional. Esta función está determinada por m funciones reales: y1(x1,...,xn), ..., ym(x1,...,xn). Las derivadas parciales de estas (si existen) pueden ser organizadas en una matriz m por n, la matriz Jacobiana de F:
Esta matriz es notada por
o como
La i-ésima fila está dada por el gradiente de la función yi, para i=1,...,m.
Si p es un punto de Rn y F es diferenciable en p, entonces su derivada está dada por JF(p). En este caso, la aplicación lineal descrita por JF(p) es la mejor aproximación lineal de F cerca del punto p, de esta manera:
para x cerca de p.
Ejemplo [editar] El Jacobiano de la función F : R3 → R3 definida como:
es:
No siempre un Jacobiano es cuadrado.
Matriz Jacobiana de un campo vectorial [editar] En cálculo vectorial, la matriz Jacobiana para un campo vectorial es la matriz de orden mxn que tiene como elementos a las derivadas parciales (si existen) de la función. Por ejemplo, se desea obtener la 'Matriz Jacobiana' de la diferencial punto .
de una función
Usando:
de Rn a Rm en el
en la fórmula: .
Dividiendo por l, y haciendo tender l a 0, se obtiene:
Este es el vector que va en la primera columna de la matriz buscada. Por analogía para , se consiguen las demás columnas. De este modo, la matriz Jacobiana de en el punto
es:
Esta matriz se denota también por:
o
Determinante Jacobiano [editar] Si m = n, entonces F es una función que va de un espacio n-dimensional a otro. En este caso la matriz Jacobiana es cuadrada y podemos calcular su determinante, conocido como el determinante Jacobiano. El determinante Jacobiano en un punto dado nos da información importante sobre el comportamiento de F cerca de ese punto. Para empezar, una función F es invertible cerca de p si el determinante Jacobiano en p es no nulo. Más aún, el valor absoluto del determinate en p nos da el factor con el cual F expande o contrae su volumen cerca de p.
Ejemplo [editar] El determinante Jacobiano de la función F : R3 → R3 definida como:
es:
La función es localmente invertible excepto donde x1=0 ó x2=0. Si imaginamos un objeto pequeño centrado en el punto (1,1,1) y le aplicamos F, tendremos un objeto de aproximadamente 40 veces más volumen que el original.
Matriz nilpotente De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda Una matriz
se dice nilpotente si existe
tal que Nk = 0.
Si A es una matriz nilpotente entonces |A|=0.
Demostración [editar] Si A es una matriz nilpotente de orden k, A^k=0. Por tanto |A^k|=0, luego |A|^k=0, y en consecuencia |A|=0.
Matriz invertible De Wikipedia, la enciclopedia libre (Redirigido desde Matriz no singular) Saltar a navegación, búsqueda En matemáticas, y especialmente en álgebra lineal, una matriz A de dimensiones n×n se dice que es invertible, inversible, inversa o no singular o regular si existe una matriz B de dimensiones n×n tal que AB = BA = In, donde In denota la matriz identidad de orden n (dimensiones n×n) y el producto utilizado es el producto de matrices usual. Una matriz no invertible se dice que es una matriz singular. La inversa de la matriz A es única. Esto se denota por A-1.
Contenido [ocultar] • • •
1 Prueba de que la inversa es única 2 Propiedades de la matriz inversa 3 Teorema sobre la inversibilidad de las matrices cuadradas o 3.1 Demostración 3.1.1 Necesidad
•
3.1.2 Suficiencia
4 Inversion de matrices 2×2
Prueba de que la inversa es única [editar] Supongamos que B y C son inversas de A AB = BA = I AC = CA = I Multiplicando por C (BA)C = IC = C (BA)C = B(AC) = BI = B De modo que B=C y se prueba que la inversa es única. La matriz inversa de A se denota por A − 1 y satisface la igualdad:
Esta viene dada por:
donde • •
= determinante de A = matriz de adjuntos de A se multiplica en inversas
Propiedades de la matriz inversa [editar] La inversa del productos de dos matrices es el producto de las inversas cambiando el orden:
Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir:
Y, evidentemente:
Teorema sobre la inversibilidad de las matrices cuadradas [editar] Si A es una matriz de orden n, entonces existe B tal que AB = BA = I si y sólo si el determinante de A es distinto de cero.
Demostración [editar] Se probará por doble implicación.
Necesidad
[editar]
Suponiendo que existe B tal que AB = BA = I. Entonces al aplicar la función determinante se obtiene
usando la propiedad det(I) = 1
Por lo tanto, det(A) es distinto de cero.
Suficiencia
[editar]
Suponiendo que el determinate de A es distinto de cero, sea aij es el elemento ij de la matriz A y sea Aij la matriz A sin la fila i y la columna j (comúnmente conocida como jésimo menor de A). Entonces
Sea
, entonces
Esta afirmación es válida propiedades de los determinantes, pues la parte izquierda de la relación nos conduce a una matriz con la columna j igual a la columna k y los demás términos iguales a los de A. Entonces
donde δjk = 1 cuando j = k y δjk = 0 cuando
. Entonces
Es decir que A tiene inversa izquierda
Como
, entonces At también tiene inversa izquierda que es
Entonces
luego, aplicando la transpuesta
Que es lo que se quería demostrar
Inversion de matrices 2×2 [editar] Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de la siguiente manera: 1
Esto es posible porque 1/(ad-bc) es el determinante reciproco de la matriz en cuestion. Obtenido de "http://es.wikipedia.org/wiki/Matriz_invertible"
Matriz normal De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda Uno o más wikipedistas están trabajando actualmente en extender este artículo. Es posible que, a causa de ello, haya lagunas de contenido o deficiencias de formato. Por favor, antes de realizar correcciones mayores o reescrituras, contacta con ellos en su página de usuario o en la página de discusión del artículo para poder coordinar la redacción.
Sea A matriz compleja cuadrada, entonces es una matriz normal si y sólo si A * A = AA * donde A* es el conjugado transpuesto de A (también llamado hermitiano)
Ejemplos [editar] Esta matriz de orden 2 es normal.
debido a que ..
Propiedades [editar] Una importante propiedad de este tipo de matrices es que son diagonalizables. Demostración: Sea A matriz compleja cuadrada normal. Entonces puede expresarse, utilizando la descomposición de Schur, de esta manera: A = QUQ * Demostraremos que la matriz U es diagonal, por ahora solo sabemos que es triangular superior. Formalmente, definimos estas condiciones con números, ya que serán usadas en la demostración:
•
ak1 = 0
(1)
• •
ak2 = 0 ... akn − 1 = 0
(2)
•
(n-1)
Usando el hecho que A es normal: A * A = (QUQ * ) * (QUQ * ) = QU * (Q * Q)(a)UQ * = QU * UQ * Idénticamente. (QUQ * )(QUQ * ) * = QUU * Q * Postmultiplicando por Q y luego premultiplicando por Q * obtenemos: U * U = UU * Lo cual da lugar a estas dos multiplicaciones matriciales:
Para nuestros propósitos, nos interesan los elementos de las diagonales.
Ahora utilizamos un procedimiento inductivo para probar que esta matriz producto es diagonal (sus elementos son ceros fuera de la diagonal principal) •
Caso i=1: (U * U)11 = (UU * )11
Separamos el elemento diagonal de las sumatorias.
Usando (1)
Por lo tanto, a1j = 0 Obtenido de "http://es.wikipedia.org/wiki/Matriz_normal"
Matriz cero De Wikipedia, la enciclopedia libre (Redirigido desde Matriz nula) Saltar a navegación, búsqueda Una matriz de nxm elementos: No se pudo entender (No se puede escribir o crear el directorio de salida de <em>math): A = \begin{pmatrix} a_{11} & a_{12} & a_{13} & . & . & .& a_{1m}\\ a_{21} & a_{22} & a_{23} & . & . & .& a_{2m}\\ a_{31} &
a_{32} & a_{33} & . & . & .& a_{3m}\\ . & . & . & . & . & .& .\\ . & . & . & . & . & .& .\\ . & . & . & . & . & .& .\\ a_{n1} & a_{n2} & a_{n3} & . & . & .& a_{nm}\\ \end{pmatrix}
es una matriz cero si No se pudo entender (No se puede escribir o crear el directorio de salida de <em>math): a_{ji} = 0 para todo i=1,2,3,...,n y j=1,2,3,...m. Por lo tanto, la matriz A asume la forma:
No se pudo entender (No se puede escribir o crear el directorio de salida de <em>math): A = \begin{pmatrix} 0 & 0 & 0 & . & . & .& 0\\ 0 & 0 & 0 & . & . & .& 0\\ 0 & 0 & 0 & . & . & .& 0\\ . & . & . & . & . & .& .\\ . & . & . & . & . & .& .\\ . & . & . & . & . & .& .\\ 0 & 0 & 0 & . & . & .& 0\\ \end{pmatrix} Esta matriz también se le suele llamar matriz nula y se denota por 0. Una matriz cero es, al mismo tiempo, matriz simétrica, matriz antisimétrica, matriz nilpotente y matriz singular.
Matriz ortogonal De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda Las matrices ortogonales, representan transformaciones en espacios vectoriales reales1 llamadas justamente, transformaciones ortogonales. Estas transformaciones son isomorfimos internos del espacio vectorial en cuestión. Suelen representar rotaciones y son usadas extensivamente en computación gráfica. Por sus propiedades también son usadas para el estudio de ciertos fibrados y en física se las usa en la formulación de ciertas teorías de campos.
Contenido [ocultar] • • • •
1 Definición o 1.1 Ejemplos 2 Caracterización 3 Propiedades 4 Notas
•
5 Véase también
Definición [editar] Sea n un número entero y sea A una matriz cuadrada n por n, con entradas reales. Se dice que la matriz es ortogonal si:
donde
representa la matriz transpuesta de
e representa la matriz identidad.
Ejemplos [editar] Supongamos que la matriz de números reales
es ortogonal y su determinante es +1. Su traspuesta es igual a su inversa
de modo que d = a y c = − b y la matriz M es de la forma
Finalmente,
Así que los números a y b satisfacen además la propiedad que la suma de sus cuadrados vale 1. Por lo tanto, existe un número real θ para el cual
Concluimos que: toda matriz ortogonal de SO(2) puede escribirse como
con θ real.
Caracterización [editar] Sea A una matriz ortogonal n por n. Sean , , los n vectores fila de la matriz. En término de estos vectores, es muy fácil expresar los elementos de la matriz que resulta de muliplicar A por su transpuesta:
De modo que los vectores fila de una matriz ortogonal forman un conjunto de n vectores ortonormales. Puesto que la ecuación
también se verifica, tenemos que los vectores columna de la matriz A también forman un conjunto ortonormal de vectores. Como el recíproco de todo esto también es cierto, tenemos Una matriz real A es ortogonal si y sólo si sus vectores filas o vectores columna son cada uno un conjunto ortonormal de vectores. Es en este sentido que se dice que se ha hecho una caracterización de las matrices ortogonales. Dada una matriz, basta verificar esta propiedad entre sus vectores fila y columna para determinar si dicha matriz es o no ortogonal.
Propiedades [editar] • •
De la definición, es inmediato que la si una matriz es ortogonal, la matriz es no singular o inversible y su transpuesta coincide con su inversa El determinante de una matriz ortogonal A es +1 ó -1. En efecto, de las propiedades del determinante tenemos
y por tanto,
•
El conjunto de matrices nxn ortogonales, junto con la operación de producto de matrices es un grupo llamado grupo ortogonal O(n). Supongamos que A y B son matrices ortogonales y sea C igual al producto de A por B. Usando las propiedades del producto de matrices, tenemos
y así, el producto de matrices ortogonales es una matriz ortogonal.
•
En teoría de grupos, al grupo de matrices ortogonales n por n con coeficientes en el cuerpo se denomina grupo ortogonal de dimensión n y se representa con . En particular el subgrupo formado por las matrices ortogonales de determinante +1, se llama grupo especial ortogonal y se le representa con . Entre las matrices ortogonales se encuentran las matrices de rotación y las de permutación. Cuando el cuerpo es el de los reales entonces se escribe simplemente y .
Notas [editar] 1. ↑ Se sobreentiende que al espacio vectorial real, se le ha dotado de un producto interno
Matriz permutación De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda La matriz permutación es la matriz cuadrada con todos sus n×n elementos iguales a 0, excepto uno cualquiera por cada fila y columna, el cual debe ser igual a 1. De acuerdo a esta definición existen n! matrices de permutación distintas, de las cuales una mitad corresponde a matrices de permutación par (con el determinante igual a 1) y la otra mitad a matrices de permutación impar (con el determinante igual a -1). Para n = 3 se tiene: Matrices de permutación par:
Matrices de permutación impar:
Puede notarse que las matrices de permutación conforman un grupo de orden n! respecto al producto.
Propiedades [editar]
• • • • • • • •
El elemento neutro del grupo es la matriz identidad. El elemento inverso de cada elemento del grupo de matrices de permutación es la matriz traspuesta correspondiente. Cada elemento del grupo de matrices de permutación es una matriz ortogonal. El producto de matrices de permutación par siempre genera una matriz de permutación par. El producto de matrices de permutación impar siempre genera una matriz de permutación par. El producto de matrices de permutación de paridad distinta siempre genera una matriz de permutación impar. Observe que las matrices de permutación par conforman un semigrupo y que además el grupo de matrices de permutación no es conmutativo. Cada elemento del grupo de matrices de permutación fuera del semigrupo es una matriz simétrica.
Matriz simétrica De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda Una matriz de
elementos:
es simétrica, si es una matriz cuadrada (m = n) y aij = aji para todo i, j =1,2,3,4,...,n. Nótese que la simetría es respecto a la diagonal principal y que A es también, la matriz traspuesta de sí misma; Por ejemplo: At = A. Ejemplo, para n = 3:
Propiedades [editar] Uno de los teoremas básicos que concierne este tipo de matrices es el teorema espectral de dimensión finita, que dice que toda matriz simétrica cuyas entradas sean reales puede
ser diagonalizada por una matriz ortogonal. Éste es un caso especial de una matriz hermítica.
Autovalores [editar] Como las matrices simétricas son un caso particular de las matrices hermíticas, todos sus autovalores son reales. Con base en las propiedades de los autovalores de una matriz simétrica, se pueden clasificar en los siguientes tipos: • • • •
definida positiva: Una matriz simétrica es definida positiva si y solo si todos sus autovalores son estrictamente positivos. definida negativa: Una matriz simétrica es definida negativa si y solo si todos sus autovalores son estrictamente negativos. semidefinida positiva: Una matriz simétrica es semidefinida positiva si y solo si todos sus autovalores son mayores o iguales a cero. semidefinida negativa: Una matriz simétrica es semidefinida negativa si y solo si todos sus autovalores son menores o iguales a cero.
Obtenido de "http://es.wikipedia.org/wiki/Matriz_sim%C3%A9trica"
Matriz singular De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda Una matriz cuadrada A de orden n es singular si su determinante es nulo. Algunos autores llaman a estas matrices degeneradas. En tal caso se dice que dicha matriz no tiene inversa. Son equivalentes las siguientes afirmaciones: • • •
A es no invertible. AX=0 tiene infinitas soluciones. El determinante de A es nulo [det(A)=0], esto es, A es singular.
Una matriz no singular es llamada comunmente Invertible
Matriz transpuesta De Wikipedia, la enciclopedia libre (Redirigido desde Matriz traspuesta) Saltar a navegación, búsqueda
Sea A una matriz con m filas y n columnas. La matriz transpuesta, denotada con At está dada por
Contenido [ocultar] • • •
1 Ejemplos 2 Propiedades 3 Definiciones asociadas o
3.1 Véase también
Ejemplos [editar]
Propiedades [editar] Para toda matriz A Sean A y B matrices con elementos pertenecen a un anillo
y sea
Si el producto de las matrices A y B está definido, Si A es una matriz cuadrada cuyas entradas son números reales, entonces es semidefinida positiva
Definiciones asociadas [editar] Una matriz cuadrada A es simétrica si coincide con su transpuesta, esto es si
Es antisimétrica si coincide con su negativa
Si los elementos de la matriz A son números complejos y su transpuesta coincide con su conjugada, se dice que la matriz es hermítica
y antihermítica si
Vale la pena observar que si una matriz es hermítica (la matrices simétricas son un caso particular) entonces es diagonalizable y sus autovalores son reales. (El recíproco es falso).
Matriz triangular De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda Una matriz de nxm elementos:
es triangular superior, si es una matriz cuadrada y aij = 0 para todo i>j (i,j =1,2,3,...,n). Es decir,
En caso contrario, si aij = 0 para todo i<j (i,j =1,2,3,...,n), entonces A es matriz triangular inferior que tiene la forma:
Por ejemplo, para n = 3:
es triangular superior y
es triangular inferior. Se suelen emplear las letras U y L, respectivamente, ya que U es la inicial de "upper triangular matrix" y L de "lower triangular matrix", los nombres que reciben estas matrices están en inglés. En general, se pueden realizar las operaciones en estas matrices en la mitad de tiempo. El determinante de una matriz triangular es el producto de los elementos de la diagonal principal. Obtenido de "http://es.wikipedia.org/wiki/Matriz_triangular"
Vector (programación) De Wikipedia, la enciclopedia libre (Redirigido desde Matriz (programación)) Saltar a navegación, búsqueda
Arreglo unidimensional con 10 elementos
En programación, un vector, array, arreglo o alineación es un conjunto o agrupación de variables del mismo tipo cuyo acceso se realiza por índices. Los vectores o arreglos (array en inglés) de dos o más dimensiones se denominan con frecuencia matrices, y pueden tener tantas dimensiones como se desee; aunque lo correcto es llamarlo arreglo (de memoria) ya que una variable de más de dos dimensiones, no cumple con las características matemáticas de una matriz numérica. Desde el punto de vista del programa, un arreglo (matriz, array ó vector) es una zona de almacenamiento contiguo, que contiene una serie de elementos del mismo tipo, los elementos de la matriz. Desde el punto de vista lógico podemos considerarlas como un conjunto de elementos ordenados en fila. Así pues, en principio todas las matrices son de una dimensión, la dimensión principal, pero veremos que los elementos de esta fila pueden ser a su vez arreglos (un proceso que puede ser recursivo), lo que nos permite hablar de la existencia de arreglos multidimensionales, aunque las más fáciles de "ver" o imaginar son las de dos y tres dimensiones. Puede afirmarse que las matrices son un recurso de programación simple y socorrido; en realidad pueden considerarse como las "estructuras" de datos más simples que cabe imaginar (todos los elementos del mismo tipo). Presentan la ventaja de que sus elementos son rápidamente accesibles, en especial si utiliza punteros en vez de subíndices, pero presentan una notable limitación: son de tamaño fijo; es preciso definir su tamaño desde el principio y no pueden ser fácilmente incrementadas o disminuidas sino mediante complejos procesos de copia. Estas estructuras de datos son adecuadas para situaciones en las que el acceso a los datos se realice de forma aleatoria e impredecible. Por el contrario, si los elementos pueden estar ordenados y se va a utilizar acceso secuencial sería más adecuado utilizar una lista.
Contenido [ocultar] • • • • •
1 Índices 2 Notación 3 Forma de Acceso 4 Vectores dinámicos 5 Vectores multidimensionales
•
6 Véase también
Índices [editar] Todo vector se compone de un determinado número de elementos. Cada elemento es referenciado por la posición que ocupa dentro del vector. Dichas posiciones son llamadas índice y siempre son correlativos.
Matemáticamente todo elemento inicial de un vector comienza por '0' hasta el número de elementos - 1. Este sistema es conocido como ZeroIndex. Sin embargo algunos lenguajes, adoptaron como elemento inicial el '1' por ser más intuitivo a los usuarios a que iba dirigido el lenguaje. Particularmente el Basic (hasta la versión VB 6.0) permitía especificar cualquier cifra como inicial, incluso negativas, los únicos límites eran el rango de tipo de datos y que debía ser inferior o igual al elemento final, en tales casos el número de elementos era la diferencia entre ambos límites. Lenguajes como Python llevan al extremo las utilización de índices y permiten el uso de números negativos para referenciar el vector desde el final hacia la posición inicial. Por ejemplo, el índice -1 corresponde al último elemento y el -2 corresponde al penúltimo.
Notación [editar] La representación de un elemento en un vector se suele hacer mediante el identificador del vector seguido del índice entre corchetes, paréntesis o llaves: Notación
Ejemplos
vector[índice,índice 2...,índice N] (C, C++, Java, Lexico, etc.) vector(índice,índice 2...,índice N) (Basic)
Aunque muchas veces en pseudocódigos y en libros de matemática se representan como letras acompañadas de un subíndice numérico que indica la posición a la que se quiere acceder. Por ejemplo: a0,a1,a2,... vector unidimensional
vector{índice,índice 2...,índice N} (Perl)
Forma de Acceso [editar] La forma de acceder a los elementos del array es directa, al contrario de las listas. Esto significa que el elemento deseado es obtenido a partir de su índice y no hay que ir buscándolo elemento por elemento. En el caso de una lista, por ejemplo, para llegar al tercer elemento hay que acceder a los dos anteriores o almacenar un apuntador o puntero que permita acceder de manera rápida a ese elemento. Para trabajar con vectores muchas veces es preciso recorrerlos. Esto se realiza por medio de ciclos de repetición. El algoritmo clásico para recorrer un vector se refleja en el siguiente pseudocódigo: i = 0 mientras (i < longitud) #Se realiza alguna operación con el vector en la i-ésima posición f(v[i]) i=i+1 fin_mientras
Vectores dinámicos [editar]
Dependiendo del tipo de vector y del lenguaje de programación que se utilice, este vector puede tener una cantidad fija o variable de datos. En el segundo caso, se los denomina vectores dinámicos. Los vectores dinámicos sacan su espacio del denominado heap del programa. Un uso incorrecto de los vectores dinámicos puede conducir a una fuga de memoria, por eso, se aconseja siempre en estos lenguajes liberar la memoria utilizada. Lenguajes más modernos y de más alto nivel, cuentan con un mecanismo denominado recolector de basura (como es el caso de Java) que permiten que el programa decida si debe liberar el espacio basándose en si se va a utilizar en el futuro o no un determinado objeto. Ejemplos: •
Declaración en C (o C++) de un vector estático:
int v[5]; for (int i=0; i<5; i++) { v[i]=2*i; }
El resultado de los dos ejemplos es el mismo vector:
0 0 •
1 2
2 4
3 6
4 8
Declaración en C++ de un ( vector de la STL o vector dinámico):
vector v; for (int i=0; i<5; i++) { v.push_back(2*i); } // se supone implementada la clase genérica "vector<Tipo>"
En el caso del lenguaje C, la forma de crear vectores estáticos es igual que en c++, pero para vectores dinámicos se utilizan la instrucciones malloc y realloc, acompañadas por free (para liberar la memoria utilizada). En lenguajes compilados y en la mayoría de máquinas virtuales, la representación de arreglos suele ser en una dimensión, es decir: un conjunto consecutivo de celdas de memoria (como si fueran un gran vector). El compilador (o traductor a byte-code) realizará las conversiones pertinentes para transformar un acceso a una matriz en un acceso a un vector.
Vectores multidimensionales [editar] En Basic, Java y otros lenguajes es posible declarar matrices muldimensionales, entendiéndolas como un vector de vectores. En dichos casos en número de elementos del vector es el producto resultante de cada dimensión.
Por ejemplo el vector v(4,1) tiene 10 elementos se calcula del siguiente modo: (0-4) * (0-1). Los elementos de la primera dimensión del vector contiene 5 elementos que van del '0' al '4' y la 2º dimensión tiene 2 elementos que van desde '0' a '1'. Los elementos serían accedidos del siguiente modo: elemento 1: (0,0) elemento 2: (0,1) elemento 3: (1,0) ... elemento 8: (3,1) elemento 9: (4,0) elemento 10: (4,1)