Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Matriz invertible

elemento algebraico matricial con la propiedad de tener matriz inversa

En matemáticas, en particular en álgebra lineal, una matriz cuadrada de orden se dice que es invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden , llamada matriz inversa de y denotada por si , donde es la matriz identidad de orden y el producto utilizado es el producto de matrices usual.

Una interpretación espacial de una matriz invisible 3x3 es la de 3 planos secantes sólo en el origen. Las coordenadas de la matriz serían los coeficientes de las tres variables espaciales en una base dada.

Una matriz cuadrada no invertible se dice que es singular o degenerada. Una matriz es singular si y sólo si su determinante es nulo. La matriz singular se caracteriza porque su multiplicación por la matriz columna es igual a cero para algún no nulo. El conjunto de estos vectores (y al subespacio vectorial formado por ellos) se llamará ker (de kernel, núcleo en alemán), para una matriz invertible ker es el vector nulo.

La inversión de matrices es el proceso de encontrar la matriz inversa de una matriz dada.

Ejemplos

editar

Matriz de dos filas (matriz adjunta)

editar

Dada una matriz   de tamaño   con determinante no nulo entonces

 

y esta está definida siempre y cuando   con  . Así por ejemplo la inversa de la matriz

 

ya que

 

Matriz de tres filas

editar

Dada una matriz   de tamaño   con determinante no nulo:

 


donde se definen

 

Propiedades de la Matriz Inversa

editar

Sea   una matriz de rango máximo

  • La matriz inversa de   es única.
  • Si   y   entonces la matriz inversa del producto   es
 
  • Si la matriz   es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir
 
  • Y, evidentemente:
 
  • Una matriz con coeficientes en los reales es invertible si y sólo si el determinante de A es distinto de cero. Además la inversa satisface la igualdad:
 

donde   es el determinante de   y   es la matriz de adjuntos de  , entendida como a la matriz de cofactores traspuesta. (Ver la explicación de la diferente manera de entender el término adjunto[1][2][3][4][5]​ en el artículo matriz de adjuntos).

  • El conjunto de matrices de   con componentes sobre el cuerpo   que admiten inversa, con el producto de matrices, tiene una estructura isomorfa al grupo lineal   de orden  . En este grupo la operación de inversa es un automorfismo  .

Demostración de la unicidad de la inversa

editar

Supongamos que   y   son inversas de  

 

Multiplicando ambas relaciones por  

 

De modo que   y se prueba que la inversa es única.

Demostración del criterio de invertibilidad de las matrices cuadradas

editar

Se probará la doble implicación.

Suficiencia  

editar

Supongamos que existe   tal que  . Entonces al aplicar la función determinante se obtiene

 

Utilizando la propiedad multiplicativa del determinante y sabiendo que   tenemos que

 

por lo que deducimos que   es distinto de cero.

Necesidad  

editar

Supongamos que el determinante de   es distinto de cero. Sea   el elemento ij de la matriz   y sea   la matriz   sin la fila   y la columna   (comúnmente conocida como  -ésimo menor de A). Entonces tenemos que

 

Además, si  , entonces podemos deducir que

 

pues la parte izquierda de la relación es el determinante de   con la columna   sustituida por la columna   y, de nuevo por propiedades del determinante, sabemos que una matriz con dos filas iguales tiene determinante cero.

De las dos ecuaciones anteriores podemos obtener

 

donde   es la delta de Kronecker.

Por tanto, sabiendo que   tenemos que

 

es decir, que   tiene inversa por la izquierda

 

Como  , entonces   también tiene inversa por la izquierda que es

 

Entonces

 

luego, aplicando la transpuesta

 

que es lo que se quería demostrar.

Métodos de inversión de matrices

editar

Solución analítica

editar

Inversión de matrices 2×2

editar

Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de la siguiente manera:[6]

 

Esto es posible siempre y cuando  , es decir, el determinante de la matriz no es cero.


Ejemplo numérico:

 

Inversión de matrices de órdenes superiores

editar

Para matrices de órdenes superiores puede utilizarse la siguiente fórmula:

 

Donde   es el determinante de   y   es la matriz de adjuntos de  .

Cuando la matriz tiene más de tres filas, esta fórmula es muy ineficiente y conduce a largos cálculos. Hay métodos alternativos para calcular la matriz inversa que son bastante más eficientes.

Métodos numéricos

editar

El método de eliminación de Gauss-Jordan puede utilizarse para determinar si una determinada matriz es invertible y para encontrar su inversa. Una alternativa es la descomposición LU, que descompone una matriz dada como producto de dos matrices triangulares, una inferior y otra superior, mucho más fáciles de invertir. Utilizando el método de Gauss-Jordan se coloca a la izquierda la matriz dada y a la derecha la matriz identidad. Luego por medio del uso de pivotes se intenta formar en la izquierda la matriz identidad y la matriz que quede a la derecha será la matriz inversa a la dada.

Grupo lineal

editar

El conjunto de todas las matrices   que admiten inversa es una representación lineal del grupo lineal de orden n, denotado como  . Este grupo tiene importantes aplicaciones en álgebra y física. Además   es un conjunto abierto (con la topología inducida de  ).

Véase también

editar

Referencias

editar
  1. Apostol, Tom M. (2002). «3. Determinantes, 5. Autovalores de operadores en espacios euclídeos». Calculus vol. 2 (2ª edición). Barcelona: Reverté S.A. pp. 113,151. ISBN 84-291-5003-X. 
  2. Clapham, Christopher (2004). Diccionario de Matemáticas (1ª edición). Madrid: Editorial Complutense. pp. 3-4. ISBN 84-89784-56-6. 
  3. Castañeda Hernandez, Sebastián; Barrios Sarmiento, Agustín (2004). «3.6 Cofactores y Regla de Cramer». Notas de álgebra lineal (2ª edición). Barranquilla (colombia): Ediciones Uninorte. p. 193. ISBN 958-8133-89-0. 
  4. Díaz Martín, Jose Fernando (2005). «6. Determinantes». Introduccion Al Algebra (1ª edición). La coruña (España): NetBiblo. pp. 229-230,237-238. ISBN 84-9745-128-7. 
  5. Perelló, Miquel A. (2002). «4.3.3. Cálculo por determinantes de la matriz inversa». Álgebra lineal. Teoría y práctica. Barcelona: Edicions UPC. pp. 129,136. ISBN 8483016621. 
  6. Strang, Gilbert (2006). Linear Algebra and Its Applications. Thomson Brooks/Cole. pp. 46. ISBN 0-03-010567-6. 

Enlaces externos

editar