Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Tema 16. Sistemas de Ecuaciones

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 10

3

Prólogo
Tiene delante el lector el decimosexto cuadernillo de la serie ”Oposiciones Matemáticas”,
concretamente el de discusión y resolución de sistemas de ecuaciones lineales, teorema de
Rouché, regla de Cramer y método de Gauss-Jordan.

Como ya expuse en prólogos anteriores, para poder enfrentarse con cierta solvencia al
examen de oposición de Matemáticas, la construcción de cada tema debe contener y di-
ferenciar tres partes: una presentación, un nudo y un desenlace. Parecen las mismas tres
partes que encontramos en una película o un libro, sí, lo son, pero es que cuando contamos
algo necesitamos que ”ese algo” tenga entidad por sí solo. Pensemos que un tribunal no es
más que nuestro público, y si queremos aprobar tenemos que ”entretenerlos”. ¿Qué mejor
forma de gustarles que contarles un cuento?

De las tres partes, la primera la utilizaremos para presentar el tema, justificar todo el
contenido que vamos a exponer y encuadrarlo dentro de la Historia y dentro de nuestra
propuesta.

En la segunda debemos ordenar todos los contenidos de acuerdo a los resultados que
vayamos a mostrar, aunque no probemos todo porque no va a ser posible con todas las
proposiciones, teoremas, lemas o corolarios que enunciemos. Pero, insisto, es necesario que
al menos se expongan en el orden correcto. Sobre esto los matemáticos somos bastante
exigentes, los lemas preceden a los teoremas, y los corolarios los suceden, por poner un
ejemplo.

Acabaremos poniendo la ”guinda” al pastel en la tercera y última parte. Bueno..., así dicho
parece más una receta de cocina que el desarrollo de un tema de Matemáticas. Básicamente
debemos acabar con un resultado importante, demostrado o no, eso importa menos, pero
sí relevante.

Para que las tres partes puedan funcionar y constituirse como un todo, es imprescindible
que sepamos a priori lo que tenemos tiempo de escribir, presentar o exponer; y para ello
es también preciso que nos preparemos el tema ”a conciencia”.

Las oposiciones de Matemáticas no son fáciles, como tampoco lo son las Matemáticas. ”A
conciencia” significa que hay que conocer todo o casi todo de lo que estamos tratando,
porque controlando el tema evitamos que él nos controle a nosotros. Cuando sabemos de lo
que hablamos, podemos improvisar en cualquier momento; no importa que no recordemos
un paso en un teorema porque sabemos dónde queremos llegar, saltamos el teorema o
el paso correspondiente dándolo por demostrado y añadimos algún otro apartado para
completar el desarrollo. Todo depende de lo que lo dominemos.

Pero preparar o prepararse un tema de oposición no es nada sencillo. Debemos saber


Matemáticas, y además las mínimas del tema que escribamos. Pero si no es así porque
nos ha tocado uno de los peor preparados, tenemos que dar a entender al Tribunal que sí
las sabemos, y que las cosas que no contamos no es porque las desconozcamos sino porque
nos falta tiempo.
4

No quiero extenderme más, espero que la lectura y el trabajo con este decimosexto cua-
dernillo sea productivo para todos aquellos que quieran o bien conocer algo más de esta
ciencia o bien convertirse en profesores de Secundaria..., o ambas cosas.
Por último agradecer al lector el trabajo que está a punto de comenzar y mencionarle
que todos aquellos comentarios que considere oportunos, bien de profundización de algu-
nos puntos, bien de inconsistencias, errores o erratas en algunas demostraciones, o bien
sugiriendo nuevos apartados o secciones, puede hacérmelos llegar a través de mi correo
electrónico: jorgemorra@outlook.es. Si bien es cierto que aunque no pueda asegurar con-
testarlos, sí puedo asegurar leerlos.
Jorge Morra
Madrid, septiembre de 2020
ÍNDICE 5

Índice
Página

1. ¿Cómo preparar este tema? 6

2. Introducción 7

3. Sistemas de ecuaciones lineales 8


3.1. Sistemas homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.2. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

4. Discusión de sistemas. Teorema de Rouché-Frobenius 14

5. Resolución de sistemas de ecuaciones lineales 17


5.1. Método de la matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.2. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
5.3. Método de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.3.1. Equivalencia de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.3.2. Forma escalonada reducida por filas. . . . . . . . . . . . . . . . . . . 24

6. Conclusiones 28
6 1 ¿CÓMO PREPARAR ESTE TEMA?

1. ¿Cómo preparar este tema?


Como en todos los temas hasta ahora es importante leer y entender todo el contenido al
completo, desde la primera hasta la última línea. Siempre insisto en lo mismo porque en
ocasiones tendemos a saltarnos partes de un texto ya que lo consideramos poco importante,
o porque creemos que lo conocemos; en este caso le pido al lector que no lo haga.
Cuando lo haya leído y entendido, ya tendrá una idea de lo que le quiero contar, ahora
viene la parte más difícil, que es la de sintetizar, resumir y concretar lo que quiere escribir.
En ese momento puede optar por una de dos alternativas, o lo hace por sí mismo, que
es posiblemente la mejor propuesta puesto que de esta forma aprenderá todo del tema; o
bien se deja aconsejar por mí y estudia lo que yo le propongo, siempre por supuesto con
posibilidades de cambiar lo que estime oportuno.
Es necesario también que tenga claro que lo que le voy a proponer es lo que le debe dar
tiempo a desarrollar. Si puede escribir más tendrá que añadir más, y si escribe menos,
tendrá que eliminar parte del tema; todo a su criterio.
El tema al completo contiene muchos resultados y conceptos. El lector encontrará pro-
bados los teoremas y proposiciones más importantes, habiéndonos quedado algunos sin
demostrar. Las demostraciones que se dejan para el lector deben pensarse como ejercicios
del tema que nos ayudarán a comprenderlo en su totalidad.
La introducción debe incluirse al completo. En ella se hace un desarrollo histórico
de los procedimientos de resolución de sistemas de ecuaciones lineales, además de
caracterizarlos en cuanto a sus soluciones.
De la sección sistemas de ecuaciones lineales es importante enunciar al menos el
teorema 3.1 porque justifica gran parte de los procedimientos y resultados posterio-
res. Su demostración no es necesario incluirla aunque sí conocerla. Dentro de esta
parte es importante la parte de los sistemas homogéneos y de las variedades lineales.
Téngase en cuenta que éstas últimas pueden ser consideradas como los subconjuntos
solución de un sistema de ecuaciones lineales.
De la sección discusión de sistemas y teorema de Rouché-Frobenius debe hacerse la
clasificación de los éstos, además de definir el rango de una matriz. La proposición 4.4
y el teorema de Rouchè-Frobenius deben enunciarse y demostrarse. Son importantes
también las observaciones 4.6.
La parte de la resolución de sistemas de ecuaciones lineales contiene tres métodos:
el de la matriz inversa, el de Cramer y el de Gauss-Jordan. Es importante incluir los
tres. El primero es sencillo y está muy relacionado con el isomorfismo habido entre
matrices y endomorfismos. La Regla de Cramer debe enunciarse y demostrarse, al fin
y al cabo es un punto del tema; y lo mismo ocurre con el método de Gauss-Jordan.
Sobre éste último es también básico justificar matricialmente el procedimiento con
los conceptos de matrices equivalentes. Es necesario entender todas las ideas que se
encuentran detrás y desarrollarlas. De esta parte son importantes los ejemplos. El
primero a incluir es el relacionado con las matrices equivalentes por filas o columnas;
y el segundo es la resolución de uno cualquiera de los dos sistemas que se encuentran
7

al final del tema, resueltos por el método de Gauss-Jordan. Elija el lector el que
considere de estos últimos.

2. Introducción
Las primeras referencias de la existencia de los sistemas de ecuaciones lineales datan incluso
de la matemática en Babilonia, aunque el problema original, o más concretamente el
método de eliminación de incógnitas, proviene de la antigua china. En el tratado Nueve
capítulos sobre el Arte Matemático, de los siglos II y I a. C. aparece el siguiente problema:
Hay tres clases de granos; tres gavillas de primera clase, dos de la segunda
clase y una de la tercera hacen 39 medidas; dos de la primera, tres de la se-
gunda y una de la tercera hacen 34 medidas; y una de la primera, dos de la
segunda y tres de la tercera hacen 26 medidas. ¿Cuántas medidas de granos
están contenidas en una gavilla de cada clase?
Lógicamente, además del problema, encontramos un procedimiento para su resolución
conocido como la regla Fang-Cheng que fue el antecedente al que conocemos como de
Gauss-Jordan o también eliminación gaussiana. El porqué lo conocemos con el nombre
de Gauss o de Gauss-Jordan se debe a que fueron ambos los que lo aplicarón de forma
habitual en la resolución del problema de los mínimos cuadrados.
Aunque el procedimiento era considerado relativamente trivial, con la llegada de los orde-
nadores se volvió casi imprescindible. La regla de Cramer, de la que hablaremos en líneas
posteriores, suponía otra forma de resolver un sistema, pero no simplificaba los cálculos.
El hecho es que de forma general, los métodos de resolución de sistemas de ecuaciones se
complicaban casi exponencialmente cuando aumentaba el número de incógnitas y ecua-
ciones. Alan Turing (1912-1954) tardó en 1946 dos semanas para resolver un sistema de
18 ecuaciones con 18 incógnitas. Aún con ello, el número de operaciones requerido en la
resolución de un sistema era obstensiblemente inferior utilizando la eliminación gaussiana,
que con los determinantes de Cramer. Esto provocó que con la llegada de la informática
comenzara a ser el más utilizado.
Pero volvamos a Cramer. Actualmente se conoce como la Regla de Cramer a un método
de resolución de sistemas de ecuaciones lineales utilizando determinantes. Es curioso que
dicha regla no se deba a Gabriel Cramer (1708-1752), sino a Colin Maclaurin (1698-1746),
aunque no se publicó hasta 1748, dos años después de su fallecimiento; y dos años antes
también de la publicación de Cramer de la misma en su Introducción al análisis de curvas
algebraicas. La razón del porqué ha llegado hasta nuestros días con el sobrenombre de
Cramer se debe principalmente a la notación utilizada por éste, más clara y concisa que la
de Maclaurin. De todas formas, ni Cramer ni Maclaurin hablaban de determinantes en su
desarrollo, ni tan siquiera un poco más tarde Bézout, quien en un trabajo presentado en
1779, Teoría general de las ecuaciones algebraicas, daba un método para resolver sistemas
de n ecuaciones con n incógnitas muy similar al de Cramer y Maclaurin.
El avance en su resolución vino con el álgebra abstracta, con las matrices y los determi-
nantes. La introducción del rango de una matriz permitió dar unas condiciones necesarias
y suficientes para que un sistema tuviera solución. En 1875 Eugène Rouché, matemático
8 3 SISTEMAS DE ECUACIONES LINEALES

francés del siglo XIX, publicó un artículo donde enunciaba el teorema que hoy conocemos
como el de Rouché-Frobenius. Curiosamente ese mismo año otro matemático francés pu-
blicaba un resultado similar; y también en Italia, Alfredo Capelli daba una variación de
la misma idea. Hasta tal punto llegan a aparecer publicaciones que en Francia al teorema
de Roché-Frobenius se le conoce como el teorema de Rouché-Fontené; en Italia como el de
Rouché-Capelli; y en Alemania y en otros países, debido a que Leopold Kronecker utilizó
los resultados de Capelli para dar una demostración alternativa, como el de Kronecher-
Capelli. En España es el matemático Julio Rey Pastor el que le da el nombre de teorema
de Rouché-Frobenius.

3. Sistemas de ecuaciones lineales


Nuestra idea será desarrollar toda la teoría de los sistemas de ecuaciones lineales sobre
la base de las matrices y las aplicaciones lineales entre espacios vectoriales. En todo el
tema trabajaremos con un cuerpo de característica cero. Partimos además de que la
familia de matrices con m filas y n columnas tiene estructura de espacio vectorial. Si
m “ n entonces además de ser espacio vectorial es un álgebra. Partimos también de que
el conjunto de aplicaciones lineales entre los espacios vectoriales n y m tiene también
la misma estructura de espacio vectorial, o si m “ n, la de álgebra.
Es posible demostrar que ambas estructuras son isomorfas. Cada matriz estaría íntima-
mente relacionada con una aplicación lineal y viceversa. Esto permitiría asociar, en el
caso de las álgebras, al producto de matrices una composición de aplicaciones lineales por
ejemplo, o también demostraría que si una aplicación lineal es un isomorfismo, entonces
su matriz asociada tiene inversa. No obstante en el desarrollo de nuestro tema no demos-
traremos un resultado tan completo, nos limitaremos a definir el isomorfismo y a probar
que vistos como espacios vectoriales, sí son isomorfos.
Teorema 3.1 El espacio vectorial de las aplicaciones lineales entre n y m es isomorfo
al espacio vectorial de las matrices de m filas y n columnas sobre el cuerpo , Mnm p q.
Demostración: Llamemos al espacio de las aplicaciones lineales como Lp n , m q. Sabe-
mos que una aplicación entre dos espacios vectoriales está completamente definida cuando
se da la imagen de cada uno de los elementos de la base. Consideremos f P Lp n , m q, y
tomemos las bases canónicas de n y m , que llamaremos tej u con j “ 1, 2, . . . , n y te1i u
con i “ 1, 2, . . . , m. Se tiene
m
ÿ
f pej q “ aij e1i
i“1
con aij P . Definimos la aplicación
„ : Lp n, mq ›Ñ Mnm p q
f fi›Ñ „pf q “ A
donde ¨ ˛
a11 a12 ... a1n
˚ a21 a22 ... a2n ‹
˚ ‹
A“˚ .. .. .. .. ‹
˝ . . . . ‚
am1 am2 . . . amn
9

Nótese que cada columna j tiene precisamente las coordenadas de f pej q en la base te1i u de
m . Es más, fíjese el lector que el producto de A por el vector e es precisamente dicha
j
columna: ¨ ˛
¨ ˛ 0 ¨ ˛
a11 a12 . . . a1n ˚ .. ‹ a1j
˚ a21 a22 . . . a2n ‹ ˚ . ‹
‹ ˚ ‹
˚ ‹ ˚ ˚ a2j ‹
A ¨ ej “ ˚ . . .. . ‹ ¨ ˚ 1 ‹ “ ˚ . ‹
˝ .. .. . .. ‚ ˚ ˚ .. ‹ ˝ .. ‚

˝ . ‚
am1 an2 . . . amn anj
0

Veremos primeramente que „ se encuentra bien definida. Sean f y g aplicaciones lineales,


tales que f “ g. Entonces para cada x P n se tiene f pxq “ gpxq, en particular para los
vectores de la base, f pej q “ gpej q, j “ 1, 2, . . . , n.
Sean F, G P Mnm p q tales que, „pf q “ F y „pgq “ G.
Para cada ej tenemos
F ¨ ej “ f pej q “ gpej q “ G ¨ ej
Pero F ¨ ej es la columna j´ésima de F , que coincide con la columna j´ésima de G, G ¨ ej .
Como las columnas de ambas matrices coinciden, éstas serán iguales.
Para ver que es un homomorfismo, sean f, g P Lp n, m q.

Sean H “ „pf ` gq, „pf q “ F y „pgq “ G. Sabemos que cada columna Fj de F es


la imagen del vector j´ésimo de n por f ,
¨ ˛
a1j
˚ a2j ‹ ÿ
m
˚ ‹
f pej q “ ˚ . ‹ “ aij e1i
˝ .. ‚ i“1
amj
Análogamente ¨ ˛
a11j
˚
˚ a12j ‹ ÿ

m
gpej q “ ˚ .. ‹“ a1 e1
˝ . ‚ i“1 ij i
a1mj
Su suma: ¨ ˛
a1j ` a11j
˚ a2j ` a1 ‹ ÿm
˚ 2j ‹
f pej q ` gpej q “ ˚ .. ‹“ paij ` a1ij qe1i
˝ . ‚ i“1
amj ` a1mj

Pero las columnas de H son las imágenes de los elementos de la base canónica de
n para f ` g, es decir,:
¨ 2 ˛
a11 a212 . . . a21n
˚ a2 2 2 ‹
˚ 21 a22 . . . a2n ‹
H“˚ . .. .. .. ‹
˝ .. . . . ‚
2 2
am1 an2 . . . amn2
10 3 SISTEMAS DE ECUACIONES LINEALES

donde
m
ÿ
pf ` gqpej q “ aij e1i
i“1

Por consiguiente A “ F ` G

Sea ⁄ P , y sea ⁄ ¨ f P Lp n, mq La demostración es prácticamente idéntica y


puede hacerla el lector.

Nos queda ver que es biyectiva. Supongamos que „pf q “ „pgq entonces F “ G, y así
aij “ a1ij para i “ 1, 2, . . . , m, y j “ 1, 2, . . . , n.

Entonces las coordenadas de cada ej por la imagen de f y g coinciden:

m
ÿ m
ÿ
f pej q “ aij e1i “ a1ij e1i “ gpej q
i“1 i“1

y como f y g coinciden en todos los elementos de la base, son iguales. Esto nos lleva a la
inyectividad de „.

Sea ahora A P Mnm p q, con A “ paij q. Definimos f : n Ñ m como f pxq “ A ¨ x, donde


x es un vector columna de n . En realidad:
¨ ˛ ¨ ˛ ¨ ˛
a11 a12 . . . a1n x1 a11 x1 ` a12 x2 ` . . . ` a1n xn
˚ a21 a22 . . . a2n ‹ ˚ x2 ‹ ˚ a21 x1 ` a22 x2 ` . . . ` a2n xn ‹
˚ ‹ ˚ ‹ ˚ ‹
A¨x“˚ . .. . .. ‹ ¨ ˚ .. ‹ “ ˚ .. ‹
˝ . . . . . . ‚ ˝ . ‚ ˝ . ‚
am1 am2 . . . amn xn am1 x1 ` am2 x2 ` . . . ` amn xn

Aplicando la distributiva del producto con respecto a la suma de matrices se tiene:

a) f px ` yq “ A ¨ px ` yq “ A ¨ x ` A ¨ y “ f pxq ` f pyq

b) f p⁄xq “ A ¨ p⁄xq “ p⁄qA ¨ x

Por tanto „ es isomorfismo.


Â

Observación 3.2 No vamos a demostrar, aunque hemos hecho una mención al caso, que
cuando m “ n estamos hablando de matrices cuadradas, Mnn , y de los endomorfimos
Lp n , n q. En estos espacios se encuentra definido el producto de elementos y tienen
estructura de álgebra. En Mnn es el producto conocido de matrices, y en Lp n , n q es la
composición de endomorfismos.

El isomorfismo „ entre estos espacios asocia el producto de matrices a la composición


de endomorfismos y viceversa. Lógicamente si „pf q “ A y f es un isomorfismo entonces
„pf ´1 q “ A´1 . También quiere decir que si una matriz tiene inversa, su endomorfismo
asociado es en realidad un isomorfismo.

Lo siguiente será definir el concepto de sistema de ecuaciones lineales.

También podría gustarte