Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
0% encontró este documento útil (0 votos)
34 vistas104 páginas

Apuntes Algebra II 2023

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1/ 104

Universidad Nacional de La Rioja

Sede Universitaria Villa Unión


Apuntes de Algebra II.
Profesorado Universitario de Matemática para el Nivel Secundario y Superior.

Algebra II

Contenidos Mínimos: Algebra Lineal. Sistemas de Ecuaciones. Matrices. Espacios


Vectoriales. Transformaciones lineales. Autovalores y autovectores. Estructuras
algebraicas. Grupos, anillos y cuerpo. Factorización de polinomios.

El álgebra lineal es la rama de las matemáticas que estudia conceptos tales como vectores,
matrices, sistemas de ecuaciones lineales y en un enfoque más formal, espacios vectoriales,
y sus transformaciones lineales. Es un área activa que tiene conexiones con muchas áreas
dentro y fuera de las matemáticas como análisis funcional, ecuaciones diferenciales,
investigación de operaciones, gráficas por computadora, ingeniería, etc.
El álgebra lineal es una rama de las matemáticas modernas que juega un papel central
debido a que se encarga del estudio de conceptos tales como vectores, matrices, sistemas de
ecuaciones lineales, espacios vectoriales y transformaciones lineales. En álgebra lineal, los
conceptos son tan importantes como los cálculos, por lo que se convierte en un curso
adecuado para introducir el pensamiento abstracto, debido a que una gran parte de su
campo tiene una interpretación geométrica, que puede ayudar precisamente a visualizar
esos conceptos
De manera más formal, el álgebra lineal estudia conjuntos denominados espacios
vectoriales, los cuales constan de un conjunto de vectores y un conjunto de escalares que
tiene estructura de campo, con una operación de suma de vectores y otra de producto entre
escalares y vectores que satisfacen ciertas propiedades por ejemplo, que la suma es
conmutativa. Estudia también transformaciones lineales, que son funciones entre espacios
vectoriales que satisfacen las condiciones de linealidad: Finalmente, el álgebra lineal
estudia también las propiedades que aparecen cuando se impone estructura adicional sobre
los espacios vectoriales, siendo una de las más frecuentes la existencia de un producto
interno una especie de producto entre dos vectores que permite introducir nociones como
longitud de vectores y ángulo entre un par de los mismos.
La historia del álgebra lineal moderna se remonta a los años de 1843 cuando William
Rowan Hamilton de quien proviene el uso del término vector creó los cuaterniones; y de
1844 cuando Hermann Grassmann publicó su libro Die lineare Ausdehnungslehre (La
teoría lineal de extensión). Puesto que el álgebra lineal es una teoría exitosa, sus métodos se
han desarrollado por otras áreas de la matemática: en la teoría de módulos, que remplaza
al cuerpo en los escalares por un anillo; en el álgebra multilineal, uno lidia con múltiples
variables en un problema de mapeo lineal, en el que cada número de las diferentes variables
se dirige al concepto de tensor; en la teoría del espectro de los operadores de control de
matrices de dimensión infinita, aplicando el análisis matemático en una teoría que no es
puramente algebraica. En todos estos casos las dificultades técnicas son mucho más
grandes.
FACTORIZACIÓN DE POLINOMIOS

POLINOMIOS

Definición:
Se llama polinomio formal en una indeterminada x sobre el conjunto de números
reales, a toda expresión algebraica de la forma:

P(x) = a 0 + a1 x + a2 x + a3 x + ... + an x
2 3 n

donde los coeficientes a0 , a1 , a2 , a3 , ......., an son números reales y n es un número natural

Un número a real (o complejo) es raíz de un polinomio Pxsi Pa0 , o sea, que al


evaluar el polinomio P en x a obtenemos por resultado 0.
En forma simbólica:

x a es raíz de P(x) P(a) 0

Para factorizar polinomios hay varios métodos:

1. Sacar factor común: Es aplicar la propiedad distributiva de la multiplicación


respecto de la suma, Así, la propiedad distributiva dice:

a(x+y) = ax+ay

Pues bien, si nos piden factorizar la expresión ax+ay, basta aplicar la propiedad distributiva
y decir que

ax+ay = a(x+y)
Cuando nos piden sacar factor común o simplemente factorizar y hay coeficientes con
factores comunes, se saca el máximo común divisor de dichos coeficientes. Por ejemplo, si
nos piden factorizar la expresión 36x2-12x3+18x, será

36x2-12x3+18x = 6x(6x-2x2+3)

donde 6 es el máximo común divisor de 36, 12 y 18


Para comprobar si la factorización se ha hecho correctamente, basta efectuar la
multiplicación, aplicando la propiedad distributiva de la parte derecha de la igualdad, y nos
tiene que dar la parte izquierda.

Otro ejemplo: Factorizar 4a2+2ab+6ab2

4a2+2ab+6ab2= 2ab(2a+1+3b) ¡Atención a cuando sacamos un sumando completo!, dentro


del paréntesis hay que poner un uno. Tener en cuenta que si hubiéramos puesto
4a2+2ab+6ab2 =2ab(2a+3b) y quiero comprobar si está bien, multiplico y me da
2ab(2a+3b) = 4a2 b+6ab2 pero no 4a2+2ab+6ab2 como me tendría que haber dado.

Sin embargo si efectúo 2ab(2a+1+3b)=2ab.2a+2ab 1+2ab.3b=4a2+2ab+6ab2

Otros ejemplos:

3x2-6x+9x3=3x(x-2+3x2)

4 2
2 x 3− x 2 +2 x=2 x ( x2 − x +1)
3 3

2. Si se trata de una diferencia de cuadrados: Es igual a suma por diferencia. Se


basa en la siguiente fórmula

(a+b)(a-b)=a2-b2

Pero aplicada al revés, o sea que si me dicen que factorice a2-b2 escribo a2-b2=(a+b)(a-b)
Otros ejemplos de factorización por este método:

4 x 2−1=( 2 x +1 ) ( 2 x−1 )
x 4 −16=( x 2 −4 )( x 2 +4 )

4 9
= − (
a2 4 b2 a 2 b a 2 b

2 3 )( 2 3
+ )
3. Si se trata de un trinomio cuadrado perfecto: Es igual al cuadrado de un binomio
Se basa en las siguientes fórmulas

(a+b)2=a2+2ab+b2 y (a-b)2=a2-2ab+b2
Así si nos dicen que factoricemos: a 2+2ab+b2 , basta aplicar la fórmula anterior y escribir
que

a2+2ab+b2 = (a+b)2

Otros ejemplos de factorización por este método:

4 x 2 +9+12 x=( 2 x+3 )2


x 2 −10 x +25=( x−5 )2

( )
2
1 2 1
+2 x+4 x = +2 x
4 2

5. Divisibilidad de la suma o diferencia de potencias de igual grado por la suma o


diferencia de las bases
Como se puede verificar fácilmente:
1. x +𝑎 es divisible por x+𝑎 si n es IMPAR
n n

2. x +𝑎 nunca es divisible por x−𝑎


n n

3. x +𝑎 es divisible por x+𝑎 si n es PAR


n n

4. x +𝑎 siempre es divisible por x+𝑎


n n

Ejemplo 28: Sea 𝑥3+27=𝑥3+33 es divisible por x+3 ya que n es impar. Por el contrario, no
es divisible por x-3. En efecto, si 𝑥3+27 es divisible por x+3 existe un polinomio Q tal que

𝑥3+27=(𝑥+3)∙𝑄

1. Si se trata de un trinomio de segundo grado: O sea un polinomio de este tipo


ax2+bx+c, siendo a, b y c números

−b±√ b2 −4 ac
x=
Se iguala el trinomio a cero ax 2+bx+c=0, se resuelve la ecuación 2a , y si
tiene dos soluciones distintas, x1 y x2 se aplica la siguiente fórmula:

ax2+bx+c= a(x-x1)(x-x2)
Veamos un ejemplo: Factorizar el polinomio 2x2+5x-3

Igualamos a cero 2x2+5x-3=0


−5± √25−24 −7±7
x= =
Resolvemos la ecuación 4 4 , y separando las dos soluciones
1
x 1= x 2 =−3
2 , , y aplicando la fórmula, teniendo en cuenta que a=2

2 x 2 +5 x−3=2 x−( 12 )( x +3)


2. Para cualquier polinomio que tenga raíces enteras se puede aplicar la regla de
Ruffini: Decir que un polinomio tienes raíces enteras es encontrar valores de x
números enteros que al sustituirlos en el polinomio nos da cero.

Teorema del resto: el resto de la división de un polinomio P(x) por otro de la


forma x a coincide con el valor numérico de P (x) en x a, es decir con P (a)

1) Factorización de polinomios a partir del cálculo de los ceros o raíces.


2) Factorización de polinomios aplicando casos de factoreo , a partir de la
factorización obtención de raíces y divisores

1) Factorización de polinomios a partir del cálculo de los ceros o raíces.


Anteriormente hemos visto que un número a (real o complejo) es una raíz o cero de un
polinomio Px, si el valor del polinomio se anula para ese valor.de x.

En forma simbólica teníamos: x=a es raíz de P(x) si y sólo sí P(a) = 0


Si combinamos el teorema del resto y el algoritmo de la división de un polinomio P(x) por
un binomio de la forma (x a):
P(x) (x a).C(x) P(a)
Si P(a) 0 entonces, una consecuencia importante estará dada por la expresión:
P(x) (x a).C(x) (2)
De la igualdad (2) extraemos dos conceptos importantes del álgebra operacional que son:
Expresión factorizada de un polinomio.
Divisibilidad de polinomio
El polinomio dividendo queda expresado como el producto del divisor por el cociente, o
también podemos decir que hemos factorizado P(x) a partir del producto del divisor (x a)
por el cociente C (x).

A la expresión: P(x) (x a).C(x) también podemos escribirla así:

P( x )
= C(x)
( x−a ) y se lee P(x) es divisible por (x-a)

Cuando decimos “es divisible por”, esta expresión nos asegura que el resto de esa división
es cero.
Concluimos entonces que:

P( x )
= C(x)
Si al realizar el cociente entre dos polinomios, obtenemos: ( x−a )
y el resto es cero, entonces P(x) es divisible por Q(x).
Este concepto matemático que se vio, en los números enteros se llama: DIVISIBILIDAD
La divisibilidad es una herramienta que nos será útil para factorizar polinomios.
“Conocer las raíces de un polinomio nos permiten expresarlo en forma factorizada”
Veremos también durante el curso que el conocimiento de las raíces nos permitirá
Simplificar expresiones algebraicas.
Resolver ecuaciones cuyo grado es mayor o igual que 2.
Graficar una función, porque dichos valores son los valores de “x “para los cuales la
gráfica de la función dada intersecta el eje de las abscisas

Cabe preguntarnos:
¿Cuántas raíces tiene un polinomio?
Esta pregunta la contesta un teorema, cuya demostración necesita de conocimientos
matemáticos más avanzados, que se llama:

TEOREMA FUNDAMENTAL DEL ÁLGEBRA.


Todo polinomio de grado n tiene n raíces (números reales o complejos, iguales o distintas).
Si de un polinomio de grado n, conocemos sus n raíces x1 , x2 ,, xn podemos expresar el
polinomio en forma factorizada, recordemos que an es el coeficiente principal

P(x) = an(x-x1)(x-x2)(x-x3) …………….(x-xn)

Analicemos este ejemplo, en el que también tendrá que completar algunas cosas:
Siendo P(x) =x3+3x2-4x-12un polinomio de grado ……, de acuerdo al Teorema
Fundamental del Álgebra, tendrá …….. raíces .
Si sabemos que una de sus raíces es :x1 2, esto quiere decir que P(x) es divisible por (x 2)
. Para calcular el cociente, podemos aplicar la regla de Ruffini.

De esta forma, queda expresado el polinomio P (x) como el producto del divisor por el
cociente del siguiente modo: (x-2)(x2+5x+6)
Al llegar a este paso decimos que P(x) es divisible por:
(x 2) y también por (x2+5x+6)
Para encontrar las raíces restantes, es decir los valores de x que anulan al polinomio C (x) ,
se tiene que volver a calcular las raíces del cociente obtenido: (x2+5x+6)

Calcular los ceros, significa igualar a cero este polinomio


Obteniendo una ecuación de 2º grado completa cuyas raíces se calculan a partir de los
coeficientes utilizando la siguiente fórmula respectiva.
Finalmente tendremos P(x) = x3+3x2-4x-12 = 1(x-2)(x+2)(x+3)
Ejemplo:
a) Escriba la expresión factorizada de un polinomio de grado 5 cuyo coeficiente principal es
2 y sus raíces son: x1 x2 3, x3 2, x4 1 y x5 1.
b) A partir de la expresión factorizada que encontró, escriba el polinomio correspondiente:
……………………………………………….

La otra pregunta que surge naturalmente es:


¿Cómo se pueden hallar las raíces reales de un polinomio?
Una forma es proponer valores para x, reemplazarlos en P(x) hasta obtener un resultado
nulo, este proceso puede ser muy largo.
Hay un teorema que acota los valores entre los que se debe probar para ver si se verifica el
teorema del resto, cabe destacar que no siempre no da un resultado, dado que depende de la
naturaleza de la raíz.

TEOREMA DE GAUSS:
Dado un polinomio de coeficientes enteros, si el número racional r es una raíz del
p p
r=
polinomio, q con p y q enteros y q ≠ 0 , siendo q una fracción irreducible,
entonces p divide al coeficiente independiente a 0 y q divide al coeficiente principal a n.
Este teorema solo permite hallar las raíces racionales

La aplicación de este teorema se simplifica si normalizamos el polinomio a n = 1 y


consideramos solo el término independiente.
Ejemplo:
Factorizar P(x) =x3-6x2+11x-6
Se aplica el teorema de Gauss. Las raíces se buscan entre los divisores del término
independiente -6 que son: -6; 6; -3; 3; -2; 2;-1; 1
Si x=1 es uno de los divisores y P(1) = 0 por lo visto anteriormente, se sabe x-1 es
undivisor de P(x).
Aplicando regla de Ruffini queda: P(x) = (x-1)(x2-5x+6)
En el segundo miembro, queda el factor (x2-5x+6)
para expresarlo como producto de factores primos,
Se resuelve la ecuación cuadrática x2-5x+6=0 Cuyas soluciones son x1 = 2 y x2 = 3.
Reemplazando queda:
x3-6x2+11x-6 = (x-1) (x-3) (x-2)

Si un polinomio de , por ejemplo, cuarto grado ax 4 +bx3+cx2+dx+e tiene cuatro raíces


enteras, x1, x2, x3 y x4 se factoriza así:

ax4 +bx3+cx2+dx+e= a(x-x1)(x-x2)(x-x3)(x-x4)

Pero ¿cómo se obtienen las raíces?, por la regla de Ruffini

Ejemplo: Factorizar x4-4x3-x2+16x-12


Se aplica la regla de Ruffini, probando los divisores del término independiente, en este caso
de 12. O sea que se prueba con 1, -1, 2, -2, 3, -3, 4, -4, 6, -6, 12 y –12

Probemos con uno


Se copian los coeficientes del polinomio:
1 -4 -1 16 -12

Y se escribe en una segunda línea el número uno


1 -4 -1 16 -12
1

El primer coeficiente se copia abajo en una tercera línea


1 -4 -1 16 -12
1
1

Se multiplica ese coeficiente, uno (1), por el número que estamos probando, en este caso
también uno (1), o sea uno por uno = uno (1). Este uno se escribe debajo del siguiente
coeficiente, o sea del –4

1 -4 -1 16 -12
1 1
1

Se suma –4+1=-3

1 -4 -1 16 -12
1 1

Se multiplica –3 por 1=-3 y se escribe debajo del siguiente coeficiente, -1

1 -4 -1 16 -12
1 1 -3
1 -3

Se suma –3-1=-4 y así sucesivamente

1 -4 -1 16 -12
1 1 -3 -4 12
1 -3 -4 12 0

Como vemos la última suma ha dado cero. Eso quiere decir que uno es una raíz del
polinomio y que nos sirve para factorizar.
Si hubiera dado distinto de cero habría que seguir probando los demás divisores de 12.
Los coeficientes que han quedado en la última fila, en realidad son los coeficientes del
cociente de dividir el polinomio entre x-1, y la última suma es el resto de dicha división.
Si escribimos la relación fundamental de una división entera, o sea que
Dividendo=Divisor x Cociente+Resto
(x-1)(x3-3x2-4x+12)

x4-4x3-x2+16x-12=(x-1)(x3-3x2-4x+12)+0=(x-1)(x3-3x2-4x+12)

De hecho ya hemos factorizado el polinomio, pero el segundo factor de tercer grado hay
que intentar seguir factorizando, de nuevo por la regla de Ruffini.
Aplicando sucesivas veces esta regla queda:

1 -4 -1 16 -12
1 1 -3 -4 12
1 -3 -4 12 0
2 2 -2 -12
1 -1 -6 0
-2 -2 6
1 -3 0

Como las raíces son, 1, 2 y –2 y el último cociente es x-3


La factorización final es:

x4-4x3-x2+16x-12=(x-1)(x-2)(x+2)(x-3)

Si en las sucesivas pruebas no encontramos ningún resto cero, quiere decir que el
polinomio no se puede factorizar dentro de los números reales.

EN RESUMEN
Muchas veces se pueden combinar estos cinco métodos. Según como sea el polinomio
hay métodos que se pueden aplicar y otros que no. Se aconseja que se intenten aplicar
los cinco métodos sucesivamente, sobre todo, si se puede sacar factor común se hace
en primer lugar, y si luego en uno de los factores se puede seguir aplicando otros de
los métodos, se aplica.

EJEMPLOS: Factorizar los siguientes polinomios


1.- x3+2x2+x
Podemos aplicar el primer método, o sea sacar factor común
x3+2x2+x=x(x2+2x+1)

El segundo factor, o sea el paréntesis, es un trinomio de segundo grado y cuadrado perfecto.


Se puede factorizar por el tercero, cuarto o quinto método. Apliquemos el tercero y queda:

x3+2x2+x= x(x2+2x+1)=x(x+1)2
2.- 3x5-48x
Primero sacamos factor común: 3x5-48x=3x(x4-16)
Al paréntesis le podemos aplicar el segundo método y queda: 3x5-48x=3x(x4-16)=3x(x2-4)
(x2+4)
Y aún más, al segundo paréntesis le podemos volver a aplicar el segundo método:
3x5-48x=3x(x4-16)=3x(x2-4)(x2+4)=3x(x+2)(x-2)(x2+4)

El polinomio de segundo grado que queda en el tercer paréntesis no se puede factorizar. Si


probamos el cuarto método, igualando a cero y resolviendo la ecuación queda
x2+4=0
x2=-4
x=± √−4 que no tiene solución real.

3.- x3-12x2+41x-30

Sólo podemos aplicar el quinto método, o sea Ruffini:

1 -12 41 -30
1 1 -11 30
1 -11 30 0
5 5 -30
1 -6 0

x3-12x2+41x-30=(x-1)(x-5)(x-6)

4.- 3x2+15x+18

Primero sacamos factor común

3x2+15x+18=3(x2+5x+6)
−5± √25−24
x=
Igualamos a cero el paréntesis y resolvemos la ecuación: 2 que origina
dos soluciones, -3 y –2, por tanto la factorización completa es:

3x2+15x+18=3(x+3)(x+2)

E je r c i cios resueltos de factorizar y calcular las raíces de l os

pol i nomios

1
x3 + x2
x 3 + x 2 = x 2 (x + 1)
La raíces son: x = 0 y x = − 1
2
2x 4 + 4x 2 = 2x 2 (x 2 + 2)
2x 4 + 4x 2 = 2x 2 (x 2 + 2)
Sól o tiene una raíz X = 0 ; ya que el polinomio, x 2 + 2, no tiene
ni ngún valor que lo anule; debido a que al estar la x al cuadrado
si e mpre dará un número positivo, por tanto es irreducible.

3
x2 − 4
x 2 − 4 = (X + 2) · (X − 2)
Las raíces son X = − 2 y X = 2

4
x 4 − 16
x 4 − 16 = (x 2 + 4) · (x 2 − 4) = (X + 2) · (X − 2) · (x 2 + 4)
Las raíces son X = − 2 y X = 2

5
9 + 6x + x 2

La raíz es x = −3 .

6
E je r c i cios resueltos de factorizar y calcular las raíces de l os
pol i nomios

7
x 4 − 10x 2 + 9
x2 = t
x 4 − 10x 2 + 9 = 0
t 2 − 10t + 9 = 0

8
x 4 − 2x 2 − 3
x2 = t
t 2 − 2t − 3 = 0

9
2x 4 + x 3 − 8x 2 − x + 6
1T omamos los divisores del término independiente: ±1, ±2, ±3.
2Aplicando el teorema del resto sabremos para que valores la
di vi sión es exacta.
P(1) = 2 · 1 4 + 1 3 − 8 · 1 2 − 1 + 6 = 2 + 1− 8 − 1 + 6 = 0

3 Di vidimos por Ruffini.


4 Por ser la división exacta, D = d · c
(x −1) · (2x 3 + 3x 2 − 5x − 6 )
Una raíz es x = 1.
C ontinuamos realizando las mismas operaciones al segundo factor.
Vol vemos a probar por 1 porque el primer factor podría estar
e l e vado al cuadrado.
P(1) = 2 · 1 3 + 3 · 1 2 − 5 · 1 − 6≠ 0
P(− 1) = 2 · (− 1) 3 + 3 ·(− 1) 2 − 5 · (− 1) − 6= −2 + 3 + 5 − 6 = 0

(x −1) · (x +1) · (2x 2 +x −6)


Otra raíz es x = -1.
E l t ercer factor lo podemos encontrar aplicando la ecuación de 2º
gra do o tal como venimos haciéndolo, aunque tiene el
i nc onveniente de que sólo podemos encontrar raíces enteras.
El 1 lo descartamos y seguimos probando por − 1.
P(−1) = 2 · (−1) 2 + (−1) − 6 ≠ 0
P(2) = 2 · 2 2 + 2 − 6 ≠ 0
P(−2) = 2 · (−2) 2 + (−2) − 6 = 2 · 4 − 2 − 6 = 0

(x −1) · (x +1) · (x +2) · (2x −3 )

Sacamos factor común 2 en último binomio.


2x −3 = 2 (x − 3/2)
La factorización del polinomio queda:
2x 4 + x 3 − 8x 2 − x + 6 = 2 (x −1) · (x +1) · (x +2) · (x − 3/2)
Las raíces son : x = 1, x = − 1, x = −2 y x = 3/2

2x 3 − 7x 2 + 8x − 3

P(1) = 2 · 1 3 − 7 · 1 2 + 8 · 1 − 3 = 0

(x −1) · (2x 2 − 5x + 3)

2
P(1) = 2 · 1 −5 · 1 + 3 = 0

(x −1) 2 · (2x −3) = 2 (x − 3/2) · (x −1) 2

Las raíces son: x = 3/2 y x = 1

11
x3 − x2 − 4

{±1, ±2, ±4 }

3 2
P(1) = 1 − 1 − 4 ≠ 0

3 2
P(−1) = (−1) − (−1) − 4 ≠ 0
3 2
P(2) = 2 − 2 − 4 = 8 − 4 − 4 = 0

(x − 2) · (x 2 + x + 2 )

x2 + x + 2 = 0

(x − 2) · (x 2 + x + 2 )

Raíz: x = 2.

12
x 3 + 3x 2 − 4x − 12

{±1, ±2, ±3, ±4, ±6, ±12 }

P(1) = 1 3 + 3 · 1 2 − 4 · 1 − 12 ≠ 0

P(−1) = (−1) 3 + 3 · (−1) 2 − 4 · (−1) − 12 ≠ 0

P(2) = 2 3 + 3 · 2 2 − 4 · 2 − 12 = 8 + 12 − 8 − 12 = 0

(x − 2) · (x 2 + 5x + 6)
x 2 + 5x + 6 = 0

(x − 2) · (x + 2) · (x +3)

Las raíces son : x = 2, x = − 2, x

13

6x 3 + 7x 2 − 9x + 2

{±1, ±2}

P(1) = 6 · 1 3 + 7 · 1 2 − 9 · 1 + 2 ≠ 0

P(−1) = 6 · (−1) 3 + 7 · (−1) 2 − 9 · (−1) + 2 ≠ 0

3 2
P(2) = 6 · 2 + 7 · 2 − 9 · 2 + 2 ≠ 0

P(−2) = 6 · (−2) 3 + 7 · (−2) 2 − 9 · (−2) + 2 = − 48 + 28 + 18 +


2 = 0

(x+2) · (6x 2 − 5x + 1)
6x 2 − 5x + 1 = 0

6 · (x + 2) · (x − 1/2) · (x − 1/3)

Raíces: x = − 2, x = 1/2 y x= 1/3

14

19x 4 − 4x 2 =

x 2 · (9x 2 − 4) =

x 2 · (3x + 2) · (3x − 2)

2x 5 + 20x 3 + 100x =

x · (x 4 + 20x 2 + 100) =

x · (x 2 + 10) 2

33x 5 − 18x 3 + 27x =

3x · (x 4 − 6x 2 + 9) =

= 3x · (x 2 − 3) 2

4- 2x 3 − 50x =
=2x · (x 2 − 25) =

2x · (x + 5) · (x - 5)

52x 5 − 32x =

= 2x · (x 4 − 16 ) =

2x · (x 2 + 4) · (x 2 − 4) =

= 2x · (x 2 + 4) ·(x +2) · (x − 2)

6 2x 2 + x − 28

2x 2 + x − 28 = 0

2x 2 + x − 28 = 2 (x + 4) · (x − 7/2)

15

2xy − 2x − 3y + 6 =

= x · (y − 2) − 3 · (y − 2) =
= (x − 3) · (y − 2)

325x 2 − 1=

= (5x +1) ·(5x − 1)

436x 6 − 49 =

= (6x 3 + 7) · (6x 3 − 7)

5x 2 − 2x + 1 =

= (x − 1) 2

6x 2 − 6x + 9 =

= (x − 3) 2

7x 2 − 20x + 100 =

= (x − 10) 2

8x 2 + 10x + 25 =

= (x + 5) 2

9x 2 + 14x + 49 =

= (x + 7) 2

10 x 3 − 4x 2 + 4x =

= x · (x 2 − 4x +4) =

= x · (x − 2) 2

11 3x 7 − 27x =

= 3x · (x 6 − 9) =

= 3x · (x 3 + 3) · (x 3 − 3)
12 x 2 − 11x + 30

x 2 − 11x + 30 = 0

x 2 − 11x + 30 = (x −6) · (x −5)

13 3x 2 + 10x + 3

3x 2 + 10x + 3 = 0

3x 2 + 10x + 3 = 3 (x − 3) · (x − 1/3)

14 2x 2 − x − 1

2x 2 − x −1 = 0

2x 2 − x − 1 = 2 (x − 1) · (x + 1/2)

Ejercicios
Obtenga la expresión factorizada de los siguientes polinomios y determine en cada caso
las raíces y los divisores
a.- f(x) =x3+x2-2x
d.- g(x) =x4-2x3+x2
c.- h(x) = x4-5x2+4
Veremos en una aplicación la importancia de la factorización de polinomios. En caso de ser
necesario ayúdese con una gráfica.
Se estaba diseñando un programa de computación para construir cajas con forma de prisma
recto de base rectangular. Por un problema con la computadora, se perdió información
sobre la medida de una de las aristas, pero se recuperó la medida de las otras dos como
función de la variable x; y de la expresión que me permite calcular el volumen del prisma.
Cómo puede hacerse para hallar la expresión que corresponde a la forma de cálculo de la
tercer arista c, si sabemos que:

V(x) =80x3+158x2+101x+21
Arista a = A(x) = 2x +1
Arista b = B(x) = 5x +3
Arista c = C(x) = ?
Se compró un terreno cuadrado, el cual se utilizó para sembrar semillas como se muestra en
la siguiente figura.
Plantear la expresión algebraica que representa el área del terreno
Hallar el área correspondiente a la siembra de maíz si la del trigo es 600 m

Ejemplo :

Sean 𝑃=−4𝑥3−6+5𝑥 y 𝑄=2𝑥−3


Para efectuar la división de los polinomios deben estar ordenados según las potencias
decrecientes de x y el polinomio dividendo debe estar completo.
𝑃=−4𝑥3+0𝑥2+5𝑥−6 ordenado y completo
𝑄=2𝑥−3 ordenado
Para efectuar la división de P por Q adoptaremos la siguiente disposición práctica:
(−4𝑥3+0𝑥2+5𝑥−6) : 2𝑥−3
+4𝑥3+6𝑥2 ( −2𝑥2−3𝑥−2)
−6𝑥2+5𝑥−6
+6𝑥2−9𝑥
−4𝑥−6
+4𝑥−6
-12
Luego:
El cociente 𝐶=−2𝑥2−3𝑥−2 y el resto 𝑅=−12
Si el dividendo es un polinomio de grado 𝑛 y el divisor es de la forma 𝑥−a , el cociente es
un polinomio de grado 𝑛−1, con el mismo coeficiente principal que el dividendo, el resto
es un polinomio nulo o un polinomio constante.
Ejemplo 15: sean 𝑃=5𝑥3−14𝑥+3 y 𝑄=𝑥−2
𝑃=5𝑥3+0𝑥2−14𝑥+3 ordenado y completo
𝑄=𝑥−2 ordenado
Luego:
El cociente 𝐶=5𝑥2+10𝑥+6 y el resto 𝑅=15
En este caso el esquema se puede simplificar aplicando la “regla de Ruffini”
En el ejemplo anterior, escribiendo solo los coeficientes:
Divisibilidad y raíces
Sean P y Q polinomios, Q≠0. En el caso particular en que el resto de la división de P por Q
es 0 decimos que la división es exacta, o que P es un múltiplo de Q, o Q es un factor de P, o
bien que Q divide a P.
Ejemplo 17: 𝑄=𝑥−2 divide a 𝑃=𝑥2−5𝑥+6 pues 𝑃=𝑥2−5𝑥+6=(𝑥−2)∙(𝑥−3)
Especialización, valuación o valor numérico de un polinomio
Sea “a” un número y P un polinomio de la forma 𝑎0+𝑎1.𝑥+𝑎2.𝑥2+.…..+𝑎n.𝑥n. Se llama
especialización, valuación o valor numérico de P en a, al número 𝑃(𝑎)=𝑎0+𝑎1.𝑎+𝑎2.𝑎2+.…..
+𝑎n.𝑎n
Ejemplo 19: sea 𝑃=5+2𝑥−𝑥2+6𝑥3−7𝑥4. Entonces:
(1)=5+2∙1−12+6∙13−7∙14=5
(−2)=−163
(0)=5

Teorema del resto


Sea “a” un número y P un polinomio. Entonces el valor numérico de P en “a” es igual
al resto de dividir P por “x-a”.
Aplicando el algoritmo de división, escribimos:
𝑃=(𝑥−𝑎)∙𝑄+𝑅 donde Q es el cociente y R es el resto.
Considerando el valor numérico del polinomio P en a, tenemos (𝑎)=(𝑎−𝑎)∙𝑄(𝑎)
+𝑅(𝑎)=0∙𝑄(𝑎)+𝑅=𝑅
Ya que, como x-a es un polinomio de grado uno, el resto R es cero o bien un polinomio de
grado cero, o sea en cualquier caso es un número real.
Ejemplo 21: el resto de dividir 𝑥3−2𝑥2+3𝑥+1 por 𝑥−2 es (2)=7.
Ejemplo 22: el resto de dividir 3𝑥4−6𝑥2+4𝑥+8 por 𝑥+1 es (−1)=1.
Raíz de un polinomio
Sea a un polinomio real y P un polinomio. Decimos que “a” es raíz (o cero) de P si P(a)=0.
Diremos que en ese caso P se anula en “a”.
Ejemplo 23: 2 y 3 son raíces o ceros del polinomio 𝑃=𝑥2−5𝑥+6
Ejemplo 24: -1 es raíz de 𝑃=𝑥3+3𝑥2+3𝑥+1
Corolario del teorema del resto
Un numero “a” es raíz de un polinomio P si y solo si “x-a” divide a P. En efecto, por el
teorema del resto, P(a) es el resto de dividir P por “x-a”. Luego si “a” es raíz, o sea si P(a)
=0, el resto de dividir P por “x-a” es cero, luego “x-a” divide a P.
Ejemplo 25: 1 es raíz del polinomio 𝑃=𝑥2−3𝑥+2 pues (1)=0
o equivalentemente 𝑥−1 divide a P, 𝑃=(𝑥−1)(𝑥−2)
3. Sea 𝑃=𝑎0+𝑎1.𝑥+𝑎2.𝑥2+.…..+𝑎n.𝑥n y 𝑥1,𝑥2,.…..,𝑥𝑛 sus n raíces, entonces podemos escribir
P como:
𝑃=(𝑥−𝑥1)∙(𝑥−𝑥2)∙……..∙(𝑥−𝑥𝑛)
En el ejemplo anterior:
𝑃=𝑥4+5𝑥3+6𝑥2−4𝑥−8=(𝑥+2)3∙(𝑥−1) 𝑐𝑜𝑛 𝑎𝑛=1.
Ejercicios
1.- (11x4)0(12x0)/6x

Rta: 2/𝑥

( 5 x 2 ) 4 ( 4 x 4 )2
2 .−
( 2 x8 )3
1250
Rta .
x8
14 x 8 y 4 −10x 6 y 5
3 .− 4 4
2x y

Rta. 7 x 4 −5 x 2 y
Rta: 12𝑥5𝑦−24𝑥4 𝑦4
4.- 4𝑥3 (3𝑥2 𝑦−6𝑥𝑦4 )

Rta: 12𝑥5 𝑦−24𝑥4 𝑦4

5.- −𝑥8 𝑦7 (𝑥7 𝑦11 –𝑥6 𝑦9 )

6.- En los siguientes ejercicios calcular el cociente y el resto de la división de P por Q

𝑃=𝑥4 −2𝑥3 −3𝑥2 +5𝑥−4; 𝑄=𝑥3−2𝑥+1


Rta: 𝐶=𝑥−2; 𝑅=−𝑥2−2

𝑃=2𝑥3−5𝑥+3 ;=𝑥2−2𝑥+4
Rta: 𝐶=2𝑥+4;=−5𝑥−13

2 3 2
P= x −5 x+2 ; Q=2−x −3 x
3

2 7
Rta . C=− x +2 ; R=− x−2
3 3

𝑃=𝑥4−14𝑥2+1; 𝑄=𝑥2−4𝑥+1
Rta: 𝐶=𝑥2+4𝑥+1;=0
7.- En los siguientes ejercicios calcular el cociente y el resto aplicando la regla de Ruffini.
a) 𝑃=𝑥4+5𝑥3−2𝑥2−𝑥+5;=𝑥−2; 𝑅𝑡𝑎: 𝐶=𝑥3+7𝑥2+12𝑥+23,=51
b) 𝑃=𝑥 −3𝑥 +2𝑥 −𝑥+3;=𝑥+1;
5 4 2
𝑅𝑡𝑎: 𝐶=𝑥4−4𝑥3+4𝑥2−2𝑥+1,=2
c) 𝑃=𝑥5−2𝑥2+3−6𝑥3+5𝑥;=𝑥−3; 𝑅𝑡𝑎: 𝐶=𝑥4−3𝑥3+3𝑥2+7𝑥+26,=81
d) 𝑃=𝑥 +5𝑥 −2𝑥−3 𝑄=𝑥−1
3 2
𝑅𝑡𝑎: 𝐶=𝑥2+6𝑥+4,=1
e) 𝑃=−𝑥3+7𝑥2+15𝑥−8 𝑄=𝑥+2 𝑅𝑡𝑎:𝐶=−𝑥2+9𝑥−3,=−2
f) 𝑃=𝑥 +𝑥 −3𝑥+6 𝑄=𝑥−2
4 3
𝑅𝑡𝑎:𝐶=𝑥3+3𝑥2+6𝑥+9,=24
g) 𝑃=3𝑥4−4𝑥3+𝑥2−7 𝑄=𝑥+1 𝑅𝑡𝑎: 𝐶=3𝑥3−7𝑥2+8𝑥−8,=1
8.- En los siguientes ejercicios calcular P(a):
a) 𝑃=𝑥4−3𝑥3−2𝑥2+7𝑥−5 𝑎=2 𝑅𝑡𝑎:(𝑎)=−7
b) 𝑃=8𝑥5+2𝑥3−4𝑥2−3𝑥+1 𝑎=−1 𝑅𝑡𝑎:(𝑎)=−10
c) 𝑃=𝑎𝑛𝑥𝑛+𝑎𝑛−1𝑥𝑛−1+⋯…+𝑎0 𝑎=0 𝑅𝑡𝑎:(𝑎)=𝑎0
9.- Hallar el resto que se obtiene al dividir el polinomio dado por el binomio que le sigue:
a) x3-3x2+4x-5; x-2 Rta. -1
b) x3+3x+5; x+1 Rta. 1
10.- En los siguientes ejercicios indicar si es exacta la división de P por (x-a)
a) 𝑃=𝑥4+2𝑥3+3𝑥−6 𝑎=1 𝑅𝑡𝑎:𝑠𝑖 𝑒𝑠 𝑒𝑥𝑎𝑐𝑡𝑎
b) 𝑃=−2𝑥3+5𝑥2−3𝑥+2 𝑎=−1 𝑅𝑡𝑎:𝑛𝑜 𝑒𝑠 𝑒𝑥𝑎𝑐𝑡𝑎
c) 𝑃=𝑥3+3𝑥2−8𝑥−4 𝑎=2 𝑅𝑡𝑎:𝑠𝑖 𝑒𝑠 𝑒𝑥𝑎𝑐𝑡𝑎
11.- Calcular las raíces del polinomio
𝑃=𝑥3−5𝑥2 𝑅𝑡𝑎:0 𝑑𝑜𝑏𝑙𝑒;5 𝑠𝑖𝑚𝑝𝑙𝑒

12.- Mostrar que el binomio x-a es un factor del polinomio dado:


a) 2x3+3x2-6x+1 x-1
b) 5x4+8x3+x2+2x+4 x+1
c) x3-4ax2+2a2x+a3; x-a
d) 3x3+2x2-4x+1; x – 1/3
e) x3-3x2+x-3; x-i
13.- Calcule el valor de k para el cual x-a sea un factor del polinomio dado
a.- x3+2x2+4x+K; x+1 Rta. K=3
b.- -x3+3x2+Kx-4; x-1 Rta. K=2
c.- x4-2x3-x2-3x-K; x-2 Rta. K =-10

14.- Determinar el valor de b para que el siguiente polinomio sea divisible por (x-2).
𝑃=𝑥3−𝑏𝑥2+5𝑥−1 Rta. B = 17/4

15.- Diga cuál es el grado de la función polinomial, halle los ceros de la misma e indique
cual es su multiplicidad.

a) f(x) = (x+4)5(x+2)2(x-3)3
Rta: grado=10; -4 orden 5; -2 orden 2; 3 orden 3
b) f(x) = (3x+17)3(3x+12)4
Rta: grado=7; -17/3 orden 3; -4 orden 4

16.- Determinar el polinomio de tercer grado, cuyas raíces son los números 2, -1, y 3, y el
coeficiente de 𝑥3 es el número 1.
𝑅𝑡𝑎:𝑥3−6𝑥2+11𝑥−6
17.- Determinar el polinomio de cuarto grado, cuyas raíces son los números 1, -1, 2 y 5 y
tal que 𝑓(0)=6.
18.- Determinar si el número 2 es raíz del polinomio P=x4−5x3+8x2−4x . En caso
afirmativo, dar su multiplicidad y, si es posible, las demás raíces.

19.- Factorizar las siguientes expresiones.

a) 14𝑥2−42𝑥𝑦 𝑅𝑡𝑎:14(𝑥−3𝑦)
b) 3𝑥3−6𝑥2+9𝑥 𝑅𝑡𝑎:3(𝑥2−2𝑥+3)
c) 9𝑥4−16𝑥6 𝑅𝑡𝑎:𝑥4(3+4𝑥)(3−4𝑥)

d) 𝑥4−81𝑦4 𝑅𝑡𝑎:(𝑥2+9𝑦2)(𝑥+3𝑦)
(𝑥−3𝑦)
e) 𝑥2−14𝑥+49 𝑅𝑡𝑎:(𝑥−7)2
f) 12𝑥2−13𝑥 𝑅𝑡𝑎:(12𝑥−13)
g) 𝑥𝑦−3𝑥+2𝑦−6 𝑅𝑡𝑎:(𝑥+2)(𝑦−3)

Matrices

En este tema estudiaremos las matrices como objeto matemático y su aplicación al estudio
de los sistemas de ecuaciones lineales. Veremos sus propiedades fundamentales, las
operaciones básicas, y una aplicación importante de estos conceptos. A partir de ahora
fijaremos un cuerpo de escalares, que llamaremos K. La definición de cuerpo se dará más
adelante. Por ahora es suficiente pensar que K es el conjunto de los números racionales,
reales o complejos, y que un escalar es uno de estos números.
Definición: Una matríz A es un arreglo o disposición rectángular de
números. Si el arreglo tiene m reglones (horizontales) y n columnas
(verticales),. Entonces se llama matríz mxn ( se lee matríz m por n. Se dice
que el tamaño o dimensión es m por n. O simplemente tenemos que : Se
denomina matríz a todo conjunto de números o expresiones dispuestos en
forma rectangular, formando filas y columnas.

La matríz mostrada se representa frecuentemente por (a) i j . Los números que


aparecen en la matríz son números reales a menos que se indique de otra
manera.
Elemento de una matríz
Cada uno de los números de que constan las matríces se denomina elemento.
Un elemento se distingue de otro por la posición que ocupa, es decir, la fila
y la columna a la que pertenece.
De este modo, una matríz puede ser de dimensión: 2x4, 3x2, 2x5 (2 filas y 5
columnas)….etc.
Si la matríz tiene el mismo número de filas que de columnas, se dice que es
de orden:2,3,4…etc.
El conjunto de matrices de m filas y n columnas se denota por A m x n o (a i j ).
Un elemento cualquiera de la misma, que se encuentra en la fila i y en la
columna j, se denota por a i j .
Matriz fila

Una matriz fila está constituida por una sola fila.

Matriz columna

La matriz columna tiene una sola columna


Ejemplo:

[
A= 2 −1 3
5 6 0 ] ,
B=
[−48 −26 ] , C=[ 1 3 4 ] y
D=
[ 15 ]
El arreglo A = (a i j ) es una matríz 2x3 ya que tiene dos reglones y tres
columnas, B = (b i j ) es una matríz 2x2, C es una matríz reglón 1x3 y D es
una matríz columna 2x1. El número -1 se encuentra en el primer reglón y
la segunda columna de A; esto es, a 1 2 =-1. Análogamente, b 2 2 =6.

Matrices iguales
Dos matrices son iguales cuando tienen la misma dimensión y los elementos
que ocupan el mismo lugar en ambas, son iguales.
Se dice que dos matrices A=(a i j ) y B = (b i j ) son iguales si son del mismo
tamaño y si sus componentes correspondientes son iguales (a i j = b i j para
cada elección de i de j). Si A y B son iguales, se escribe A=B. Si AS no es
igual a B, se escribe A≠B.

[
A= 2 4 6
8 0 1 ] [
B= 2 4 6
8 0 1 ] [
C= 2 4 6
8 0 3 ]
Las matrices A y B son iguales, pero ninguna es igual a C.
Matriz rectangular
La matriz rectangular tiene distinto número de filas que de columnas, siendo su
dimensión mxn.

Matriz traspuesta
Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene cambiando
ordenadamente las filas por las columnas.
(At)t = A

(A + B)t = At + Bt

(α ·A)t = α· At

(A · B)t = Bt · At

Matriz nula
En una matriz nula todos los elementos son ceros.

Matriz cuadrada y Matriz triangular


Una matriz se denomina matriz cuadrada si su número de reglones es igual a su número de
columnas. Se dice que una matriz nxn es de orden n.
Una clase particular de matrices, las triangulares, desempeña un papel importante en la
solución de sistemas de ecuaciones lineales. Para definir matrices triangulares,
examinaremos mas detenidamente las matrices cuadradas. Se dice que las componentes
a11,a22,a33, ……….,ann de una matriz cuadrada A están en la diagonal principal ( o
simplemente en la diagonal) de A:

[A=¿a1 a12 . .a1n¿][a21 a2 . . a2n¿][. .. . . ¿][. . . . ¿] ¿


¿
La matriz cuadrada tiene el mismo número de filas que de columnas.
Los elementos de la forma aii constituyen la diagonal principal.
Una matriz cuadrada A se llama diagonal si todas sus componentes distintas de cero
están en la diagonal. Por ejemplo:
[50 03 ] , [ 70 00 ] , [ ] [ ]
1 0 0 0 0 0
0 2 0 0 2 0
0 0 3 0 0 0

Son diagonales, mientras que


1 3
0 1
,
[ ]
no lo es. Nótese que una matriz diagonal puede
tener uno o más ceros en su diagonal.

Tipos de matrices cuadradas


Matriz triangular superior
Una matriz cuadrada se llama matriz triangular superior si todas sus
componentes que se encuentran abajo de los elementos situados por debajo
de la diagonal principal son ceros. Ejemplos

( )( )
1 7 −2 8 9 16

[ 10 63 ] 0 −3 4
0 0 2
0 4 5
0 0 0

Matriz triangular inferior


Una matriz cuadrada se llama matriz triangular inferior si todas sus
componentes que se encuentran debajo de los elementos situados por encima
de la diagonal principal son ceros. Ejemplos:

( ) ( )
2 0 0 3 0 0
1 2 0
3 5 6 (79 01 ) 4 0 0
1 1 2

Matriz diagonal
En una matriz diagonal todos los elementos que no están situados en la
diagonal principal son nulos.
Matriz escalar
Una matriz escalar es una matriz diagonal en la que los elementos de la
diagonal principal son iguales.

Matriz identidad o unidad


Una matriz identidad es una matriz diagonal en la que los elementos de la
diagonal principal son iguales a 1.

Matriz regular

Una matriz regular es una matriz cuadrada que tiene inversa.

Matriz singular

Una matriz singular no tiene matriz inversa .


Matriz idempotente
Una matriz, A, es idempotente si:

A 2 = A.

Matriz involutiva

Una matriz, A, es involutiva si:

A 2 = I.

Matriz simétrica
Una matriz simétrica es una matriz cuadrada que verifica:

A = At.

Matriz antisimétrica o hemisimétrica


Una matriz antisimétrica o hemisimétrica es una matriz cuadrada que
verifica:
A = −A t .
Matriz ortogonal

Una matriz es ortogonal si verifica que :

A · A t = I.

Suma de Matrices

Definición:

La suma de matrices es una operación sencilla. La suma de dos matrices


del mismo tamaño se obtiene sumando las componentes correspondientes
de las matrices. Sea A = (a i j ) y B = (b i j ) dos matrices mxn. La suma A+B
de las dos matrices es la matriz mxn.

A + B = (a i j ) + (b i j ) = (a i j + b i j )

( )
a11 +b 11 a12 +b 12 . . . a1n +b1 n
a 21+b 21 a22 +b 22 . . . a2n +b2 n
. . . . . .
. . . . . .
. . . . . .
am 1 +b m 1 a m 2 +b m 2 . . . a mn +b mn

Propiedades de la suma de matrices


1. Interna
La suma de dos matrices de orden m x n es otra matriz dimensión m x n.
2. Asociativa

A + (B + C) = (A + B) + C
3. Elemento neutro
A + 0 = A
Donde O es la matriz nula de la misma dimensión que la matriz A.
3. Elemento opuesto

A + (−A) = O
La matriz opuesta es aquella en que todos los elementos están cambiados
de signo.

4. Conmutativa

A + B = B + A

Multiplicación d Matrices
Dada una matriz A = (aij) y un número real k , se define el producto de un número real
por una matriz: a la matriz de la misma dimensión que A, en la que cada elemento está
multiplicado por k.

k · A = (k · aij)

Propiedades

a · (b · A) = (a · b) · A donde A Mmxn , a, b
2
a · (A + B) = a · A + a · B donde A, B Mmxn , a
3
(a + b) · A = a · A + b · A donde A Mmxn , a, b

41·A=A
()
b1
b2
B= .
.
bn
Definición: Sea A = (a1,a2,………an) un vector reglón n-dimensional y sea un
vector columna n-dimensional. Entonces el producto, AB, de A y B está dado por:

()
b1
b2
.
.
bn
AB = (a1,a2,………an)
AB= a1b1 + a2b2+……….+ anbn

Dos matrices A y B se dicen multiplicables si el número de columnas de A coincide con


el número de filas de B.
Am x n x Bn x p = Cm x p
El elemento cij de la matriz producto se obtiene multiplicando cada elemento de la
fila i de la matriz A por cada elemento de la columna j de la matriz B y sumándolos.
Ejemplo

B=¿[3 ¿] [6 ¿]¿¿¿
A= [ 2 4 6] y ¿ .
[ 3 ¿] [ 6 ¿ ] ¿ ¿
AB=[ 2 4 6] ¿ = 2 x 3 + 4 x 6 + 6 x 9 = 84
Propiedades del producto de matrices

Asociativa:

A · (B · C) = (A · B) · C

Elemento neutro:

A·I=A

Donde I es la matriz identidad del mismo orden que la matriz A.

Distributiva del producto respecto de la suma:

A · (B + C) = A · B + A · C

No es Conmutativa:

A·B≠B·A

Ejemplo
Podemos ver que en este caso, A · B ≠ B · A, de hecho ni si quiera tienen la misma
dimensión, pues A · B ∈ M2x2 y B · A ∈ M3x3. Mmxn

Si premultiplicamos (multiplicamos por la izquierda) o posmultiplicamos (multiplicamos


por la derecha) una matriz cuadrada por su inversa obtenemos la matriz identidad.

A · A−1 = A−1 · A = I

Propiedades

1 (A · B)−1 = B−1 · A−1

2 (A−1)−1 = A

3 (k · A)−1 = k−1 · A−1

4 (At)−1 = (A−1)t

Transformaciones elementales de filas: matrices escalonadas y reducidas.


A la hora de aplicar las matrices al estudio de los sistemas de ecuaciones lineales, y para
estudiar las propiedades de los determinantes, una herramienta esencial consiste en las
llamadas transformaciones elementales de matrices, que se definen como sigue.
Las transformaciones elementales de filas que se pueden aplicar a una matriz, son las
siguientes:

1. Intercambiar dos filas.


2. Multiplicar una fila por un escalar no nulo.
3. Añadir a una fila un múltiplo no nulo de otra.

A partir de esta definición, se obtiene el siguiente concepto:


Diremos que dos matrices son equivalentes por filas si podemos obtener una, a partir de la
otra, mediante transformaciones elementales de filas.
Gracias a las transformaciones elementales de filas, podremos siempre transformar
cualquier matriz en otra, equivalente por filas, que es más sencilla desde un punto de vista
que veremos más adelante. Estas matrices sencillas vienen definidas a continuación.
Diremos que una matriz es escalonada por filas si cumple lo siguiente:

1. Todas las filas de ceros (si las hay) están en la parte inferior de la matriz.
2. En las filas que no sean de ceros, el primer término no nulo de una fila está más a la
izquierda del primer término no nulo de la fila siguiente.

Ejemplo : La siguiente matriz es escalonada por filas:

( 2 −1 0 3 4 ¿ ) ( 0 3 −2 1 0 ¿ ) ( 0 0 5 ¿ ) ( 0 0 0 ¿ ) ¿
¿
Un método para transformar cualquier matriz en una escalonada por filas es el siguiente:
El método de eliminación de Gauss aplicado a una matriz, la transforma en una matriz
equivalente que es escalonada por filas. Consiste en los siguientes pasos:
Paso 1: Si es necesario, intercambiar la primera fila con otra, para que la primera columna
que no sea de ceros tenga un elemento no nulo en la primera posición.
Paso 2: Sumar a cada fila un múltiplo adecuado de la primera, de manera que la primera
columna que no sea de ceros tenga sólo un elemento no nulo: el de la primera fila.
Paso 3: Ignorando temporalmente la primera fila, repetir todo el proceso con las restantes
filas.
Como este proceso da lugar, claramente, a una matriz escalonada por filas, hemos
demostrado el siguiente resultado:
Proposición. Toda matriz m×n es equivalente por filas a otra matriz m×n escalonada por
filas.
Demostración: Sólo hay que aplicar a la matriz inicial el método de eliminación de Gauss.
A continuación veremos cómo, usando transformaciones elementales, podemos obtener
matrices aún más sencillas que la escalonada por filas: las matrices reducidas por filas.
Diremos que una matriz es reducida por filas si cumple lo siguiente:
1. Es escalonada por filas.
2. El primer elemento no nulo de cada fila, llamado pivote, es 1.
3. Encima (y debajo) de cada pivote sólo hay ceros.

Ejemplo. La siguiente matriz es reducida por filas:

( 1 0 4 3 0 ¿ ) ( 0 1 −1 2 0 ¿ ) ( 0 0 1 ¿ ) ( 0 0 0 ¿ ) ¿
¿
Se tiene entonces:
Método de eliminación de Gauss-Jordan para transformar una matriz en otra equivalente
por filas, que sea reducida por filas:
Paso 1: Aplicar a la matriz el método de Gauss.
Paso 2: Multiplicar cada fila no nula por un escalar conveniente, de manera que todos los
pivotes sean 1.
Paso 3: Comenzando por el pivote más a la derecha, eliminar todos los elementos no nulos
que tenga encima, sumándole a cada fila un múltiplo conveniente de la fila de este pivote.
Realizar la misma operación con todos los pivotes, de derecha a izquierda.
Después de aplicar este método a una matriz, se obtiene claramente otra matriz equivalente
(puesto que se han aplicado transformaciones elementales de filas) que es reducida por filas
(por construcción). Hemos probado por tanto el siguiente resultado:

Teorema. Toda matriz m×n es equivalente por filas a otra matriz m×n reducida por filas.
Demostración: Basta con aplicar a la matriz inicial el método de eliminación de Gauss-
Jordan.
Una propiedad importante de la forma reducida por filas equivalente a una matriz dada es
que es única. Pero aún no tenemos las herramientas suficientes para demostrar esto.
Cálculo de la Matríz inversa por el método de Gauss

Sea A una matriz cuadrada de orden n. Para calcular la matriz inversa


de A, que denotaremos como A − 1 , seguiremos los siguientes pasos:

Construir una matriz del tipo M = (A | I), es decir, A está en la mitad


izquierda de M y la matriz identidad I en la derecha.
Consideremos una matriz 3x3 arbitraria:

La ampliamos con la matriz identidad de orden 3.


Utilizando el método Gauss vamos a transformar la mitad izquierda, A, en
la matriz identidad, que ahora está a la derecha, y la matriz que resulte en
el lado derecho será la matriz inversa: A − 1 .

F2 = F2 − F1

F3 = F3 + F2

F2 = F2 − F3

F1 = F1 + F2

F 2 = (−1) F 2

La matriz inversa es:


1. Una matríz A se denomina escalonada, o se dice que está en forma escalonada, si se
cumplen las dos condiciones siguientes:

a.- Todas las filas nulas, si las hay, están en la parte inferior de la matríz
b.- Cada entrada principal no nula está a la derecha de la entrada principal no nula de la fila
precedente.

Ejemplo: Las siguientes matrices son escalonadas cuyas entradas principales no nulas se
han marcado en circulo:

(2 320 43−6¿)(0 011−3 2 0¿)(0 000 062¿) ¿ (1 2 3¿)(0 0 1¿)¿¿¿ (0 1 3 0 0 4¿) (0 0 0 3 0 −3¿)¿¿¿
¿ ¿ ¿
Se dice que una matríz escalonada A se ha puesto en forma canónica por filas si tiene las
dos propiedades siguientes:
a.- Cada entrada principal no nula es 1
b.- Cada entrada principal no nula es la única entrada distinta de cero en su columna

La matríz cero, 0, con cualquier número de filas y de columnas, es otro ejemplo de matríz
en forma canónica por filas.

A=¿(1 2 −3 0¿) (2 4 −2 2¿) ¿¿¿


2.- La matríz ¿ reducirla a forma escalonada mediante
operaciones elementales entre filas.

Utilizando como pivote a11 = 1 para obtener ceros bajo a11, esto es, efectuando las
operaciones entre filas, -2R1 + R2 R2 y -3R1 + R3 R3, para obtener la matríz;

A=¿(1 2 −3 0¿) (0 0 4 2¿) ¿¿¿


¿
Ahora utilizando a23=4 como pivote para obtener un cero bajo a 23, esto es, la operación
entre filas -5R2 +4R3 R3 obteniendo la matríz

A=¿(1 2 −3 0¿) (0 0 4 2¿) ¿¿¿


¿ La matríz está ahora en forma escalonada.

A=¿(2 3 4 5 6¿) (0 0 3 2 5¿) ¿¿¿


3.- Sea la matríz ¿ reducir a forma canónica.

Multiplicamos R3 por ¼ de forma que su entrada principal no nula sea 1; entonces


utilizando a35 =1 como pivote para obtener ceros sobre el efectuando las operaciones:
-5R3+R2 R2 y -6R3 +R1 R1

A=¿ ( 2 3 4 5 6¿)( 0 0 3 2 5¿) ¿ ¿¿


¿

Multiplicamos R2 por 1/3 de modo que su entrada principal no nula sea 1; entonces

utilizamos a23 =1 como pivote para conseguir un cero encima, con la operación:

-4R2+R1 R1 :

1
(
A=¿ ( 2 3 4 5 0¿) 0 0 1 3 0 ¿ ¿ ¿¿ )
¿
Finalmente, multiplicamos R1 por ½ obteniendo:

( )( )
3 7 2
A=¿ 1 2 0 6 0¿ 0 0 1 3 0 ¿ ¿¿¿ Esta matríz es la forma canónica por fila de A.
¿
A =¿ ( 1 −2 3 ¿ )¿ ¿ ¿
4.- Sean ¿

A+B=¿ (1 +3 −2+0 3+2¿ ) ¿ ¿¿ ¿


¿
¿
La suma de matrices con tamaños diferentes no está definida.
La matríz mxn cuyas entradas son todas nulas se conoce como matríz cero y se denota
como 0mxn o simplemente 0.

( 0 0 0 ¿ ) ¿ ¿¿
¿

5. Multiplicar matrices.

( 8 , −4 , 5 ) ¿ ( 3 ¿ ) ( 2 ¿ ) ¿ ¿
a.- ¿
(r s ¿) ¿ ¿ ¿
b.- ¿
(1 2 ¿) ¿¿ ¿
c.- ¿

A=¿ ( 2 −1¿ )( 1 0 ¿ ) ¿ ¿¿
6.- Dadas ¿ Hallar AB y BA

A =¿ ( 1 3 5 ¿) ¿ ¿ ¿
7.- Dada ¿

AT =¿(1 6¿)(3 −7¿) ¿¿¿ ( A T )T =¿ ( 1 3 5 ¿ ) ¿ ¿¿


¿ y ¿

A =¿ ( 1 2 0 ¿) ¿ ¿ ¿
8.- Dado ¿
9.- Evaluar CD mediante multiplicación por bloques, siendo:

C=¿ ( 1 2 0 0 0¿ ) ( 3 4 0 0 0¿ ) ( 0 0 5 1 2¿ ) ¿ ¿¿
¿
¿
CD=¿ ¿ ¿ ¿ ¿
¿
10.- Matrices Invertibles (no singulares)
Se dice que una matríz cuadrada A es invertible ( o no singular) si existe una matríz B con
la propiedad de que: AB=BA=I
Siendo I la matríz identidad. Tal matríz es única. Denominamos a la matríz B la inversa de
A y la denotamos por A-1.

A=¿ ( 1 0 2 ¿ )( 2 −1 3 ¿ ) ¿ ¿¿
a) Supongamos, ¿ ,entonces

AB=¿ (−11+0+12 2+0−2 2+0−2¿)(−22+4+18 4+0−3 4−1−3¿) ¿ ¿


¿
A =¿ ( 2 5 ¿ )¿ ¿ ¿
b) Supongamos ¿

AB=¿ ( 2 5 ¿ ) ¿ ¿ ¿ ¿
¿
¿
c) Luego para poder encontrar la inversa, consideremos en forma general una matríz
2x2.

A=¿ ( a b ¿ ) ¿ ¿¿
¿ Podemos determinar cuándo A es invertible y, en caso de serlo, dar una
fórmula para su inversa. Buscamos escalares x,y,z,t tales que:
(a b ¿) ¿ ¿ ¿
¿ , lo cual se reduce a

resolver los dos sistemas:

{ ax+bz=1¿ ¿¿¿
11.- Matrices simétricas. Una matríz real es simétrica si A T=A. Equivalentemente, A=(aij)
es simétrica si los elementos simétricos son iguales, es decir, si cada a ij = aji. Nótese que A
debe ser cuadrada para que pueda ser AT=A.
Una matríz es antisimétrica si AT= - A, equivalentemente, una matríz A=(aij) es
antisimétrica si cada aij = - aji. Claramente, los elementos diagonales de una matríz
antisimétrica deben ser nulos, ya que aii = -aii implica aii = 0.

Ejemplos. Consideremos las siguientes matríces:

A=¿ ( 2 −3 5 ¿ ) (−3 6 7 ¿) ¿ ¿ ¿
¿
a) Por simple inspección, vemos que los elementos simétricos de A son iguales, o que
AT= A. Siendo así, A es simétrica.
b) Por inspección, vemos que los elementos diagonales de B son 0 y que los elementos
simétricos son opuestos entre sí. De este modo B es antisimétrica.
c) Como C no es cuadrada, no es simétrica ni antisimétrica.

Dependencia e independencia lineal

En álgebra lineal, un conjunto de vectores es linealmente independiente si ninguno de


ellos puede ser escrito con una combinación lineal de los restantes. Por ejemplo, en R3, el
conjunto de vectores (1, 0, 0), (0, 1, 0) y (0, 0, 1) es linealmente independiente, mientras
que (2, −1, 1), (1, 0, 1) y (3, −1, 2) no lo es, ya que el tercero es la suma de los dos
primeros.
Dado un conjunto de vectores v1,v2,v3,,,,,,,,,,,,,,,vn se dice que estos vectores son linealmente
independiente si existen números a1,a2,a3, …………..,an donde la ecuación:
a1v1+ a2v2+ a3v3,,,,,,,,,,,,,+, an,vn = 0
Se satisface unicamente cuando, a1,a2,a3, …………..,an son todas ceros.
1.3. Dependencia lineal y rango.
El concepto de dependencia lineal de vectores es fundamental para el estudio de matrices,
sistemas lineales y, como veremos en temas posteriores, espacios vectoriales.
Geométricamente, un vector de n coordenada se representa, en el espacio de dimensión n,
como una flecha que parte del origen y termina en el punto que tiene esas coordenadas.
Las operaciones básicas de matrices, aplicadas a vectores, se ven geométricamente como
sigue:
Multiplicar un vector por un escalar (digamos, un número real), equivale a multiplicar la
longitud del vector por ese escalar.
Sumar dos vectores v1 y v2 corresponde al siguiente procedimiento: Si se traslada el vector
v2, sin cambiar su dirección ni su tamaño, hasta hacer que su comienzo coincida con el final
del vector v1, entonces vector v1 + v2 es el que une el origen de coordenadas con el final de
este nuevo vector v2.
Dados r vectores v1, . . . , vr de la misma dimensión, llamamos combinación lineal de estos
vectores a cualquier expresión de la forma:
α1 v1 + α2v2 + · · · + αrvr, donde α1, . . . , αr son escalares cualesquiera. Es decir, una
combinación lineal de r vectores es otro vector, que resulta de cambiar el tamaño de cada
uno de los vectores iniciales, y sumar los resultados (haciendo comenzar cada vector en el
final del vector precedente).
Ejemplo Una combinación lineal de un sólo vector, v, tiene la forma αv, donde α es un
escalar. Por tanto es otro vector con la misma dirección que v, y cuyo tamaño es α veces el
tamaño de v. Por tanto, αv está en la recta determinada por v.
Ejemplo Una combinación de dos vectores de R 3 es otro vector que está en el plano
determinado por estos dos vectores.
Diremos que un vector v depende linealmente de un conjunto de vectores {v 1, . . . , vr} si v
se puede escribir como combinación lineal de v1, . . . , vr.
Ejemplo El vector (3,−2, 2) depende linealmente de los vectores (1, 0, 2) y (−1, 2, 2), ya
que se tiene la combinación lineal:
( 3 ¿ ) (−2 ¿ ) ( 2 ¿ ) ¿ ( 1 ¿ ) ( 0 ¿ ) ¿ ¿ (−1 ¿ ) ( 2 ¿ ) ( 2 ¿ ) ¿
¿ = 2¿ +(-1) ¿
Ejemplo El vector 0, con todas sus coordenadas nulas, depende linealmente de cualquier
conjunto de vectores. Basta tomar todos los coeficientes 0 en la combinación lineal.
Ejemplo Cualquier vector depende linealmente de un conjunto de vectores que lo
contenga. Basta tomar su coeficiente 1, y todos los demás 0. Hay otra forma de ver la
dependencia lineal:
Diremos que un sistema (o conjunto) de vectores de la misma dimensión S = {v 1, . . . , vr}
es linealmente dependiente, si existen r escalares α1, . . . , αr,
no todos nulos, tales que
α1v1 + α2v2 + · · · + αrvr = 0.
En caso contrario, es decir, si la única forma de escribir el vector 0 como combinación
lineal de estos vectores es tomando α 1 = α2 = · · · = α r = 0, diremos que el sistema S es
linealmente independiente o libre.
La relación entre esta definición de dependencia lineal y la anterior viene dada por el
siguiente resultado.
Lema Un sistema de vectores {v1, . . . , vr} es linealmente dependiente si y sólo si uno de
ellos es combinación lineal de los demás.
Demostración: Directa.
Si en un sistema de vectores, uno de ellos es combinación lineal de los demás, ese vector
“sobra”, desde el punto de vista geométrico. Es decir, si lo quitamos del sistema, el
conjunto de vectores que se puede definir como combinación lineal de los vectores del
sistema sigue siendo el mismo. Podríamos, por tanto, ir eliminando vectores del sistema,
hasta que no pudiéramos eliminar más; es decir, hasta que el sistema fuera linealmente
independiente.
En efecto, se tiene:
Teorema Dado un sistema de r vectores S = {v1, . . . , vr}, no todos nulos, se verifica:
1. Existe al menos un sistema S’ ⊂ S linealmente independiente; y todos los demás vectores
de S dependen linealmente de los de S’.
2. Todos los sistemas S’ que satisfacen la condición anterior tienen el mismo número de
elementos. A este número lo llamamos rango de S.
Demostración: La demostración de 1 ya está esbozada arriba. Para demostrar 2, se supone
que se tienen dos subsistemas libres, S 1 y S2, con distinto número de vectores. Si S 2 tiene
más vectores que S1, se demuestra que 0 puede escribirse como una combinación lineal no
trivial de los elementos de S 2, escribiendo éstos como combinación lineal de los de S 1, y
usando que un sistema homogéneo con menos ecuaciones que incógnitas tiene soluciones
no triviales, como veremos en el teorema de Rouchè-Frobenius.
El rango de un sistema de vectores se puede también definir como sigue: El rango de un
sistema de vectores S es el tamaño del mayor sistema libre que se puede formar con los
vectores de S.
Ahora relacionaremos, de forma muy sencilla, los sistemas de vectores con las matrices.
Simplemente, a un sistema de m vectores de dimensión n, le asociamos una matriz m×n,
donde cada fila es un vector del sistema. Así, podemos definir: El rango de una matriz es el
rango del sistema de vectores formado por sus filas.
Al rango de una matriz A lo denotaremos rg(A).
Si ahora modificamos la matriz, usando transformaciones elementales de filas, estaremos
modificando el sistema de vectores asociado. Podemos, por tanto, intercambiar la posición
de los vectores, multiplicar un vector por un escalar no nulo, o sumar a un vector un
múltiplo no nulo de otro. Pero en cualquier caso, se tiene:
Lema Las transformaciones elementales de filas no alteran del rango de una matriz.
Demostración: Directa, usando la definición de rango de un sistema de vectores. Gracias a
este resultado, podremos calcular fácilmente el rango de una matriz:
Teorema Consideremos una matriz A∈ Mm×n, y sea A’ una matriz reducida equivalente
por filas a A. Entonces, el rango de A es igual al número de filas no nulas de A’.
Demostración: Sólo hay que ver que las filas no nulas de A ’ forman un sistema libre. Se
forma una combinación lineal igualada a cero, y se ve que las coordenadas de los pivotes
sólo se pueden anular si el coeficiente de esa fila es nulo.
Nota: Acabamos de probar que el número de filas no nulas de la forma reducida por filas de
una matriz, está determinado por la matriz. Además, cualquier forma escalonada de la
misma matriz debe también tener el mismo número de filas no nulas.
Rango de una matriz: es el número de líneas de esa matriz (filas o
columnas) que son linealmente independientes.
Una línea es linealmente dependiente de otra u otras cuando se puede
establecer una combinación lineal entre ellas.
Una línea es linealmente independiente de otra u otras cuando no se puede
establecer una combinación lineal entre ellas.

Rango

El rango de una matriz A se simboliza: rang(A) o r(A).

Ejercicios

1Dadas las matrices:

Calcular:

A + B; A − B; A x B; B x A; At.

2Demostrar que: A 2 − A − 2I = 0, siendo:

3 Sea A la matriz . Hallar A n , para n


4Por qué matriz hay que premultiplicar la matriz

para que resulte la matriz .

5Calcular la matriz inversa de:

6 Obtener las matrices A y B que verifiquen el sistema:

7 Calcular el rango de la matriz siguiente:


1Sean las matrices:

Efectuar las siguientes operaciones:

(A + B) 2 ; (A − B) 2 ; (B) 3 ; A · B t · C.

2Sean las matrices:

Justificar si son posibles los siguientes productos:


1. (A t · B ) · C
2. (B · C t ) · A t

Determinar la dimensión de M para que pueda efectuarse el producto


A · M · C
3Determina la dimensión de M para que C t · M sea una matriz
cuadrada.

3Hallar todas las matrices que conmuten con la matriz:

1Calcular por el método de Gauss la matriz inversa de:


2Calcular por el método de Gauss la matriz inversa de:

Hallar el rango de la matriz siguiente:

Calcular por el método de Gauss el rango de la matriz siguiente:

Hallar por el método de Gauss el rango de la matriz siguiente:


Determinantes

Introducción y Reglas
Los determinantes nos permiten saber la compatibilidad de los sistemas de ecuaciones
lineales y nos facilitan la obtención de la solución en el caso de sistemas compatibles
determinados (Regla de Cramer).
También tienen otras aplicaciones, por ejemplo: podemos usarlos para determinar si un
conjunto de vectores son linealmente independientes y por tanto, forma una base del
espacio vectorial; para obtener ecuaciones de planos, superfícies, rectas, etc.
En reaildad, las aplicaciones anteriores se basan en la invertibilidad de las matrices. Si una
matriz (cuadrada) es regular, su determinante es distinto de 0; si no lo es, es decir, si es
singular, vale 0.
En esta sección vamos a calcular determinantes de matrices (cuadradas) de dimensiones 2,
3 y 4, siendo una de ellas de entradas complejas. Para el caso de dimensión 3 usaremos la
regla de Sarrus y para dimensión 4, el desarrollo por filas o columnas de Laplace.

El determinante se define para matrices cuadradas. Su definición formal es complicada y se


basa en el conjunto de permutaciones, pero existen varios métodos para calcularlos según la
dimensión de la matriz:

 Si la dimensión es 1, la matriz es de la forma

Se define su determinante como:

 Si la dimensión es 2, la matriz es de la forma

Se define su determinante como:

Puede servir como regla mnemotécnica el diagrama


 Si la dimensión es 3, la matriz es de la forma

Se define su determinante como:

La fórmula anterior se conoce como la Regla de Sarrus.

 Si la dimensión es mayor o igual que 4 tenemos que desarrollar el determinante


por Laplace

por la fila i de A como

o por la columna j de A como

 Si la matriz es diagonal, el determinante es el producto de los elementos de la


diagonal.

. Calcular por determinantes el rango de la matriz:


Hallar por determinantes el rango de la matriz:

Calcular por determinantes el rango de la matriz:

Determinar por determinantes el rango de la matriz:

Siendo:

Resolver la ecuación matricial:

A X + 2 B = 3 C
Dadas las matrices:

Resolver la ecuación:

A · X = B

Dadas las matrices:

Resolver la ecuación:

X · A + B = C

Siendo:

Calcular el valor de X en las siguientes ecuaciones:


Siendo :

Resolver la ecuación matricial:

A X + 2 B = 3 C

Resolver las ecuación matricial:

A · X + 2 · B = 3 · C

Rango de una matriz

El rango de una matriz Es el número de filas (o columnas) linealmente independientes.


Utilizando esta definición se puede calcular usando el método de Gauss.

También podemos decir que el rango es: el orden de la mayor submatriz cuadrada no nula.
Utilizando esta definición se puede calcular el rango usando determinantes.

Cálculo del rango de una matriz por determinantes


1 Podemos descartar una fila (o columna) si:

Todos sus coeficientes son ceros.

Hay dos filas (o columnas) iguales.

Una fila (o columna) es proporcional a otra.

Una fila (o columna) es combinación lineal de otras.

Suprimimos la tercera columna porque es combinación lineal de las dos primeras: c 3 =


c1 + c2.

Comprobamos si tiene rango mayor o igual que 1, para ello se tiene que cumplir que al
menos un elemento de la matriz no sea cero y por tanto su determinante no será nulo.

|2|=2≠0

Tendrá rango mayor o igual que 2 si existe alguna submatriz cuadrada de orden 2, tal
que su determinante no sea nulo.

Tendrá rango mayor o igual que 3 si existe alguna submatriz cuadrada de orden 3, tal
que su determinante no sea nulo.
Como todos los determinantes de las submatrices son nulos tiene rango menor que 3,
por tanto r(B) = 2.
En general, los pasos a seguir para el cálculo del rango por determinates
son:
El rango es el orden de la mayor submatriz cuadrada no nula.
Descartamos las filas (o columnas) que cumplan las condiciones vistas
anteriormente.
Si al menos un elemento de la matriz no es cero su determinante no será
nulo y, por tanto, el rango será mayor o igual a 1.
El rango será mayor o igual a 2 si existe alguna submatriz cuadrada de
orden 2, tal que su determinante no sea nulo.
El rango será mayor o igual a 3 si existe alguna submatriz cuadrada de
orden 3, tal que su determinante no sea nulo.
El rango será mayor o igual a 4 si existe alguna submatriz cuadrada de
orden 4, tal que su determinante no sea nulo.
De este mismo modo se trabaja para comprobar si tiene rango superior a
4, hasta que la submatriz (o las submatrices) del mayor orden posible
tenga (o tengan) determinante nulo.
Por otra parte considerando la definición de rango de una matríz A Como:
“El rango de una Matríz A es igual al número de reglones no nulos de
cualquier forma escalonada por reglones correspondiente a A”.
Determinar el rang(A), donde:

[ ]
1 3 −4 2
1 7 4 6
2 1 3 0 Solución: Mediante la reducción por reglones, se tiene:

[ ][ ][ ]
1 3 −4 2 1 3 −4 2 1 3 −4 2
1 7 4 6 →0 4 8 4 →0 1 2 1
2 1 3 0 0 −5 11 −4 0 −5 11 −4
][ ]
1 3 −4 2

[
1 3 −4 2
0 1 2 1
→0 1 2 1 →
1
0 0 21 1 0 0 1
21

Hay en total tres reglones no nulos: por consiguiente, rang(A) = 3


Ejercicios:

1.−. 1 [ ]
3

[ ]
−1 −3 2
5 2 5 .− 2 6 −4

[ ]
5 1 3 3 9 −6

[ ]
2.− 6 2 0 0 3 −4 5
4 0 1 6 .− 2 22 0 −2

[ ]
1 8 4 −6
3.− 3 4 1
2 5 6

[ ] [ ]
4 1
1 1 3 7 .− −2 5
4 .− 0 4 −3 6 3
3 11 3

[ ]
1 0 3 0
2 5 −1 6
8 .−
4 1 0 1
0 −2 4 −1

Sistemas de ecuaciones lineales.


Comenzaremos viendo un ejemplo del tipo de ecuaciones que vamos a estudiar:
2x + y = 5
x−y=1
Se trata de un sistema lineal de dos ecuaciones con dos incógnitas. Este sistema se puede
ver desde varias perspectivas:
Desde el punto de vista geométrico, cada una de las dos ecuaciones representa una recta en
el plano. Resolver el sistema consiste en hallar (si los hay) los puntos de corte de las dos
rectas. Esa es la razón de que estos sistema se llamen lineales.
Desde el punto de vista algebraico, el problema consiste simplemente en hallar dos
números, x e y, que satisfagan las dos igualdades. Las ecuaciones son lineales porque cada
término (excepto los términos independientes) tiene grado 1.
Si nos quedamos en el marco algebraico, nada nos impide generalizar el concepto de
ecuación lineal a más de dos incógnitas, y el de sistema lineal a más de dos ecuaciones. Así,
tenemos las siguientes definiciones:
Ecuación lineal: Es una expresión de la forma
a1x1 + a2x2 + · · · + anxn = b, donde a1, a2, . . . , an y b son nùmeros conocidos, y x 1, x2, . . . ,
xn son incógnitas.
Una solución de la ecuación lineal anterior es una serie de números α 1, . . . , αn, que la
satisfagan, es decir, que verifiquen:
a1α1 + a2α2 + · · · + anαn = b.
Sistema lineal: Un sistema lineal de m ecuaciones con n incógnitas es una expresión de la
forma:
a11x1 + a12x2 + · · · + a1nxn = b1
a21x1 + a22x2 + · · · + a2nxn = b2
...
...
...
am1x1 + am2x2 + · · · + amnxn = bm,

donde cada fila es una ecuación lineal diferente, aunque las n incógnitas, x 1, . . . , xn, son las
mismas para todas ellas.
Una solución del sistema lineal es una serie de números α 1, . . . , α n, que satisfagan las m
ecuaciones, es decir, tales que
a11α1 + a12α2 + · · · + a1nαn = b1
a21α1 + a22α2 + · · · + a2nαn = b2
...
...
...
am1α1 + am2α2 + · · · + amnαn = bm.
Diremos que un sistema lineal es:
compatible: si admite alguna solución,
incompatible: si no la admite.
Dado un sistema compatible, diremos que es:
Compatible determinado: si admite una única solución.
Compatible indeterminado: si admite más de una. En este último caso veremos que
admite infinitas soluciones.
Ejemplos:
Intersección de dos rectas en el plano. Tres casos posibles, según las rectas sean
1. Secantes Solución única.
2. Paralelas Ninguna solución.
3. Coincidentes Infinitas soluciones.
Intersección de dos o tres planos en el espacio (de dimensión 3).

Un caso especial importante de sistemas lineales es el siguiente:


Un sistema lineal se dice homogéneo si todos sus términos independientes son nulos. Es
decir, si es de la forma:
a11x1 + a12x2 + · · · + a1nxn = 0
a21x1 + a22x2 + · · · + a2nxn = 0
...
...
am1x1 + am2x2 + · · · + amnxn = 0.

Nota: Hasta ahora hemos hablado de números, sin especificar de qué tipo de números se
trata. En esta asignatura usaremos, salvo que se especifique lo contrario, los números
racionales (Q), reales (R) o complejos (C). Aunque también se puede utilizar cualquier otro
tipo de “números”, siempre que verifiquen una serie de condiciones, que veremos más
adelante. Por tanto, a partir de ahora, en vez de números diremos escalares, y al conjunto de
números que estemos utilizando lo llamaremos cuerpo de escalares o simplemente cuerpo.
La definición de cuerpo se verá más adelante. Por ahora basta con pensar que un escalar es
un número racional, real o complejo.
Método de eliminación de Gauss.
Para resolver sistemas de ecuaciones de cualquier tipo, una de las estrategias más utilizadas
consiste en ir simplificando el sistema, de manera que sea cada vez más fácil de resolver,
pero que siga teniendo las mismas soluciones que el sistema original. Por tanto, debemos
usar el siguiente concepto:
Dos sistemas de ecuaciones lineales son equivalentes si toda solución de uno es también
solución del otro.
Algunas de las operaciones que se pueden aplicar a un sistema, de manera que se obtenga
un sistema equivalente, son las siguientes:
1. Intercambiar dos ecuaciones.
2. Multiplicar una ecuación por un escalar distinto de cero.
3. Añadir a una ecuación un múltiplo no nulo de otra.
Observemos cómo estas tres operaciones recuerdan mucho a las transformaciones
elementales que definimos para las filas de una matriz. En efecto, se trata esencialmente de
las mismas operaciones, puesto que a todo sistema lineal de m ecuaciones y n incógnitas,
de la forma:
a11x1 + a12x2 + · · · + a1nxn = b1
a21x1 + a22x2 + · · · + a2nxn = b2
...
...
...
am1x1 + am2x2 + · · · + amnxn = bm,
le podemos asociar su matriz de coeficientes:

(a1 a12. . . a1n¿)(a21 a2 . . . a2n¿)(. .¿)(. .¿) ¿


¿ ,
y añadiéndole la columna de términos independientes, obtendremos la llamada matriz
ampliada:

(a1 a12. . . a1n b1¿)(a21 a2 . . . a2nb2¿)(. .¿)(. .¿) ¿


¿ .
Esta matriz contiene toda la información del sistema: cada fila corresponde a una ecuación.
Así, aplicar las operaciones arriba indicadas a un sistema, equivale a aplicar las
correspondientes transformaciones elementales de filas a su matriz ampliada.
Curiosamente, si recordamos el método de Gauss para transformar una matriz en otra
escalonada por filas, el mismo método aplicado a sistemas lineales nos servirá para resolver
el sistema.
El Método de eliminación de Gauss, para resolver un sistema lineal, consiste en aplicar al
sistema las tres operaciones básicas anteriores, de la siguiente forma:
Paso 1: Si es necesario, intercambiar la primera ecuación con otra, para que x 1 aparezca en
la primera ecuación.
Paso 2: Eliminar x1 de cada ecuación (salvo la primera), sumándole un múltiplo adecuado
de la primera ecuación.
Paso 3: Ignorando temporalmente la primera ecuación, repetir todo el proceso con las
restantes ecuaciones, que forman un sistema de (m−1) ecuaciones con menos de n
incógnitas. Al terminar de aplicar el método de eliminación de Gauss, habremos
transformado el sistema en otro equivalente, pero que va a ser muy fácil de resolver, puesto
que su matriz ampliada es escalonada. Como veremos, podremos encontrarnos tres casos
diferentes, así que vamos a estudiar tres ejemplos, uno de cada caso.

Ejemplo Resolver el sistema:


x1 + x2 − x3 = 1
2x1 + x2 + 3x3 = 2
3x1 + 2x2 + 2x3 = −1
x1 + x2 − x3 = 1
− x2 + 5x3 = 0
0 = −4 .
La última ecuación queda 0 = −4, por tanto este sistema es imposible de resolver: El
sistema no tiene solución.

Ejemplo Resolver el sistema:


x1 + x2 − x3 = 1
2x1 + x2 − 3x3 = −2
x1 + 2x2 + 2x3 = 9

x1 + x2 − x3 = 1
− x2 − x3 = −4
2x3 = 4 .
De la ´ultima ecuación se obtiene x 3 = 2. Sustituyendo en la segunda ecuación, se tiene x 2 =
2. Por último, sustituyendo estos dos valores en la primera ecuación, queda x 1 = 1. Por
tanto, el sistema tiene solución única.
Resolver el sistema:
x1 + x2 − x3 = 1
2x1 + x2 + 3x3 = 2
3x1 + 3x2 + 2x3 = 3

x1 + x2 − x3 = 1
− x2 + 5x3 = 0
0=0.
La última ecuación, 0 = 0, se verifica siempre. La segunda ecuación nos dice que x 2 = 5x3.
Sustituyendo esto en la primera ecuación, obtenemos x1 = 1 − 4x3.
Ya no quedan más condiciones que imponer, por tanto, tenemos libertad para elegir el valor
de x3. Si le damos, por ejemplo, el valor x 3 = 1, obtendremos la solución x1 = −3, x2 = 5, x3
= 1. Si le damos el valor x3 = 0, obtendremos la solución x1 = 1, x2 = 0, x3 = 0. Y así
podríamos seguir indefinidamente. Es decir, tendremos una solución distinta para cada
valor que le demos a x3. Por tanto, el sistema tiene infinitas soluciones.
Estudiemos ya estos tres casos de forma general. Tomamos el sistema y le aplicamos el
método de eliminación de Gauss. Observemos lo siguiente: el primer término no nulo (si
existe) de la ecuación i será de la forma c ijxj , para un cierto valor j. Como este índice j
depende de i, lo llamaremos ji. Supongamos que, después de la eliminación de Gauss, nos
quedan r ecuaciones no nulas. En este caso tendremos, por construcción: j1 < j2 < · · · < jr.
Es decir, el primer elemento no nulo de cada fila estarà más a la derecha que el de la fila
anterior. El sistema obtenido tendrá, por tanto, la siguiente forma:
c11x1 + · · · + c1j2xj2 + · · · + c1jrxjr + · · · + c1nxn = d1
c2j2xj2 + · · · + c2jrxjr + · · · + c2nxn = d2
...
......
crjrxjr + · · · + crnxn = dr
0 = dr+1
0=0
...
...
0 = 0.
Se nos pueden presentar ahora tres casos:
Caso 1: El tèrmino independiente dr+1 ≠ 0.
En este caso, la ecuación r + 1 no puede cumplirse nunca. Por tanto, no existe solución para
el sistema inicial.
Caso 2: dr+1 = 0 y r = n.
En este caso, hay tantas ecuaciones no nulas como incógnitas. Pero como sabemos que j 1 <
j2 < · · · < jn, el sistema habrà quedado de la forma:

c11x1 + c12x2 + · · · + c1 n−1xn−1 + c1nxn = d1


c22x2 + · · · + c2 n−1xn−1 + c2nxn = d2
...
...
...
...
cn−1 n−1xn−1 + cnnxn = dn−1
cnnxn = dn
0=0
...
...
0 = 0.
dn
De la n-èsima ecuación, deducimos que el único valor posible para x n es xn = c nn .
Sustituyendo el valor de xn en la ecuación n − 1, vemos que también hay un único valor
posible para xn−1. Podemos seguir así, sustituyendo y despejando, ya que en la ecuación i,
tendremos:
d i−ci , i+1 x i+1 −. .. .. .−cin x n
xi = c ii .
Si sabemos que las variables xi+1, . . . , xn deben tomar un único valor, pasará lo mismo con
xi. Cuando lleguemos a la primera ecuación, habremos obtenido un único valor para cada
variable xn, xn−1, · · · , x2, x1. Es decir, en este caso el sistema tiene solución única.
Caso 3: dr+1 = 0 y r < n.
En este caso, tendremos unas variables especiales, x j1 , xj2 , . . . , xjr , que son las
correspondientes al primer término no nulo de cada fila. Vamos a llamarlas variables
pivote. Procedemos ahora de forma parecida al caso anterior. En la ecuación r, la única
variable pivote que aparece es xjr . Podemos despejarla, por tanto, en función de las
variables no-pivote:
d r −c rj x jr+ 1−. .. . ..−c rn x n
r +1

c rj r
xjr = .
Del mismo modo, en la ecuación r−1, podemos despejar x jr−1 en función de las variables xk,
con k > jr+1. La única variable pivote que aparece es xjr . Pero ésta ya sabemos escribirla en
función de las variables no-pivote. Por tanto, sustituimos su valor, y sabremos escribir x jr−1
en función de las variables no-pivote.
Continuamos de este modo, de forma ascendente, y al finalizar sabremos escribir todas las
variables pivote xj1 , xj2 , . . . , xjr , en función de las no-pivote. Es importante darse cuenta
de que hemos usado todas las ecuaciones del sistema. Es decir, el sistema no nos impone
ninguna condición más. Por tanto, si le damos cualquier valor a las variables no-pivote,
habremos determinado también el valor de las variables pivote, y por tanto habremos
obtenido una solución del sistema. Pero, al tener libertad absoluta para elegir los valores de
las variables no-pivote, deducimos que el sistema tiene infinitas soluciones. Acabamos de
demostrar lo siguiente:
Teorema Si un sistema lineal es compatible indeterminado, entonces tiene infinitas
soluciones.
Nota: Si el sistema es homogéneo, es imposible que se dé el caso 1. Por tanto, un sistema
homogéneo es siempre compatible. Es más, si el sistema homogéneo es compatible
determinado, entonces su única solución es x1 = x2 = · · · = xn = 0, llamada solución trivial.
Método de Gauss-Jordan. Teorema de Rouchè-Frobenius.
Al igual que el método de Gauss, el método de Gauss-Jordan para calcular una reducida por
filas también puede aplicarse a los sistemas de ecuaciones lineales, para transformarlo en
otro sistema equivalente que se resuelva fácilmente.
Método de eliminación de Gauss-Jordan para resolver un sistema lineal:
Paso 1: Aplicar al sistema el método de Gauss.
Paso 2: Multiplicar cada ecuación no nula por un escalar conveniente, de manera que el
coeficiente de la variable pivote sea 1.
Paso 3: Comenzando por el pivote más a la derecha, x jr, eliminar esta variable de cada
ecuación (salvo la ecuación r), sumándole un múltiplo conveniente de la ecuación r.
Realizar la misma operación con todos los pivotes, de derecha a izquierda.
Veamos cómo funciona este método con un ejemplo:
Ejemplo Resolver el sistema:
x1 + x2 + x3 + 4x4 = 4
2x1 + 5x2 + 5x3 − x4 = 11
x1 + 2x2 + x3 + x4 = 3

x1 + 7x4 = 3
x2 − 3x4 = −1
x3 = 2 .
Para dar la solución del sistema sólo hay que despejar cada variable pivote, con lo que se
obtiene:
x1 = 3 − 7x4
x2 = −1 + 3x4
x3 = 2.
Para obtener estos resultados se despeja x1+x2 de la ec.1 y se reemplaza en ec. 3,
obteniendo: x2-3x4=-1
Se multiplica por 5 la ec., 1 y se resta con ec.2, obteniendo x1+7x4 = 3. Finalmente se
despejan: x1 y x2 de estas últimas ecuaciones y se reemplazan en ec. 1, para obtener x3=2.
Finalmente el sistema queda:
x1 + 7x4 = 3
x2 − 3x4 = −1
x3 = 2 .

Este método, en realidad, realiza las mismas operaciones que el método anterior, cuando
íbamos despejando y sustituyendo cada variable pivote. En vez de eso, se aplican más
operaciones elementales, de forma que cada variable pivote aparezca sólo en una ecuación,
con coeficiente 1. Por tanto, se puede escribir directamente en función de las variables no
pivote.
Notemos que el número de variables pivote (r) no cambia. Además, se tienen las mismas
tres posibilidades que antes. Es decir, si llamamos di al término independiente de la
ecuación i, después de aplicar el método de Gauss-Jordan, se tiene:
Si dr+1 ≠ 0, el sistema no tiene solución.
Si dr+1 = 0 y r = n, el sistema tiene solución única.
Si dr+1 = 0 y r < n, el sistema tiene infinitas soluciones.
Este resultado se puede traducir de la siguiente manera: Sabemos que el sistema tiene r
variables pivote, luego el rango de la matriz de coeficientes es igual a r. La matriz
ampliada, por su parte, puede tener rango bien r+1, bien r, dependiendo de si admite un
pivote más, es decir, de si dr+1 ≠ 0 o bien dr+1 = 0. Por tanto, las tres posibilidades arriba
descritas se pueden expresar usando los rangos de la matriz de coeficientes y la matriz
ampliada, con lo que obtenemos el siguiente resultado fundamental del álgebra lineal:
Teorema (Teorema de Rouchè-Frobenius) Dado un sistema lineal de m ecuaciones con n
incógnitas, sea A su matriz de coeficientes y A’ su matriz ampliada. Se tiene:
El sistema es incompatible si y sólo si rg(A) < rg(A’).
El sistema es compatible determinado si y sólo si rg(A) = rg(A’) = n.
El sistema es compatible indeterminado si y sólo si rg(A) = rg(A’) < n.
Regla de Cramer.
Terminamos este tema viendo cómo las propiedades de los determinantes también pueden
ayudar a resolver los sistemas lineales. En primer lugar, un sistema lineal puede verse como
un producto de matrices. De hecho, si llamamos A a la matriz de coeficientes, x al vector
columna cuyas entradas son las incógnitas, y b al vector columna cuyas entradas son los
términos independientes, entonces el sistema puede escribirse:
Ax = b.
Es decir,

(a11. .... ..a1n ¿)(..... ¿) (. . ..¿)¿¿¿


¿ .
En el caso particular en el que A sea una matriz cuadrada (tantas ecuaciones como
incógnitas), y no singular, el sistema se puede resolver usando inversas o determinantes. En
efecto, si A es no singular, entonces es invertible, y por tanto podemos despejar:
Ax = b x = A-1 b.
En otras palabras, cada coordenada del vector A-1b nos da el valor de cada incógnita. Esto
coincide con lo que sabemos: como A es no singular, entonces rg(A) = n, luego el sistema
es compatible determinado.
Pero veremos otra forma de resolverlo: la regla de Cramer, que nos va a permitir calcular
explícitamente el valor de cada incógnita, por medio de los determinantes.
La regla de Cramer es un resultado clásico, que puede tener aplicaciones teóricas. Pero en
la práctica, si se quiere resolver un sistema lineal, es mucho más eficaz calcular la
escalonada por filas de la matriz ampliada, usando el método de Gauss, e ir despejando las
variables pivote. Además, este último método sirve para cualquier sistema, mientras que la
regla de Cramer sólo es válida para matrices cuadradas no singulares.

Ejercicios.
Resolver el sistema de ecuaciones lineales
3x-5y+11z+2w=15
2x-4y+6z+2w=8
Multiplica la segunda ecuación por ½ para obtener
3x-5y+11z+2w=15
x-2y+3z+w=4
Se intercambian las dos ecuaciones de manera que la variable x de la primera ecuación
tenga coeficiente 1
x-2y+3z+w=4
3x-5y+11z+2w=15
Se suma la primera ecuación multiplicada por -3 a la segunda, se tiene
x-2y+3z+w=4
y+2z-w=3
Haciendo z =a y w =b y despejando, se obtiene y = b-2 a +3. Por último sustituyendo este
valor se obtiene, z=a y w=b en la primera ecuación para luego despejar x. De esta maneras
x= b – 7 a + 10.
El conjunto de soluciones de este sistema es:
x= b – 7 a + 10.
y = b-2 a +3.
z =a
w =b (método eliminación Gaussiana)
Problema
Una cafetería estudiantil tiene 24 mesas, x mesas con cuatro asientos cada una, y mesas con
6 asientos cada una y z mesas con diez asientos cada una. La capacidad total de asientos de
la cafetería es de 148. Con motivo de una reunión estudiantil especial, se emplearán la
mitad de las x mesas, un cuarto de las y mesas y una tercera parte de las z mesas, para un
total de 9 mesas. Deteminar x, y, z.

Solución:Las condiciones del problemas da lugar al siguiente sistema de ecuaciones.


x + y + z =24
4x + 6y +10z =148
½ x+ 1/4y + 1/3z =9
Multiplicando la segunda ecuación por ½ y la tercera por 12 resulta.
x + y + z =24
2x + 3y +5z =74
6x +3y +4z =108
Sumando la primera ecuación por -2 a la segunda se obtiene:
x + y + z =24
y + 3z =26
6x +3y +4z =108
Ahora se suma a la última ecuación la primera multiplicada por -6:
x + y + z =24
y + 3z =26
-3y – 2z = -36
Se completa el proceso sumando a la tercera ecuación la segunda multiplicada por 3:
x + y + z =24
y + 3z =26
7z = 42
Por lo tanto z = 6 . Por sustitución de retroceso se obtiene x = 10 e y =8

Resuelva el siguiente sistema de ecuaciones lineales por eliminación gaussiana.


3x – 15y + 6z =75
4x – 18y =70
-5x + 28y – 5z =-119

Ejercicios
1.- Determine cuales de las ecuaciones son lineales en las variables x,y,z
3x -15y + z =4 senx + 2cosy = 8z πx – (log3)y + z =0 x2 – 4y2 3z =19
2.- Encuentre el conjunto de solución de cada una de las ecuaciones.
x – 3y =5 2x + y = 6 x + 47 - 3z = 7 3x – y + 10z =19
3.- Determine cuáles de los siguientes sistemas de ecuaciones lineales son consistentes y
cuales son inconsistentes.
3x + 2y = 7 5x = 3y + 7 2x – 4y =11 3x + 4y + z = 4
6x + 4 = -4y 15x - 9y = 21 x + 12y = 6 -6x – 8y – 2z = 7
12x + 16y + 4z = 3
4.- Resuelva cada sistema de ecuaciones lineales por eliminación gaussiana

2x + 4y =26 x + 3y = 6 8x -3y = -34 x+y+z=3


5x-3y = -13 4x + 12y = 24 2x + 5y = 26 2x – 3y + 4z =1
14x – 11y = -94 3x + 2y + 5z = 8

2x + y – z = 3
x–y+z=6

Matrices aumentadas y eliminación de Gauss-Jordan

Hay una forma sencilla de describir sistemas de ecuaciones lineales que permite efectuar
los pasos básicos de la eliminación gaussiana trabajando con los coeficientes del sistema
sin tener que ocuparse de las variables. Después del siguiente sistema de ecuaciones
lineales aparece un arreglo o disposición de los números que ocurren en las ecuaciones.

3 x 1 + 2 x 2 − x3 ¿ 4
5 x1 + x3 ¿ 6

[ 3 2 −1 4
5 0 1 6 ]
Hay dos puntos que observar en la disposición o arreglo. Las variables en todas las
ecuaciones deben escribirse en un mismo orden. Las variables en todas las ecuaciones
deben escribirse en un mismo orden, y las variables deben quedar “alineadas”. Como en el
ejemplo anterior, 5x1 debe aparecer debajo de 3x1, y así sucesivamente.
Un arreglo rectangular de números se denomina matriz. En este caso recibe el nombre de
Matriz Aumentada del sistema. Los reglones (líneas horizontales) de la matriz aumentada
contiene los coeficientes de la ecuación correspondiente junto con el término constante de
dicha ecuación

Ejemplo.
La matriz aumentada del sistema de ecuaciones lineales
[ ]
4 x1 −5 x 2 +x 3 −10 x 4 ¿ 5 4 −5 1 −10 5
x 1 +7 x 2 +14 x 4 ¿ 0 1 7 0 14 0
x 2 −x 3 ¿ 8 0 1 −1 0 8
x4 ¿ 2 es
0 0 0 1 2

La matriz

[16 5 3 8 −2
]
9 4 7 10 es la matriz aumentada del sistema de ecuaciones lineales

x +5 x 2 +3 x 3 +8 x 4 ¿ −2
6 x 1 +9 x 2 +4 x 3 +7 x 4 ¿ 10

Resolver el siguiente sistema de ecuaciones lineales

x1 +3 x 2 +2 x 3 ¿ −1
x2 +4 x 3 ¿ −7
2 x1 +7 x 2 +6 x 3 ¿ −5
x2 +2 x 3 ¿ −3

Solución:

[ ]
1 3 2 −1
0 1 4 −7
2 7 6 −5
La matriz ampliada será:
0 1 2 −3

Sumamos la primera ecuación multiplicada por -2 a la tercera para eliminar la variable x 1


de la tercera ecuación.

[ ]
1 3 2 −1
0 1 4 −7
0 1 2 −3
0 1 2 −3

Puesto que las filas tres y cuatro son iguales, se resta la tercera de la cuarta :
[ ]
1 3 2 −1
0 1 4 −7
0 1 2 −3
0 0 0 0

Restamos la segunda de la tercera. Esto elimina la variable x2 de la tercera ecuación.

[ ]
1 3 2 −1
0 1 4 −7
0 0 −2 4
0 0 0 0

Dividimos la tercera por -2

[ ]
1 3 2 −1
0 1 4 −7
0 0 1 −2
0 0 0 0 Luego el sistema queda:

x 1 +3 x 2 +2 x 3 ¿ −1
x 2 +4 x 3 ¿ −7
x3 ¿ −2

Como x3 = -2 reemplamos en la ecuación dos y obtenemos x2 y después reemplazamos en


ecuación uno y obtenemos x1

Ejerccicios

1.- Encuentre la matriz aumentada

3 x 1 −5 x 2 ¿ 6 8 x 1 +4 x 2 ¿ 0
x 1 +2 x 2 ¿ 7 9 x 1 −3 x 2 ¿ −4
4 x1 − 6 x 3 +x 4 ¿ 22
x 1 +2 x2 −6 x 3 ¿ 15 x1 −x 2 +x 3 −x 4 ¿ 1
8 x 1 −15 x 2 ¿ 12 8 x 1 +x 2 −4 x3 ¿ 11
2 x 1 +16 x 2 −x 3 ¿ 56 12 x1 −3 x 2 ¿ 43
2.- Encuentre el sistema de ecuaciones correspondiente a cada una de las matrices
aumentadas.

[31 −2 15
23 0 ] [10 3 5 7 9 11
2 4 6 8 10 ]
[ ][ ]
1 −2 4 3 3 4 6 8 4 8 0
4 0 8 11 3 5 1 8 2 0 1
0 0 12 5 0 4 7 0 2 1 1

3.- Determine si las siguientes matrices son de forma escalonada por reglones

[ ]
3 1 0
[ ]
1 0
1 1
0 1 2
0 0 1

[ ][ ]
1 0 1 1 1 1 2
0 1 3 0 0 1 3
1 0 0 0 0 0 1

4.- Suponga que cada matriz dada es una forma escalonada por reglones de la matriz
aumentada de un sistema de ecuaciones lineales. Resuelva los sistemas de ecuaciones.
[ ][ ]
1 2 3 9 1 3 −2 4
0 1 4 9 0 1 −1 5
0 0 1 2 0 0 0 0

[ ][ ]
1 −2 −5 7 1 0 −3 5
0 0 0 0 0 0 1 2
0 0 0 0 0 0 0 4

5.-Resolver los sistemas de ecuaciones

x 1 −2 x 2 ¿ −1 x1 +7 x 2 +4 x 3 ¿ 33 3 x1 −9 x 2 −6 x 3 ¿ 15
3 x 1 +5 x 2 ¿ 30 6 x1 +46 x 2 +4 x 3 ¿ 86 6 x1 −11 x 2 −5 x 3 ¿ 86
5 x 1 +x 2 ¿ 28 9 x 1 +74 x 2 +16 x3 ¿ 7 −3 x 1 −5 x 2 −8 x 3 ¿ −127

3 x 1 −3 x 2 +12 x 3 +3 x 4 ¿ 6
6 x 2 −18 x 3 ¿ 24
3 x 1 +2 x 2 +12 x 3 +8 x 4 ¿ 46
x1 +2 x 2 +3 x 3 ¿ 6
x1 +4 x 3 +2 x 4 ¿ 10
2 x1 +3 x 2 +9 x 3 ¿ 8
9 x 1 −4 x 2 +36 x 3 +14 x 4 ¿ 58

x1 +2 x2 −2 x 3 ¿ 0
4 x 1 +8 x 2 −5 x 3 ¿ 0
3 x 1 +x 2 −6 x 3 ¿ 0

Vectores

Un vector fijo es un segmento orientado que va del punto A (origen) al punto B


(extremo).
Un vector tiene:

Una dirección

La direcccíon del vector es la dirección de la recta que contiene al vector o


de cualquier recta paralela a ella.

Un sentido

El sentido del vector es el que va desde el origen A al extremo B.

El módulo del vector es la longitud del segmento AB, se representa por

Módulo de un vector a partir de sus componentes


Módulo a partir de las coordenadas de los puntos

COORDENADAS DE UN VECTOR

Si las coordenadas de los puntos extremos, A y B, son:

Las c oordenadas del vector son las coordenadas del extremo menos
l as c oordenadas del origen .
Clasificación de vectores

Vectores equipolentes

Dos vectores son equipolentes cuando tienen igual módulo, dirección y sentido .
Vectores libres

El conjunto de todos los vectores equipolentes entre sí se llama vector libre . Es


decir los vectores libres tienen el mismo módulo , dirección y sentido .

Vectores fijos
Un vector fijo es un representante del vector libre . Es decir, los vectores
fi j os t i enen el mismo módulo, dirección, sentido y origen.

Vectores ligados

Los ve ctores ligados son vectores equipolentes que actúan en la misma recta. Es
decir, los vectores fijos tienen el mismo módulo , dirección , sentido y se encuentran
en la misma recta .

Vectores opuestos

Los ve ctores opuestos tienen el mismo módulo , dirección , y distinto sentido .

Vectores unitarios
L os ve ctores untario tienen de módulo , la unidad .

Para obtener un vector unitario, de la misma dirección y sentido que


e l ve c tor dado se divide éste por su módulo .

Vectores concurrentes

L os vectores concurrentes tienen el mismo origen .

Vector de posición

E l ve c tor que une el origen de coordenadas O con un punto P se


l l a m a vector de posición del punto P.

Vectores linealmente dependientes


Varios vectores libres del plano son linealmente dependientes si existe una combinación
lineal de ellos que sea igual al vector cero , sin que sean cero todos
los c oe ficientes de la combinación lineal .

Vectores linealmente independientes

Va ri os vectores libres son linealmente independientes si ninguno de


e l l os se puede expresar como combinación lineal de los otros.

a1 = a2 = ··· = an = 0

Vectores ortogonales
Dos ve ctores son ortogonales o perpendiculares si su producto
e sc al ar es cero .

Vectores ortonormales

Dos ve c tores son ortonormales si:


1. Su producto escalar es cero.
2. Los dos vectores son unitarios .
Producto Vectorial

El producto vectorial y el producto escalar son las dos formas de multiplicar vectores que
se realizan en la mayoría de las aplicaciones de Física y Astronomía. La magnitud del
producto vectorial de dos vectores es el resultado de multiplicar las magnitudes de cada
vector y por el seno del ángulo que forman ambos vectores (< 180 grados) entre ellos. La
magnitud del producto vectorial se representa de la forma:
y la dirección es dada por la regla de la mano derecha. Si los vectores se expresan por
medio de sus vectores unitarios i, j, y k en las direcciones x, y, y z, entonces el producto
vectorial, se expresa de esta forma bastante engorrosa:

que corresponde al desarrollo de la forma mas compacta de un determinante del producto


vectorial.

Determinante del Producto Vectorial

El producto vectorial se representa de forma compacta por medio de un determinante que


para el caso de dimensión 3x3 tiene un desarrollo matemático conveniente:

A partir de esta forma familiar, podemos desarrollarlo para obtener su forma expandida:

Definición geométrica del producto escalar en un espacio euclídeo real


A • B = |A| |B| cos(θ). |A| cos(θ) es la proyección escalar de A en B.
El producto escalar de dos vectores en un espacio euclídeo se define como el producto de
sus módulos por el coseno del ángulo ɵ que forman.

A⋅B = |A||B|Cos ( θ )= ABCos ( θ )


U⋅V
En los espacios euclídeos, la notación usual de producto escalar es
Esta definición de carácter geométrico es independiente del sistema de coordenadas elegido
y por lo tanto de la base del espacio vectorial escogida.

Proyección de un vector sobre otro


Puesto que |A| cos θ representa el módulo de la proyección del vector A sobre la dirección
del vector B, esto es |A| cos θ = proy AB, será
A⋅B=|B|( proyecA B )

de modo que el producto escalar de dos vectores también puede definirse como el producto
del módulo de uno de ellos por la proyección del otro sobre él.
Ángulos entre dos vectores

La expresión geométrica del producto escalar permite calcular el coseno del ángulo
existente entre los vectores, mediante la siguiente definición formal: que nos dice que la
multiplicación de un escalar denominado K tiene que ser diferente de cero.
A⋅B
Cosθ=
‖A‖‖B‖
Vectores ortogonales

Dos vectores son ortogonales o perpendiculares cuando forman ángulo recto entre sí. Si
el producto escalar de dos vectores es cero, ambos vectores son ortogonales

A⋅B=0 ⇒ A perpendicular a B
π
Cos =0
2
ya que el .
Vectores paralelos o en una misma dirección

Dos vectores son paralelos o llevan la misma dirección si el ángulo que forman es de
0 radianes (0 grados) o de π radianes (180 grados).
Cuando dos vectores forman un ángulo cero, el valor del coseno es la unidad, por lo tanto el
producto de los módulos vale lo mismo que el producto escalar.

A⋅B=ABCos θ⇔|Cos θ|=1⇒|A⋅B|=|A||B|


Propiedades del producto escalar

Sean A, B y C vectores en el plano o en el espacio y sea m un escalar:


1. Conmutativa:
AB =BA
2. Distributiva respecto a la suma vectorial:
A(B+C) =AB + AC
3. Asociatividad respecto al producto por un escalar m:
m(AB)=(mA)B = A(mB)

Expresión analítica del producto escalar


Si los vectores A y B se expresan en función de sus componentes cartesianas x,y,z
rectangulares, tomando la base canónica formada por los vectores unitarios i , j , k
tenemos:

A=Axi + Ayj +Azk


B = Bxi + Byj + Bzkj

El producto escalar se realiza como un producto matricial de la siguiente forma:

A⋅B=[ A x A y A z ] ¿ [ B x ¿ ][ B y ¿ ] ¿
¿
¿
Así, generalizando para un espacio de n dimensiones
A⋅B=[ A1 A2 A3. . . . . . An] ¿ [ B 1 ¿ ] [ B2 ¿ ] [ B3 ¿ ] [ . ¿ ] [ . ¿ ] [ . ¿ ] ¿
¿
¿
Estructuras algebraicas.
En temas anteriores hemos definido matrices y vectores, estudiando algunas de sus
propiedades. También hemos trabajado con cuerpos de escalares, suponiendo que se trataba
de Q, R o C, pero sin dar más detalles. Ahora vamos a estudiar con rigor estos conceptos.
Definiremos algunas de las principales estructuras que se utilizan en álgebra, como son:
grupos, anillos, cuerpos y espacios vectoriales. A continuación nos centraremos en la
estructura que se estudia en esta asignatura: los espacios vectoriales.
Las estructuras algebraicas son conjuntos donde hay definidas ciertas operaciones, que
satisfacen unas determinadas propiedades. Las operaciones pueden ser de varios tipos. Por
ejemplo, una operación interna, definida en un conjunto X, es una función que a dos
elementos de X (dados en orden), le hace corresponder otro elemento de X. Es decir, una
función
p:X×X X.
Por ejemplo, p podría ser la suma, la diferencia o la multiplicación de números reales.
Observemos que, en ocasiones (la diferencia de números reales, por ejemplo) el orden en
que se den los dos elementos implicados influye en el resultado.
Cuando se trabaja con una operación interna, se suele utilizar un símbolo, por ejemplo ¿ de
manera que el resultado de aplicar la operación a dos elementos, a y b, se escribe a¿ b.
Un ejemplo típico es el símbolo + para la suma de números. En ocasiones, ni siquiera se
utiliza símbolo alguno, como en el caso del producto de números, donde ab representa el
producto de a y b.
La primera estructura algebraica que estudiaremos, una de las más básicas y utilizadas, es la
de grupo:
Grupo: Sea G un conjunto no vacio, y sea ¿ una operación interna definida en G. Se dice
que (G, ¿ ) es un grupo, si se cumplen las siguientes propiedades:
1. Asociativa: (a ¿ b) ¿ c = a ¿ (b ¿ c), ∀ a, b, c ∈ G.
2. Elemento neutro: ∃ e ∈ G tal que a ¿ e = e ¿ a = a, ∀ a∈ G.
´0
3. Elemento opuesto: ∀ a ∈ G, ∃ a ∈ G tal que a ¿ a0 = a0 ¿ a = e.
Normalmente, la operación interna ¿ será la suma o el producto de elementos. En la
notación aditiva, el elemento neutro se denota 0, y el elemento opuesto a a se denota −a. En
la notación multiplicativa, el elemento neutro se denota 1, y el elemento opuesto a a, que en
1
a−1 o
este caso se llama el inverso de a, se suele denotar a.
Sea (G, ¿) un grupo. Se dice que G es conmutativo o abeliano si, además de las
propiedades de grupo, verifica la siguiente:
4. Propiedad conmutativa: a ¿ b = b ¿ a, ∀ a, b ∈ G.
Ejemplo: Algunos ejemplos de grupos son los siguientes:
(Z, +), (Q, +), (R, +) y (C, +) son grupos abelianos aditivos. (Q\{0}, ·), (R\{0}, ·) y (C\{0},
·), donde · se refiere al producto, son grupos abelianos multiplicativos.
El conjunto de matrices Mm×n(K), donde K es un cuerpo (ahora veremos la definición de
cuerpo), junto con la suma de matrices, es un grupo abeliano aditivo.
El conjunto de matrices cuadradas no singulares de Mn×n(K), donde K es un cuerpo, junto
con la multiplicación de matrices, forma un grupo que se llama Grupo lineal de orden n
sobre K, y se denota Gl(n,K). Este grupo no es abeliano.
El conjunto de matrices cuadradas de Mn×n(K) con determinante igual a 1, junto con la
multiplicación de matrices, forma un grupo que se llama Grupo especial lineal de orden n
sobre K, y se denota Sl(n,K). Tampoco es abeliano.
Los vectores de n coordenadas, con la suma de vectores, forman un grupo abeliano.
En ocasiones, se define más de una operación interna sobre un conjunto. Existen estructuras
que dependen de dos o más operaciones. Por ejemplo, la más sencilla es la estructura de
anillo. Usaremos las notaciones tradicionales, + y ·, para las dos operaciones internas, pero
debemos recordar que pueden ser operaciones cualesquiera verificando las condiciones de
la definición:
Anillo: Sea A un conjunto no vacío, y sean +, · dos operaciones internas, que llamaremos
suma y producto, definidas en A. Se dice que (A,+, ·) es un anillo, si se cumplen las
siguientes propiedades:
1. (A, +) es un grupo abeliano.
2. Propiedad asociativa del producto: (a·b) ·c = a·(b ·c), ∀ a, b, c ∈ A.
3. Propiedad distributiva del producto respecto a la suma:
a · (b + c) = a · b + a · c, ∀ a, b, c ∈ A,
(a + b) · c = a · c + b · c, ∀ a, b, c ∈ A.
Si se verifica alguna propiedad más, tenemos tipos especiales de anillos:
Dado un anillo (A,+, ·), se dice que es unitario, o que tiene elemento unidad, si cumple la
siguiente propiedad:
Elemento neutro: ∃ u ∈ A tal que a · u = u · a = a ∀ a ∈ A.
Dado un anillo (A,+, ·), se dice que es conmutativo si cumple la siguiente propiedad:
Propiedad conmutativa: a · b = b · a, ∀ a, b ∈ A.
Ejemplo Algunos ejemplos de anillo son los siguientes:
(Z,+, ·), (Q,+, ·), (R,+, ·) y (C,+, ·) son anillos conmutativos.
Si Z[x] es el conjunto de los polinomios en la variable x, con coeficientes en Z, y definimos
naturalmente la suma (+) y el producto (·) de dos polinomios, entonces
(Z[x],+, ·) es un anillo conmutativo.
De igual modo, (Q[x],+, ·), (R[x],+, ·), y (C[x],+, ·) son anillos conmutativos.
El conjunto Mn×n(K), con la suma y el producto de matrices, es un anillo no conmutativo.
En resumen, si (A,+, ·) es un anillo, entonces (A, +) es un grupo, y (A, ·) es casi un grupo:
sólo le falta el elemento inverso, y puede que el elemento unidad.
Hay elementos, como el 0 en el caso de los números, que no pueden tener inverso
multiplicativo.
Pero si cualquier otro elemento puede invertirse, es decir, si (A\{0}, ·) fuera un grupo, y
aún más, un grupo abeliano, entonces estaríamos ante un cuerpo.
Cuerpo: Sea K un conjunto no vacío, y sean +, · dos operaciones internas, que llamaremos
suma y producto, definidas en K. Se dice que (K,+, ·) es un cuerpo, si se cumplen las
siguientes propiedades:
1. (K, +) es un grupo abeliano.
2. (K\{0}, ·) es un grupo abeliano, donde 0 es el elemento neutro de la suma.
3. Propiedad distributiva del producto respecto a la suma:
a · (b + c) = a · b + a · c, ∀ a, b, c ∈ K,
Observemos que la propiedad distributiva sólo tiene una condición. Esto es porque el
producto es conmutativo, luego la otra condición es consecuencia de la primera.
Ejemplo Algunos ejemplos de cuerpo son los siguientes:
(Q,+, ·), (R,+, ·) y (C,+, ·) son cuerpos.
Los grupos de matrices invertibles, Gl(n, k), o de determinante 1, Sl(n, k), no son cuerpos,
ya que el producto de matrices no es conmutativo.
Los cuerpos tienen multitud de propiedades, que no se estudiarán en esta asignatura.
Nosotros los usaremos para definir estructuras más complejas, que generalicen las
propiedades de los vectores, que hemos visto en los temas anteriores.
Para ello debemos definir las operaciones externas. Consideremos un conjunto X, y otro
conjunto K que llamaremos conjunto de escalares. Llamaremos operación externa sobre X,
a una función que tome un elemento de K y un elemento de X, y dé como resultado un
elemento de X. Es decir, una función:
p : K × X → X.
Normalmente, a una operación externa de este tipo la denotaremos · y la llamaremos
multiplicación por escalar; y al resultado de aplicarla a un escalar α ∈ K y a un elemento x
∈ X, lo denotaremos α · x, o simplemente α x, y lo llamaremos producto de α por x.
Por tanto, si tenemos un conjunto X y otro conjunto de escalares K, podemos tener
operaciones internas en cada uno de esos conjuntos, y operaciones externas entre ellos.
Usando estas dos posibilidades, se definen los espacios vectoriales.
Espacio vectorial: Sean V y K conjuntos no vacíos. Sea + una operación interna sobre V ,
y sea · una operación externa sobre V con conjunto de escalares K, que llamaremos
producto por escalar. Diremos que V , con estas operaciones, es un espacio vectorial si se
cumplen las siguientes propiedades:
1. (V, +) es un grupo abeliano.
2. K es un cuerpo.
3. El producto por escalar verifica las siguientes propiedades:
a) (α+ β)v = αv + βv, ∀ α, β ∈ K, ∀ v ∈V .
b) α(v + w) = αv + αw, ∀ α ∈ K, ∀ v,w ∈ V .
c) α(βv) = (αβ)v, ∀ α, β ∈ K, ∀v ∈ V .

d) 1v = v, ∀ v ∈ V , donde 1 es el elemento neutro de la multiplicación de K.


A los elementos de un espacio vectorial los llamaremos vectores, y los denotaremos con
una flecha encima. En un espacio vectorial hay, por tanto, cuatro operaciones: la suma de
vectores, la suma y producto de escalares, y el producto de vectores por escalares.
Ejemplo Algunos ejemplos de espacios vectoriales son los siguientes:
Los vectores que vimos en los temas anteriores, forman un espacio vectorial. El espacio
vectorial de los vectores de n coordenadas sobre un cuerpo K, se denota K n. La suma se
realiza coordenada a coordenada, y el producto por escalar también. Ejemplos de este tipo
son R2 o R3.
Las matrices Mm×n(K), con la suma de matrices y el producto por escalar, forman un
espacio vectorial. Observemos que el producto de matrices no se utiliza aquí: En general,
no tiene por qué existir una multiplicación de vectores en un espacio vectorial.
El espacio vectorial trivial es el conjunto V = {0}, con respecto a cualquier cuerpo K.
Cualquier operación donde intervenga algún vector da como resultado el único elemento: 0.
Los conjuntos de polinomios Q[x], R[x] y C[x] son espacios vectoriales con cuerpo de
escalares, respectivamente, Q, R y C.
Los conjuntos Q[x]≤n, R[x]≤n y C[x]≤n, formados por polinomios de grado menor o igual a n,
son espacios vectoriales con cuerpo de escalares, respectivamente, Q, R y C.
Terminamos esta sección con algunas consecuencias sencillas de la definición de espacio
vectorial:
Proposición: Si V es un espacio vectorial sobre un cuerpo K, se tienen las siguientes
propiedades, para todo α, β ∈ K y todo v,w ∈ V :
1. α0 = 0, donde 0 es el elemento neutro de la suma en V .
2. 0v = 0, donde 0 es el elemento neutro de la suma en K.
3. Si αv = 0 entonces, o bien α = 0 o bien v = 0.
4. Si αv = βv y v ≠ 0, entonces α = β
5. Si αv = αw y α≠ 0, entonces v = w.
6. (−α)v = α(−v) = −αv.
Dependencia lineal.
La noción de dependencia o independencia lineal ya la hemos estudiado, en temas
anteriores, para vectores de Kn. La definición es exactamente la misma para elementos de
un espacio vectorial cualquiera. Repetimos aquí las definiciones y resultados principales:

Sea V un espacio vectorial sobre K. Dados r vectores v 1, . . . , vr ∈ V , llamamos


combinación lineal de estos vectores a cualquier expresión de la forma:
α1v1 + α2v2 + · · · + αrvr, donde α1, . . . , αr ∈ K.
Sea V un espacio vectorial. Diremos que un vector v depende linealmente de un conjunto
de vectores {v1, . . . , vr} si v se puede escribir como combinación lineal de v1, . . . , vr.
Sea V un espacio vectorial sobre K. Diremos que un sistema (o conjunto) de vectores S =
{v1, . . . , vr} ⊂V es linealmente dependiente, si existen r escalares α 1, . . . , αr ∈ K, no
todos nulos, tales que α1v1 + α2v2 + · · · + αrvr = 0.
En caso contrario, es decir, si la única forma de escribir el vector 0 como combinación
lineal de estos vectores es tomando α1 = α2 = · · · = αr = 0, diremos que el sistema S es
linealmente independiente o libre.
Lema: Sea V un espacio vectorial. Un sistema de vectores {v1, . . . , vr} ⊂ V es
linealmente dependiente si y sólo si uno de ellos es combinación lineal de los demás.
Demostración: Supongamos que {v1, . . . , vr} es linealmente dependiente. Entonces
existen escalares α1, . . . , αr, no todos nulos, tales que α 1v1 + α2v2 + · · · + αrvr = 0. Sabemos
que existe al menos un αi ≠ 0. Tendremos entonces:
αivi = −α1v1 − · · · − αi−1vi−1 − αi+1vi+1 · · · − αrvr, y al ser αi ≠ 0, podremos despejar
α 1 v1 α i−1 α i+1 αr
vi = − − ⋅¿⋅¿⋅− v r−1 − v r+1⋅¿⋅¿− vr
αi αi αi αi
que es una expresión de vi como combinación lineal de los demás, por tanto v i depende
linealmente de los demás.
Supongamos ahora que un vector vi depende linealmente de los demás. Esto quiere decir
que existe una combinación lineal vi = β1v1 + · · · + βi−1vi−1 + βi+1vi+1 · · · + βrvr.
De esta igualdad se obtiene:
β1v1 + · · · + βi−1vi−1 − vi + βi+1vi+1 · · · + βrvr = 0, que es una expresión del vector 0 como
combinación lineal de los vectores v1, . . . , vr, donde no todos los coeficientes son nulos (el
coeficiente de vi es −1). Por tanto, el sistema {v1, . . . , vr} es linealmente dependiente.
Ejemplos de Espacios Vectoriales
Espacio Kn
Sea K un cuerpo arbitrario. La notación Kn se usa frecuentemente para designar el conjunto
de todas las n-cuplas de elementos de K. Aquí K n se ve como un espacio vectorial sobre K,
en el que la suma vectorial y el producto por un escalar se definen según:
(a1, a2, ………..an) + (b1, b2, ……….., bn= = (a1 + b1, a2 + b2, ………….,an + bn)
k(a1, a2, ………..an) = (ka1,k a2, ………..kan)
El vector cero en Kn es la n-cupla de ceros
0 = (0,0,0,……..0)
Y el opuesto de un vector se define por
-(a1, a2, ………..an) = (-a1, -a2, ………., -.an)
Espacios de Matrices Mm,n
La notación Mm,n, o simplemente M, se utilizará para designar el conjunto de todas las
matrices m x n sobre un cuerpo arbitrario K. Mm,n es un espacio vectorial sobre K con
respecto a las operaciones usuales de suma matricial y producto y producto por un escalar.
Espacio de Polinomios P(t)
Denotemos por P(t) el conjunto de todos los polinomios
a0 + a1t + a2t2 + ……………+ antn
con coeficientes ai en algún cuerpo K. P(t) es un espacio vectorial sobre K con respecto a las
operaciones usuales de suma de polinomios y producto de un polinomio por una constante.
Espacio de Funciones F(X)
Sean X un conjunto no vacío y K un cuerpo arbitrario. Consideremos el conjunto F(X) de
todas las funciones de X en K. (Nótese que F(X) es no vacío por serlo X). La suma de dos
funciones f,g εF(X) es la función f + g εF(X) definida por:

(f + g)(x) = f(x) + g(x) ∀x∈X


Y el producto de un escalar kvK por una función fεF(X) definida por:

(kf)(x) = k f(x) ∀ x ∈ X
F(X), con las operaciones anteriores, es un espacio vectorial sobre K.
El vector cero en F(X) es la función cero, 0, que aplica cada xεX en 0 ε K, es decir,

0(x) = 0 ∀ x ∈ X
Asimismo, para cualquier función f εF(X), la función – f definida por (- f)(x) = - f(x)
∀ x ∈ X es la opuesta de la función f.
Cuerpos y subcuerpos
Supongamos que E es un cuerpo que contiene un sub-cuerpo K. E puede verse como un
espacio vectorial sobre K como sigue. Tomemos como suma vectorial la suma usual en E, y
como producto kv del escalar kεK por el vector vεE el producto de k y v como elementos
del cuerpo E. En tal caso, E es un espacio vectorial sobre K, esto es, E y K satisfacen los
ocho axiomas de espacio vectorial precedentes.
Sub-espacios
Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K. W se denomina un
sub-espacio de V si es a su vez un espacio vectorial sobre K con respecto a las operaciones
de V, suma vectorial y producto por un escalar. Un criterio simple para identificar sub-
espacios es el siguiente.
Teorema
Supongamos que W es un subconjunto de un espacio vectorial V. Entonces W es un sub-
espacio de V si y sólo sí se cumple:
- 0εW.
- W es cerrado bajo la suma de vectores, es decir: para todo par de vectores u,v εW,
la suma u + v εW
- W es cerrado bajo el producto por un escalar, esto es: para todo uεW y para todo
kεK el múltiplo kvεW.
Espacio Fila de una Matriz
Sea A una matriz m x n sobre un cuerpo K arbitraria:

(A=¿ a1 a12 . . . a1n¿)(a21 a2 . . . a2n¿)(. . . . . . . . . .¿) ¿


¿
Las filas de A,
R1 = (a11,a12, …….. a1n), ….., Rm = (am1,am2, ……….,amn). Pueden verse como vectores en
Kn y por tanto generan un subespacio de Kn llamado el espacio fila de A. Esto es, f-lin A =
lin (R1,R2, …………, Rm)
Análogamente, las columnas de A pueden verse como vectores en K m y por consiguiente
generan un sub-espacio de Km denominado el espacio columna de A y denotamos por c-lin
AT.
}.

Sistemas de generadores y bases.


En esta sección veremos cómo el concepto de dependencia lineal sirve para expresar los
elementos de un espacio vectorial utilizando sólo un conjunto (posiblemente finito) de
vectores.
Sistema de generadores: Sea V un espacio vectorial. Diremos que un sistema de vectores
S = {v1, . . . , vr} es un sistema de generadores de V si todo vector de V puede escribirse
como combinación lineal de los vectores de S. En este caso diremos que V está generado
por S, o por los vectores de S.
Un espacio vectorial puede tener muchos sistemas de generadores diferentes. Incluso puede
haber sistemas de generadores donde “sobre” algún vector. Por ejemplo, si tenemos un
sistema con cuatro vectores en R3, nos basta con tres de ellos para generar todo el espacio.
Esto nos va a llevar al concepto de base. Pero antes debemos hacer una restricción, puesto
que existen espacios vectoriales demasiado “grandes”.
Un espacio vectorial V se dice que es de tipo finito si está generado por un número finito de
vectores. Es decir, si existe un sistema de generadores S = {v1, . . . , vr}.
Para estos espacios vectoriales de tipo finito, podemos definir sin problemas la noción de
base:
Base: Sea V un espacio vectorial de tipo finito. Diremos que un sistema de vectores B ⊂ V
es una base de V si cumple:
1. B es un sistema de generadores de V .
2. B es linealmente independiente.
En otras palabras, una base es un sistema de generadores de un espacio vectorial en el que
no sobra ningún vector, ya que, al ser linealmente independiente, ninguno de ellos puede
escribirse como combinación lineal de los demás.
Teorema: Sea V un espacio vectorial de tipo finito, y sea B sistema de vectores de V .
Entonces B es una base si y sólo si todo vector de V se puede expresar de una única manera
como combinación lineal de los vectores de B.
Demostración: Supongamos que B = {u1, . . . , un} es una base de V .
Dado un vector v ∈ V , como B es sistema de generadores podremos escribir v = α 1u1 + · ·
· + αnun. Si existiera otra forma de expresar v, digamos v = β 1u1 + · · · + βnun, entonces
tendríamos:
0 = v − v = (α1 − β1)u1 + · · · (αn − βn)un.
Pero como B es un sistema linealmente independiente, los coeficientes de la expresión
anterior deben ser todos nulos. Es decir, αi − βi = 0, o lo que es lo mismo, αi = βi para todo i
= 1, . . . , n. Por tanto, la forma de expresar v como combinación lineal de los elementos de
B es única.
Recíprocamente, sea B = {u1, . . . , un} es un sistema tal que todo vector v ∈V se puede
expresar de forma única como combinación lineal de los vectores de B. Por un lado, B es
sistema de generadores, puesto que todo vector de V se puede expresar como combinación
lineal de B. Por otra parte, consideremos el vector 0 ∈ V Sabemos que siempre se tiene la
combinación lineal obvia:
0 = 0u1 + · · · + 0un.
Por la propiedad que le suponemos a B, esta es la única forma de escribir 0 como
combinación lineal de los vectores de B. Por tanto, B es un sistema linealmente
independiente, luego es una base.

Auto valores y auto vectores.


En este tema seguiremos con el estudio de las aplicaciones lineales, pero en el caso en el
que el espacio de partida es el mismo que el de llegada. Es decir, estudiaremos más a fondo
los endomorfismos de un espacio vectorial V . Para simplificar el estudio, supondremos de
ahora en adelante que V es de dimensión finita, n, y por tanto los endomorfismos de n se
representan por matrices n × n.
Recordemos que dos matrices A,B ∈ Mn×n representan al mismo endomorfismo (respecto de
distintas bases de V ), si y sólo si son semejantes, esto es, si existe una matriz invertible P
tal que P−1AP = B. En ese caso, la matriz P es la matriz del cambio de base. Recordemos
también que podemos saber si dos matrices son equivalentes simplemente mirando sus
rangos, pero no conocemos (por ahora) ningún criterio para comprobar si dos matrices son
semejantes. En este tema veremos el siguiente criterio: dos matrices son semejantes si y
sólo si tienen la misma forma canónica.
La idea es la siguiente: nos interesa saber si, dado un endomorfismo f ∈ End(V ), hay
alguna base de V respecto de la cual la matriz M(f) resulte ser lo más simple posible, y que
además nos dé información sobre el comportamiento de f.
Vamos ya a adelantar algo: si la matriz de un endomorfismo f, respecto de una cierta base,
es diagonal, entonces el endomorfismo actúa de una forma muy simple: Si los elementos de
la diagonal son d1, d2, . . . , dn, entonces f transforma el vector de coordenadas (x 1, . . . , xn)
en el vector (d1x1, d2x2, . . . , dnxn). En otras palabras, si B = (e 1, . . . , en) es una base de V tal
que M(f)B es diagonal, entonces f transforma el espacio V “expandiendo o contrayendo”
cada vector, en la dirección de cada ei, por un factor di. Por tanto, si la matriz M(f) es
diagonal, sabemos perfectamente cómo actúa f, y es muy sencillo y efectivo hacer cálculos
con f respecto de la base B.
Nos interesará, por tanto, si tenemos un endomorfismo cualquiera dado por una matriz
n×n, saber si existe un cambio de base que la transforme en diagonal. Para eso
definimos los auto valores y auto vectores:
Auto valores y auto vectores de un endomorfismo: Sea f∈ End(V ). Se dice que un vector
no nulo v ∈ V es un auto vector de f si f(v) es un múltiplo de v. Es decir, v es auto vector si
f(v) = λ v para un cierto escalar λ . En este caso, λ se llama auto valor de f, y se dice que
v es un auto vector asociado al auto valor λ .
Análogamente se definen los mismos conceptos para matrices:
Auto valores y auto vectores de una matriz: Sea A∈ Mn×n. Se dice que un vector no
nulo v ∈ V es un auto vector de A si Av es un múltiplo de v. Es decir, v es auto vector si
Av = λ v para un cierto escalar λ . En este caso, λ se llama auto valor de A, y se dice que v
es un auto vector asociado al auto valor λ .
Ejemplo Sea f ∈ End(R3) dado por la matriz diagonal:
( )
2 0 0
M ( f )= 0 4 0
0 0 −3
Entonces el vector (1, 0, 0) es un auto vector asociado al auto-valor 2, ya que f(1, 0, 0) = (2,
0, 0). Análogamente, (0, 1, 0) es un auto-vector asociado al auto-valor 4, y (0, 0, 1) es un
auto-vector asociado al auto-valor −3.

En este ejemplo vemos algo interesante: cuando la matriz es diagonal, los auto-vectores son
precisamente los elementos de la base de V respecto de la cual la matriz está escrita, y los
auto-valores correspondientes son los elementos de la diagonal. Esto nos servirá para
diagonalizar la matriz. Pero antes veamos cómo se pueden calcular los auto-valores y auto-
vectores de un endomorfismo o, análogamente, de una matriz, en el caso general.
A partir de ahora, I denotará a la matriz identidad de orden n. Se tiene:
Proposición Dada una matriz A ∈ Mn×n, los auto valores de A (o del endomorfismo que
representa) son las soluciones de la ecuación dada por
det(A − λ I) = 0.
Demostración: Un escalar λ es un auto-valor si y sólo si existe un auto-vector v tal que
Av = λ v. Pero Iv = v, luego esta expresión se puede transformar como sigue:
Av = λ v ⇔ Av = λ Iv ⇔ Av − λ Iv = 0 , (A − λ I)v = 0.
Pero esto último es un sistema lineal homogéneo, cuya matriz de coeficientes es A − I λ ∈
Mn×n. Entonces λ será un auto-valor si y sólo si este sistema tiene solución no trivial.
Como es un sistema homogéneo, tendrá solución no trivial si y sólo si su matriz de
coeficientes tiene rango menor que n, es decir, si y sólo si det(A − λ I) = 0.
Transformaciones Lineales
Introducción
En esta lectura se presentan las funciones entre espacios vectoriales que preservan las
cualidades de los espacios vectoriales. Es decir, de funciones que preservan la suma y la
multiplicación por escalares.
Transformación Lineal
Definición.
Sean V y W dos espacios vectoriales posiblemente iguales. Una transformación lineal o
mapeo lineal de V a W es una función T : V → W tal que para todos los vectores u y v de V
y cualquier escalar c:
T(u + v) = T(u) + T(v)
T(c u) = c T(u)
Ejemplo
Demuestre que la transformación T : R2→R2 definida por:

T ¿[x ¿]¿¿
¿ es lineal

Solución:

u = ¿[
x1 ¿ ] ¿
¿
Sea: ¿
Entonces:

T (u + v ) = T ¿ ¿ ¿
¿
Por otro lado, para un escalar C,

T ( cu ) =Talignl [
cx 1 ¿ ] ¿
¿¿
¿
Como se cumplen las dos condiciones:
T(u + v) = T(u) + T(v)
T(c u) = c T(u)
T es lineal
Ejemplo
Demuestre que la transformación T:R3 R2 es lineal:
T ( ( x , y , z )`' )= ( x + y , y−z )'
Solución
Sean u = (x1, y1, z1)′ y v = (x2, y2, z2)′. Entonces
T(u + v) = T((x1 + x2, y1 + y2, z1 + z2)′)
= ((x1 + x2) + (z1 + z2), (y1 + y2) − (z1 + z2))′
= (x1 + z1, y1 − z1)′ + (x2 + z2, y2 − z2)′
= T(u) + T(v)
Por otro lado, para todo escalar c,
T(c u) = T((c x1, c y1, c z1)′)
= (c x1 + c z1, c y1 − c z1)′
= c (x1 + z1, y1 − z1)′
= c T((x1, y1, z1)′)
= c T(u)
Como se cumplen las dos condiciones:
T(u + v) = T(u) + T(v)
T(c u) = c T(u)
T es lineal
Ejemplo
Sea A una matriz m × n. Demuestre que la transformación T : Mn×k→Mm×k definida
como T(B) = AB es lineal.
Solución
Sean B y C dos matrices n × k cualquiera y c un escalar cualquiera:
T(B + C) = A(B + C) = AB + AC = T(B) + T(C)
T(cB) = A(cB) = c (AB) = c T(B)
Como se cumplen las dos condiciones:
T(B + C) = T(B) + T(C)
T(cB) = c T(B)
T es lineal
Ejemplo
¿Es lineal la transformación f : R→R, definida por f(x) = x + 1 ?
Solución
No, la parte 1 de la definición no se cumple porque
f(x + y) = (x + y) + 1
y
f(x) + f(y) = x + 1 + y + 1 = x + y + 2
no son iguales
Hechos que cumple una transformación lineal
Una transformación lineal debe cumplir las siguientes condiciones:
Teorema
Sea T : V → W una transformación lineal.
Entonces
a) T(0V ) = 0W. Es decir, el neutro se envía al neutro.
b) T(−v) = −T(v). Es decir, envía inversos aditivos en inversos aditivos.
c) T(u − v) = T(u) − T(v). Es decir, envía restas en restas.

Talignl [ 1 ¿ ] ¿ ¿ ¿
¿
Solución
Como

[ −9 ¿ ] ¿ ¿ ¿
¿
si aplicamos T en ambos lados de la ecuación, obtenemos:
Talignl [ −9 ¿ ] ¿ ¿ ¿ ¿
¿
¿
La segunda igualdad permanece porque T es lineal.
Es facile observar que:

[ x ¿]¿¿¿
¿

Por consiguiente:

Talignl [ x ¿ ] ¿ ¿ ¿
¿

También podría gustarte