Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Universidad Nacional de Ingenieria

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 62

UNIVERSIDAD NACIONAL DE INGENIERIA

FAClJLTAD DE CIENCIAS

ESClJELA PROFESIONAL DE MATE.MÁ TICAS

1876

CALCULO DE VALORES PROPIOS


MEDIANTE EL METODO DE LA POTENCIA

INFORME DE SUFICIENCIA

PARA OPTAR EL TÍTULO PROFESIONAL DE

LICENCIADO EN MATEMÁTICA

PRESENTADO POR

JAVIER FRANCISCO ECHEANDÍA CÉSPEDES

LI�IA - PERlJ

2003
Dedicatoria

A mis padres que me dieron la posibilidad del conocimiento, a mis hijos que con
su sonrisa me hacen creativo� a mi esposa por ser el amor de mi vida y a mis
amigos que ayuda.ron a iniciar y te1n1inar esta. tarea..
Contenido

Introducción ··················································�·-················································· l

Capítulo I: Definiciones Previas

1.1. Preliminares.................................................................................................. 8

1.2. Los teoremas de Schur y Gershgoria................... . ................. . ..................... 21

1.2.1. Factorización de Schur ................ . ... . ..................................................... 22

1.2.2. Localización de valores propios............................................................. 26

Capitulo ll: Método de la Potencia

2.1. Método de la Potencia................................................................................. 31

2.2. Método de la Potencia Inversa....................................................................... 36

2.2.1. Algoritmo del Método de Ja Potencia Inversa........................................ 38

2.3. Potencia Inversa con desplazamiento............................................................ 38

2.3.1. Algoritmo del Método de Ja Potencia lnversa con DespJaz.amiento...... 39

2.4. Método de la Potencia con Desplazamiento ................................................. 40

2.4.1. Algoritmo de] Método de la Potencia con Desplazamiento................... 41

2.5. Aceleración del Método de la Potencia........................................................ 42

2.5.1 Proc.edimiento de Aitken � ...................................................................


2
42

2.5.2 Algoritmo Acelerado Del Método De La Potencia................................ 45


,
2.6. Metodo de 1 a Potencia
, ·
· s1metr:Jca
· ................................................................. 46
Capítulo ID: llna Aplicación en un Problema de Valor de Frontera

3.1. Intr<>ducción ........................................................................... ...................... . 49

Conclusiones ..............................._ ... _ .. __._........... _ ...... _ ..................... _ .............. _ .. _. _ ................ . 55

Anexo.................................................................................................................... 57

Bibliografía .......................................................................................................... 62
Introducción

Los problemas de valores propios son una clase especia] de problemas con
valores en la frontera que son comunes en el contexto de problemas en la
ingeniería que provocan vibraciones� elasticidad y otros sistema oscilantes.
Además se usan en una amplia variedad de contextos en ingeniería que van más
alla de problemas de valores de frontera. Antes de describir un método nútnerico
para resolver estos problemas� presentareinos alguna info11nación general como
antecedente, esta incluye el análisis de la importancia tanto matemática como
ingenieril de los valores propios.

Dado una matriz cuadrada A, en el presente inforrne se estudia una técnica para
el cá1cu1o de los vectores no nulos x y los escalares l que cumplen la siguiente
propiedad

A X-AX (1)

el par ( l, x ) es llamado un par propio que consiste en un valor propio A y su


correspondiente vector propio JT. EJ c-0njunto de todos ]os valores propios para
wia matriz es llamado eJ espectro de la matriz, observe q_ue si i es un vector
propio de A, entonces también lo es cualquier multipo de x, en efecto:

k(A x)=k(lx)=l(kx)

A( k x ) == l ( k x )

Por Jo tanto ( A, k x ) es un par propio si ( l , x ) es un par propio. Para eliminar


esta multiplicidad, el vector propio puede ser normalizado de for n1a que 11.x 11 =l.
Si x esta no11nalizado con non11a euclidiana igual a 1, el probleina de valores
propios puede ser establecido de Ja siguiente manera:

Encontrar los vectores x y los escalares l que cumplan la siguiente propiedad


Ai = A x ; .�' •i = l (2�)

Si A es una matriz n .,T n entonces (2) consiste de n+ 1 ecuaciones y n+ 1


incógnitas; las incógnitas son las n componentes x1, x2, X3, ... X n de x y el escalar
l. La ecuación (2) es no lineal puesto que involucra e1 producto l i (entre el
escalar no conocido y el vector no conocido) tal caso tambien ocurre en el
producto i' i. Mediante los algoritmos para resolver un sistema de ecuaciones
no lineales se puede aplicar la ecuación (2) , sin embargo técnicas más
eficientes han sido desarrolladas para e.xpJotar la estructura de los problemas de
valores propios.

Antes de estudiar estas técnicas discutiremos algunas aplicaciones de pares



propios.

La solución de una ecuación diferencial lineal con coeficientes constantes puede


ser expresada en tér111inos de los pares propios de los coeficientes de la matriz.
Consideremos el siguiente sistema de ecuaciones diferenciales de primer orden

du(t)
dt
= 2u(t) + 6v(t)
dv(t)- -- (3)
-2u(t) - 5v(t)
dt

buscamos una solución de la fonna

2
(4)

donde .:r1, x2, y l son constantes independientes de t. Substituyendo (4) en la


ecuación (3) obtenemos

Áe ux1=2e x1 + 6e x1 u ll

ie x1= -2e x1 - 5e'.1x2


u ll

Cancelando el factor comun e )-' obtenemos Ja relación

2x1 + 6x2 == h1
(5)
-2Tt - 5x2 == h2

Utilizando la notación matriz-vector (5) puede ser escrito como

2 6 ...fJ ...l'J

-?- -5 ...t2 ..t2

Por lo tanto si 11(t) = e Alx1 y v(t) = e ll_r.1 es una solución de la ecuación


diferenciaJ (3), entonces (A, i) es W1 par propio para Jos coeficientes de Ja matriz

2 6
..4 ==
-2 -5

Recíprocamente si ( A :, .x ) es un par propio de los coeficientes de la matriz


entonces u(t) =e x
Al
1, v(t) ==e x2 es una solución de la ecuación diferencial .
M

En la siguiente sección mostraremos que la matriz A tiene 2 pares propios

3
- - 1 , .x = 2 -3
y l = -2 , x -
-] 2

una solución de la ecuación diferencial (3), correspondiente al valor propio l ==


-1 es

u(t) = 2e-1 y v(t) = -e-1

mientras que una solución para el valor propio l == -2 es

u(t) == -Je-21 y v(t) == 2e-21

utilizando la notación vectorial, estas soluciones pueden ser expresadas de la


• •
s1gwente manera

u(t) 2 u(t) == e-21 -3


v(t) -1 v(t) 2

La solución general de un sistema lineal de ecuaciones diferencia.les de pri.1ner


orden es una combinación lineal de cualquier par de soluciones linealmente
independientes

Así Ja solución general para (3) es

i,(t) 2 -3
(6)
v(t) -] 2

donde c1 y c2 son constantes arbitrarias� Si los valores de u y v son especificados


algunas veces para t == O, estas constantes podran ser calculados. Por ejemplo

4
dada la condición inicial

u(O) = 7 y v(O) == -4 (7)

entonces substituyendo t =O en (6:) se obtiene Ja relación

7 -== C¡. 2 -3
-4 -1 2

luego:

2 -3 CJ 7
-1 2 -4

la solución de este sistema lineal es e, = 2 y c2 = -1, de (6) tenemos que Ja


solución de la ecuación diferencial (3) que satisface la condición i11icial (7) es

u(t) 2 -3
v(t) -1 2

En algunas aplicaciones, la solución exacta de la ecuación diferencial no es tan


-1
importante como el comportamiento cualitativo de la solución. Puesto que e y
e-21 se aproximan a cero cuando t crece, tenemos que para cualquier elección de
c· 1 y c2, la solución (6) de la ecuación di.ferencial (3) se aproxirna a cero cuando t
se hace muy grande. Decimos que u = O y v = O es un punto de equilibrio estable
para la ecuación diferencial. En general es un punto de equilibrio estable para
una ecuación diferencial lineal, si cada valor propio del coeficiente matricial
tiene parte real negativa (los valores propios pueden ser números complejos). Asi
el comportamiento cualitativo de la so1ución de una ecuación diferencial lineaJ

5
depende de los signos de los \lalores propios.

Los valores propios están relacionados con las propiedades de las estructuras.
Cuai1do una fuerza o una carga es aplicada a lo largo de una viga cuyos soportes
estan en sus extremos, uno fijo y e1 otro con desplazamiento.

• • • •

Figura 01
C11ando la carga llega a un valor critico l,. A medida que la carga se incrementa,

se alcanza un segundo punto crítico, donde la barra puede vibrar en la


configuración siguiente

Figura02

Físicamente para que se genere esta nueva configuracíó� se debe producir un


ligero impulso, este debe estar colocado a la mitad de la ba� cada carga que
genera un nuevo estado es un valor propio del problema de valores de frontera.

Un problema de valores propios para la figura O l puede tener la siguiente forina:


Encontrar todas las funciones x(t) que no sea identicamente nuJa y todos los
escalares l que satisfacen la ecuación

_ c/2x(t) = .AX(I)
O<t<I
- - (9)
dt 2

6
·'

con la condición .x(O) = x( 1) = O .. En este modelo t es la medida de la distancia a


lo largo de la viga y x(t) es un momento angular de Ja vi&ra ver ]a fil,'lITTl 02.
Teoricamente existe un número infinito de estados donde la viga se pandea, pero
en la práctica, la viga puede romperse despues que la carga exceda el valor
propio más pequeño A 1. Con una viga bucklíng , lo mas interesante es el valor de
l 1- La ecuación (9) puede ser transfo11nada en un problema de valores propios de
una matriz usando la técnica de diferencias finitas. El inteivalo [ O, 1 J es
particionado en N subintervalos de longitud ! . Sea I'; == iAI que denota un punto
de la partición y sea X; que denota a x(t;) , la segunda derivada en la ecuacíon
(9) tiene como aproximación

d2u(t)
t 2
-
�- X;+J - 2x; +
2
X;-J
d (Af)

Esta sustitición en la ecuacion (9) nos lleva a la relacion A x == l i , donde A es


una matriz tridiagonal (N-1)x(N-1)

2 -l O ... ... O
-l 2 -1 O O O

A=
o ••


••
o o o (10)
o ••

••
o o

o o o ••
2 -·1
O O O · .. -l 2

Ct1ando N es muy grande;, el valor propio más pequeflo de la matriz A se


aproxima al vaJor mas pequeño deJ problema del valor de frontera (9) . Así
cuando N es grande el valor mas pequeño de A se aproxima al punto de quiebre
de la estructura

7
Capitulo l.

Definiciones Previas

I. l Preliminares

El campo R de los números reales tiene el defecto de que un polinomio de


grado n con coeficientes reales no necesariamente tiene ceros ( o raices �) reales.
Por ejemplo, e) polinomio p(x)== x 2 -2T + 2 carece de ceros reales. Esto se supera
extendiendo el campo de modo que contenga al elemento ( no rea.l) i. Este
elemento se caracteriza por Ja ecuación i 2 == - l. EJ campo que se obtiene de esta

manera se denota con C , y sus elementos se llattutn números co111plejos. Estos


números tienen la for1na

r ==a+ ip (a, P números reales_)

EJ conjugado y el móduJo de r se definen, respectivamente, por

r = a - ifl

2 + p2
!YI = Ja

-·-
Observe que r == r Y r r == lrl 1
.

El campo C no tiene la deficiencia ya mencionada de los números reales. Es


más, se cuenta con el teorema fundamental del aJgebra,. el cual establece que
todo polinomio no constante con coeficientes compJejos tiene al menos un cero
plano complejo. Una de sus consecuencias es que todo _polinomio de grado n se
puede descomponer como 110 producto de n factores lineales.

El espacio vectorial C se compone de todas las n-uplas complejas tales como

X = (X 1, .. ., X D
)t

donde Xj€ C para 1� j � n. Si el vector complejo x se multiplica por el número


complejo l, el resultado es otro vector complejo, a saber,

e como un e5J)clCÍO vectorial sobre el


D

De esta manera, podemos considerar a

e en el espacio e , el producto inte.tuo y la Ilúllllil


o
campo de escalares
euclidiana se definen, respectivamente, como

L x; Y;
n

(x,y} = y llxll 2= J(x,x}


i=I

Observe que

(x,y) = (y, x) y (x, Ay) = A {x,y}

(x + y,z) == (x,z) + {v,z}

Si A es una matriz con eleinentos complejos, con A* denotamos su conjugada

transpuesta: (A*) ¡j = (A)ji . En particular, si x es una matriz de orden n x 1 (o

9
vector columna), entonces x* =(x)' es una matriz de 1 x n (o vector fila), y

n
y•x = {x,y} = Lx; .Y;
i=I

n n
2
x*x = {x,x} = llxll�= Lx; x; = ....... 1
iz: 1 i=I ;

Sea T: V-.V una tJa11sfo11nación lineal. En muchas aplicaciones es útil encontrar

•ro vector v en V tal que Tv y v se.an paralelos. Es decir , se busca un vector v y


•m escalar l tal que

Tv =l v (l.l)

Si v * O y l satisface ( 1 ), entonces .1 se llama 11n valor propio de T y v se )Jama


un vector propio de T correspondiente al valor propio ,l_ El proposito de este
infú11ne es investigar las propiedades de los valores propios y vectores propios
Si V tiene dimensión finita, entonces T se puede represe11tar por una matriz A.
Por esta razón se estudiarán los valores propios y vectores propios de las matrices
nxn.

Definición 1.1. Un vector V* O en R se llama vector propio de una matriz

.A mn=(a y_) si existe l € R tal que

(1.2)

y, el nútnero A, se le llama valor propio de la matriz A, el valor propio A

10
cor1esponde al vector propio v y, viceversa. Entonces para todo ro= a v con a *
O, tiene A m == A OJ esto es todo múltiplo de un vector propio también es un
vector propio.

La ec11ación (1.1) es equivalente a:

3 l IV 1 + 312V2 + •••• + 31nVn - lv1 v,


321V1 + a22V2 + •••• + 32nV 0
- lv2 V2
- lv3 -
831V1 + a32Vt + •••• + 331Vn , v= •• (1.3)
•••• •• • •••• •• •••• ... •••• •• • ••• ••

3ntVJ + an2V2 + •••• + 3nJVn


- AVo Vo

Estas ecuaciones pueden reescribirse como un sistema homogéneo de ecuaciones


pasando los té1111inos lv; a la izquierda. Recordemos por otra parte, que un
sistema homogéneo de ecuaciones solo tiene solución distinta de la trivial si el
rango de la matriz es menor que el número de incógnitas , lo que implica:

a11-l a12 ••• 310

det(A -)J) = =0 (1.4)


••• ••• ••• •••

801

El conjunto {l 1 ,l 2 , ••• , l n } de soluciones se llaman valores propios de la matriz


A..

Estos valores propios pueden ser reales o complejos y no son necesariamente


todos distintos.

Definicóo 1.2. Denominamos degeneración de un ,,valor propio a su grado de

11
multiplicidad.

Para deter111inar los vectores .propios asociados a un valor propio hay que sustituir
en el sistema de ecuaciones lineales (1.3) por el valor propio concreto Á;. Puesto
que el siste1na es compatible indete1111inado lo cual esta garantizado por el hecl10
de que det(A - U) = O las ecuaciones no son line.almente independ.ientes (L.I.) y
la for1na de resolver el sistema, en la práctica, consiste en dar valores arbitrarios
para tantas componentes de los valores propios como indique el valor de la
multiplicidad.

Por último, 11na vez determinados los vectores propios estos pueden
no1111alizarse, ·por ejernplo, tomando la no11na euclídea:

N
�V�=]
L.J 1
i=]

Definición: 1.3. Sea { v1 , •••, Vn } un conj11nto de vectores. El conjunto es L.I. si,

-
0= QJ VJ + ·· · + an V,,

n
Teorema 1.4. Si { v1 , ••• ,vn } es un conjimto de n valores LJ. en R entonces
11

cualquier vector R puede escribirse de manera única como:

.l,":= /Ji V) + ··· + /Jn Vn

para algún conjunto de constantes /J J � • • • �/Jn � R .

Demostración

12
Supongamos que A es la matriz cuyas columnas son { v 1 , ••• , vn } , entonces el

conjunto {v, , ... , Vn } es L.I .. � Aa = O tiene solución única a = O � A/J = v

tiene solucion única es decir para todo x e R

X- /Ji V¡ + ..... + /Jn Vn

para algún conjunto de constantes JJ,,···,/Jn � R

Teorema 1.5 Si A es una matriz y Á¡,...;,n son distintos valores propios de A (es
decir l ¡ * li si i=1=-j) con los vectores propios asociados { v1 , ... , Vn } entonces {

V¡ , •••,Vn }es L./.

Demostración

-
Sean VJ , •.• , Vn los vectores propios co11espondientes a los valores propios
! 1 , ••• ,1 ,. :

donde l ¡ =t: lj , para todo i * j . Probaremos que son linealmente independiente,


por inducción matemática. Para n = l es obvio. Supongamos que es cumple para
(n-1) veamos para n

-
/J i V¡ + .... + fJn V n =O (*)

aplicando la matriz A =>

-
A(/J1 \1J + ·· · + /Jn Vn ) =O

13
·,

-
P1A Vt + .... + /JnA Vn =O

-
/J1A1V1 +· .. ·+fJnAnVn ·=O **
( )

multiplicando (*) por A n y restando de (**) =>

-
(A1-An)/l1 VJ +· .. ·+{An-1-ln)Pn-l Vn =O

pero A¡- A n * O , para todo i= 1 7 ..... ,.n-1 � /J¡ = O para todo i = 1 �---,n-1, luego de (*)
se puede afirmar que /Jo = O por consiguiente el conjunto { v1 , •••, Vn } es
linealmente independiente .

Definición 1.6. Se dice que un conj11nto de vectores { v1 , ... , Vn } es ortogonal .


Si v: vi = O para todo i =f:. j. Si además vi v; = 1 para todo i = 1, ... ,n entonces
el conjunto es llamado ortonor111al ..

Teorema 1.7. Un conjz,nto ortogonal de vectores que no contiene al vector cero


es linealmente independie,ite.

Demostración

Supongam.os que el conjunto { v1 , .... , Vn } no es linealmente independiente


-
luego, existe algún /J; * O tal que /Ji v1 + ··· + /Jn Vn =O,

- /J1 - /Jn
=> \1¡ =- VJ
- ··· -
Vn
/J; /J¡

multipicando ambos mienbros por v y., como el conjunto { v1 , ... , Vn } es

14
ortogonal :=)

- - /Jn -
V,· •V·I =- /J1 -
VJ
-
•V¡ � ... - -
Vn • V¡ =O
/J¡ p¡

lo cual es imposible por ser cualquier vector del conjunto { v 1 , ••• , vn } diferente
de cero. Por consiguiente el comjunto {111 , .•• , Vn } es linealmente independiente.

nxn
Definición J .8. Se dice que dos matrices A , B E R son similares, si existe
DXD

una matriz & R no singular con A = S 1 BS.

Terorema 1.9. Supongamos queAy B son matrices similaresy que A es un valor


propio de A con el vector propio asociado x. Entonces l es también un valor
propio de By siA= s- 1 BS entonces Si es un vector propio asociado a l para la
matriz B.

Demostración
-
Supongamos que x * O es tal que

S-'BSi-Ax-lx

al multiplicar a la izquierda por la matriz S, obtenemos

B(S x) = l(S x )

-
Puesto que x * O y S es no singular se tiene Si =1= O. Por tanto Sx es un vector
propio de B asociado al valor propio l.

Los valores propios ,l de una matriz triangular A., se obtienen de:

15
det{A - U)= n (a¡¡
n

i=J
- l)

Teorema 1.10. Sea A una matriz de orden nxn. La matriz A es simétrica si, y
sólo si, A es diagonalizable mediante una matriz ortogonal. Es decir, si existe
una matriz ortogonal Q tal que Q'AQ es diagonal

Demostración

Si A es diagonaliz.able mediante una matriz ortogonal, entonces

D = Q'AQ

ya que Q' = Q- 1 por ser ortogonal. Luego A = QDQ' y transponiendo esta


expresión obtenemos

A 1 = QD'Q' == QDQ' = A

por ser diagonal. Luego A es si111étrica

Recíprocamente supongamos que A es simétrica. Procedemos por inducción


sobre n. Si n== 1 la mal• iz, de tamaño lxl, es diagona� y se puede escribir como
A = I'Al, siendo I ortogonal.

Supongamos que toda matriz simétrica de tamaño (n-l)x(n-1) es diagonaliuible


mediante una matriz ortogonal. Sea u 1 un vector propio de A no1·maliz.ado
n
asociado a l 1 . Entonces existe una base ortono11oal {u1 , ... ,un } de R que lo

contiene. Sea T={u1 , .... ,u1 }, claramente Tes ortogonal y

AT= [ít1 Ut ,A U4 .... ,A Un ]

16
Luego la matriz T'AT se puede escribir .por bloques como

l1Z
T'AT= (1)
O B

Como A = A' se tiene que

T'AT= (T'A 1) 1
=
lt o
(2)
Z' B'

De (1) y (2) se deduce que Z =O y que B = B'.Como la matriz Bes de tamaño


(n-l)x(n-1), por la hipotesis de inducción, existe una mat1iz ortogonal Qital que
Q�BQ 1 = D 1 siendo 01 diagonal. Si constJuiJnos la matriz

R=
l o
o Q,

se cumple que R es ortogonal y

)�1 0
R'T'ATR=R' R
O B

-
1 O l1 0 1 O
o Q\ O B 0 Q1

-
-

17
Por consiguiente A es semejante a una matriz diagonal, por lo tanto es
diagonaliz.able.

Además se observa que la matriz de vectores propios Q = TR es ortogonal ya que


es producto de dos matrices ortogo11ales.. Luego existe una base de vectores
_propios ortonormales.

Puesto que se puede construir una base de vectores propios ortono11nales de una
matriz simétric� diremos que toda matriz simetrica es diagonalizable por una
matriz ortogonal. Es decir si A es simétrica entonces existe una matriz ortogonal
Q tal que Q'AQ =Des diagonal__

Teorema 1.11. Sea A una matriz simetrica de orden nxn, entonces los vectores

propios asociados a valores propios distintos son ortogona,/es respecto al


ft
producto escalar canonico de R

Demostración

Supongamos que Au = ,l u y Av =µ v , con A * µ , entonces

(A u , 1,,) = (}._ u , v} = l(u , v)

(A u , v} = (A u)' \1 = U
1
A' V

= u' (A v) = {u � v} = µ(u , v)

Luego ( ..t - µ )(u , v) = O y como ..t * µ se tiene que {u , v} = O es decir u y v son


ortogonales.

18
Lema 1.12. Toda matriz simétrica tiene., al menos un valor propio real.

Corolario 1.13. Si A es una molriz simetrica de orden nxn, entonces los valores
propios de A son números reales., y existen n vectores propios de A que forma,1
un conjunto ortonormal.

Demostración

Si P = (P ¡¡) y si D = (dy) son las matrices especificadas en el teorema anterior,


entonces

D = P- AP � AP
1
= PD

Sea V = { P 1; , ... , P m)' la i-ésima columna de P, entonces

y las n columnas de P son vectores propios de A que fo11nan un conjunto


ortono1n1al.

Al multiplicar el lado izquierdo de esta ec11acion por v' , obtenemos

v' A V = dij v' V

Dado que v Av y v v son ni,,,,eros reales y que v' v * O, el valor propio dy


1 1

también es un número real.

Definiciónl.14 Una matriz si111étrica A de orden n x n es definida positiva si

x Ax>O, V x �R -{O}.
t

Teorema 1.15 Una matriz simétrica A es definida positiva si y sólo si todos Los

19
valores propios de A son positivos.

Demostración

Supongamos primero que A es definida positiva y que l es un valor propio de A


con vector propio asociado x. Entonces

1
o <x A X

Así que l>O. En consecuenc� todo valor propio de una matriz definida positiva
es positivo.

Ahora st1ponga que A es simétrica con valores propios positivos, entonces


existen n vectores de A v , •.. , v , que fo1man lD1 conjunto ortono11¡1aJ y
1 º

-
linealmente independiente. Asi para todo x =1= O existe un conjunto í1nico de
constantes fJ 1 , • • • ,fJn no todos ceros tal que

X ¿p ¡ Vi
i=I

multiplicando mienbro a mienbro

n n n n
i i j i
LP¡ A
1 v LP¡l¡ v
x' A x - x =x• = LLP; P¡l¡{v )'v
i=) i=J j=I i=J

1
Pero los vectores v , ••• ,v" fo111,an un conjunto ortonor1nal y, por tanto

o, i * j
l, i = j

20
y como l¡>O =>

n n n

= L L /J /j¡l¡ (v
j=l i=I
j
j
)t v i
= L
i=I
l ¡p f >o

=> A es definida positiva .

1.2 Los teoremas de Schur y Gershgorin

Hemos dicho que dos mat1·ices A y B son semejantes entre si� ct1ando existe una
matriz no singular P tal que B = PAP-1 • La impc,1 tancia de este concepto surge
de) teorema que establece qt1e dos matrices que representan a tina mis1na
t,·ansfo1111ación lineal, con respecto a dos bases distintas, son semejantes entre sí.

Teorema 1.16 Todas las matrices semejantes tienen los mismos valores propios.

Demostración

Sean A y B dos matrices semejantes, es decir,

B = PA.P-·1

Vamos a ver que Ay B tienen el mismo polinimio característico. Ciertamente,

det{ B - U) = det (PAP-' - )J)

= det [P(A - U)P-']

21
=det P det (A - ll) det p- 1

=det(A-ll)

Hemos incluido dos hechos básicos en esta prueba: el detenninante del producto
de dos matrices es el producto de sus dete1111inantes; el dete1111inante de la inversa
de una matriz es el reciproco de su dete11ninante.

1.2.1 Factorización de Schur

El teorema 1.16 sugiere una estrategia para encontrar los valores propios de A:
convirtiendo A en una matriz B por medio de una transf01·111ación de semej�
B=PAP-1, y calculando los valores propios de B. Si B es más simple que A, el
cálculo de sus valores propios quizá sea más simple. Específicamente si B es
triangular los valores propios de B ( y los de A) son simplemente los elementos
diagonales de B. Esto nos lleva de un modo natural al teorema de Schur, seg1'10 el
cual la estrategia precedente siempre será posible (al menos teóricamente·).
Recuerde que una matriz U es unitaria si uu· = l. Aqui, u* denota a la
conjugada transpuesta de U: (U*) ij = ¼í. El siguiente es el teorema de Schur.

Teorema 1.17 Toda matriz cuadrada es unitariamente semejante a una matriz

triangular

Demostracion

Procedemos por inducción sobre n, el orden de la matriz A. El teorema es trivial


cuando n = 1 . Suponga que el teorema ya se demostró para todas las matric.es de
orden n-1 , y considere una matriz A de orden n. Sea A un valor propio de A, y x

22
un vector propio correspondiente . No habrá pérdida de generalidad si suponemos
que Uxll, == l. Como es usual� denotamos con e == (1, O, ...,O) . Sea fJ == ,x 1, si
1 T
k
IXI 1

x1 * O, y fJ = 1 cuando x 1 == O. Por el lema 1.20 que enunciaremos más adelante,


hay una matriz unitaria U, tal que Ux- /J e • Dado que U es unitaria, u-1== U*,
1

/J x == u* e de modo que
1

UA U*== UAB- 1 x = p- lU x ==l e


1 1

1
Esto demuestra que la primera columna de UAU* es l e • Sea A la matriz que
se obtiene al eliminar en UAu·· la primera fila y la primera columna. Por
hipótesis de inducció� hay una matriz unitaria Q de orden n-1, tal que QAQ* es
triangular. La matriz unitaria con que se reduce A a una fo11na triangular es

V=
1 O
u
o Q

pues

1 O -
1 O l. W 1 O
VAV*= UAU* -
o Q o Q O A o Q*

1 O 1 WQ* WQ*
- -
o Q O A Q* O QA Q

En esta ecuación, w es ttn vector fila de orden n-1, y los ceros representan
vectores nulos de orden n-1. Como la matriz

23
1 O
o º
es unitaria.

Hemos obseivado esta demostración no es constructiv� pues apela a (y hace uso


de ) la existencia de valores propio� mas no aborda el problema de cómo se
pueden calcular.

Corolario 1.18 Toda matriz cuadrada es semejante a una matriz triangular.

Corolario 1.19 Toda matriz hermiliana es semejan/e unitariamente a una matriz


diagonal

Demostración

Si A es htrnlltiana, entonces A= A•. Sea U una matriz unitaria tal que UAU* es
triangular superior. En tal caso (UAU*)* es triangular infe1ior. Pero

Así� la matriz UAU* es ambas cosas, triangular superior y triangular interior; por
consiguiente, se trata de una matriz diagonal.

Lema 1.20 La matriz 1- vv • es unitaria si .,v solo si llv lli=2 o v == O

Demostn1ción
.. - . .
Para que la matriz U = I - vv sea un1tana se requiere

• * •
I = UU = (I - VV )(I - vv )

24
Una condición necesaria y suficiente para que v es que
-·v .
v = 2 o vv = O.

Lema 1.21 Sean x y y dos vectores tales que llx 11 2 == IIY 11 2 y (x , y) es real. En
este caso hay una matriz unitaria U de la forma l - vv • tal que Ux == y.

Demostración

Si x = y, tomese v=O. Si x * y, podemos suponer que V= a(x - y), con a =

.fi
Hx-y R 2

Esta elección de v nos conduce a: •

- --* -
Ux - y = (I - vv* ) x - y - X -VV X - y 2
y X - -a ( X - y) (X* - y* ) X
=

= (X - y) [ 1 -a2 (X* X - y* X) ]

Esta últirn.a expresión es igual con cero� pues el factor entre paréntesis es nulo.
,. - -* -
Para ver esto, apoyémonos en las hipótesis x * x = y* y y y X-X y� pues
<x,y> es real para calcular:

--·
x+x
--·
x-y
- -·
x-y x)

25
= 1 - 1 a-"(X-* - y_$ )(X- - y-)
2

Nota: Si se conoce un valor propio l de una matriz a de n x � entonces la


-
demosttación del teorema de Schur nos indica cómo producir una matriz A de
(n-1) x (n-1) que tiene los mismos valores propios que A, salvo A. Este proceso
se conoce bajo el nombre de deflación.

1.2.2 Localización de valores propios


Para dete1·111inar donde se sitúan los valores propios, en11nciaremos el terorema de
Gershgorin.

Teorema 1.22 El espec'tro de una matriz A den x n (es decir el conjunto de sus
valores propios) está contenido en la unión de los siguientes n discos, D¡, en el
plano complejo:

e
D n
D¡= zE : lz-a;; 1 :S I)ay 1 (l:Si<n)
j=I
- -
p:t

Demostración

Sea A un elemento del espectro de A. Elija un vector x tal qL1e llxll 00=l y Ax=l x.
Sea i un indice para el cual lx¡1=1.. Como (A x) ¡=l X¡ , tenemos que

26
D

l X¡ = :Eaij Xj
j-=1

En consecuencia

o
(l-a¡¡) X¡ = :Eaij Xj
- .
j=I
J*I

Tomando valores absolutos, aplicando la desigualdad del triángul.o y utilizando la


desigualdad lxjl <I = lxil, tenemos que

n n
ll-a¡¡ 1 :S :Elaij Ux¡ 1 :S :Elaij 1
j• =i• - -
j=I
J*' J�

de modo que l � O¡

Los discos de Gershgorin para la matriz

-1 O J_
4

A== .l.
4
l J_
4
1 l 3

se muestran en la siguiente figura, donde podemos deducir que todos los valores
propios de A satisfacen la desigualdad½ :S lll :S 5.

27
Eje imaginario 2

-
l

Eje real
-2 J 4

Discos de Gershgoñn

Teorema 1.23 Si una matriz A se diagonalíza por medio de la transformación de


se,nejanza p-I AP., y si Bes una matriz arbitraria, entonces los valores propios de
A+B se encuentran en la unión de discos

donde l 1, ... A n son los valores propios de A y Xoo(P) es el número de condición de


P.

Demostración

Vamos a demostrar 110 resultado, en cierto modo más _preciso. Si _p-t AP = D, la


diagonal de la matriz diagonal D consta de l 1 , ••• ln. Luego para al espectro se
cump]e:

esp(A+B )=esp[P-1 (A+B )P]=esp(D+P-1 BP)

28
Aplicando el teorema de Ge1shgorin a D + C� con C = p-1 BP., concluimos que el
espectro de A+B se encuentra en la 11oión de los discos de Gershgorin de D+C,
los cuales son

n o n

= 1.1-.1¡-cü 1 < L1dij+cij 1= L1eij 1


j=l.. j=l
.. .. ..
J*1 J*t

por la desigualdad del triángulo y la definición de 11 C 11 �, tenemos que

ll-l¡ 1 � ll-l¡-C¡¡ 1 + je¡¡ 1 � le¡¡ 1 + ¿leij 1


. ..
j=J
J:J;.l

Este último teorema indica que c11aodo se perturba 11na matriz A, sus valores
propios se ven perturbados por 11na cantidad que no excede de Xoo(P)IIBll 00 ,
donde B es la matriz de perturbación y xoo(P)es el número de condición de P con
la DOI 1118 11 • II oo •

Para las matrices hermitianas (es decir� aquellas para las que A·=A) se puede
elegir una matriz P unitaria; se trata en realidad del corolario 1.18 del teorema de
Suchr. por lo tanto, en este caso las ftlas de P son vectores que satisfacen 11 x li 2 =
1. De lo anterior se obtiene que IIP 11 00 ::; /n. Esto tambié11 es cierto para p-1, de
modo que xoo (P) � n. En consecuencia, para toda matriz B, los valores propios de
A + B están situados en la t1oíón de discos

M C : ll-l¡I � x�(P)IIB 11 oo

29
donde l 1 ., .....ln son los valores propios de la matriz he1111ítiana A.

30
Capitulo II

Método de la Potencia
Es un método iterativo para aproximar el valor propio (dominante). Supongamos
que la matriz A de orden nxn tiene n va1ores propios A.1,·· ·,Á n con un conjunto
asociado de vectores propios linealmente independientes {v >
< 1 . n)
, •. , v } .
<

Supongamos que los valores propios de A cumplen ll I I > 1121 � · · · 2: IAn 1-


n
Si x < 0>
E C -{O} que c11ando se escribe como 11na combinación lineal de la
1 1
base {v > , ..• , v } el coeficiente de v ) es distinto de cero, así
< <n> <

L
D

x<º> = /J¡ v
i
(/Ji * O) (2.1)
i=J

x(l} = A x<0> -



luego:
D

::)X (t)
= I':JJ¡Ak(v i )
i=J

= LP¡ lf v <i)

i==l

t k
V(2) + ... + Rn
An
----
-n
p A1 V

(2.2)

Sea

k
k .,,c2) Án -(n)
+ ... + fJ
n At
V (2.3)

de (2.2) y (2.3) se tiene:

(2.4)

como I A 1 1 > llj I para todo j = 2, ... ,n y se cumple que

k
Lim =0 (2.5)
k-+00

y Lim [P, v <1 >


+& <k>
] = /J, v <I)
(2.6_)
k-+00

n
<1> ) O.
Sea 'P una funcional lineal sobre C tal que 'P ( v =t-

Luego, de (2.4) se tiene

32
(2.7)

Sea

'P(x<A:+1) ) _ 1
11+ ['P ( v( I> ) + 'P ( t < A:+J) ) ]
- (2.8)
(
'P ) )
x < A:
11['1'( v (I)
) + 'P(.: <A:)
) J
de (2.6) y (2.8) se obtiene

�Lin1 Tt. = Á] (2.9)


k�

de (2.4)

(2.10)

de (2.1 O) y (2.6)

1,(I)

vector propio correspondiente a A 1

2.1. ALGORITMO DEL METODO DE LA POTENCIA

33
Entrada: A€ 9l ffXII
xcmn
M : ní1mero de iteraciones
Para k = I, 2., .. .. .,M hacer
y:= Ax
r ·•= 'P(Y)
\J'(..T)

X :=y
Salida: r (aproximación del valor propio)
x (aproximación del vector propio)

1
Para asegurar la convergencia de x en la práctica, esto es para evitar que tienda
al vector cero o crezca sin limite, en el metodo de la potencia se introduce una
no11nalin1ción de los vectores x<.t)

Luego: se tiene el algoritmo no11nalizado

Entrada: A€R

XE R
M : 01'1roero de iteraciones
Para k == 1,2, ...,M hacer
y:== Ax
r : == 'P(y)
'P(x)

X :=
IIY 1111)
Salida: r (aproximación del valor propio)
x (aproximación del vector propio)

Algoritmo Modificado del Método de la Potencia

A partir de (2.4) si lxi�> 1 = llx < A:>


11 00
, consideramos

34
•·

(l+I)
r<lc) = Xp¡
(i)
Xpi

[ /J 1Vp( 11: ) + c,�p(1+ 1) ]


= l1
1
(1) (k)
[ /J1Vp1; + Epi ]

como s<k·) --.. O , se espera que

lim r >
< 1 = l1
r-+«:;

Para estabilizar el cambio de indices PA. y para k grande y evitar overflow, en cada
paso se elige

·- •
p1c .. - m 1n V
f -€ { l , 2 , ..... , n x
} 1 (i)
j 1 -
- 11-x 11 � }
(k)

35
n
Entrada: AER
n
xER
M : número de iteraciones
to/ : tolerancia
p : = min{;E{l,2, ... ,n} : l:rj l = llxll 00 };
-
X .·= X .
X ,
p
Para k == 1,2, .. . ,M hacer
y:== A i;
r :== yp;
p : = min{íE{l,2, ... ,n} : lYj l = II.Yll 00 }
Si _Yp == O, entonces escribir(' criterio falla')
escribir(' correr nuevamente')
Parar!
..
SlDO
-
X:= Y .
YP,
Er r : = llx - ) y ILxi
P

Si E"< to/ entonces escribir('vector propio aprox', x )


escribir(" valor propio aproximado,, r)
Parar!
fin_si
fin_si

Nota:ver programa en anexo

2.2. MÉTODO DE LA POTENCIA INVERSA

Se sabe qt1e si es un valor propio de una matriz no singular A se cumple que


).,

¡-1 es un valor propio de A-1• Esto sugiere un mecanismo, para calcular el valor
propio más pequeño de A como sigue:

Supongamos que los valores propios de A, son tales que

36
Luego los valores propios de A-1 son tales que

Luego, con el método de la potencia se puede calcular el valor propio de máximo


/\ A
1 1
modulo l= Án de A= A- • Recordando

/\
x(k+J > =A -(k)
X

1
Evitando el cálculo de A- , en cada paso se debe dete11ninar x < k+t)
solucionando
el sistema lineal

aplicando por ejemplo el método de eliminación de Gauss. Se necesita efectuar


solo una vez la fase de eliminación de Gauss y se repite en cada iteración
cambiando solo la parte derecha de la ecuación.

37
2.2.1. ALGORITMO DEL METODO DE LA POTENCIA INVERSA

Entrada: A€R
n
X€ R
M : número de iteraciones
to/ : tolerancia;
p := min{;E{l,2, ... ,n} : lxi l = llxll 00 };
X .·= X .
Xp ,

Para k = 1,2, .. . ,M hacer


y:= A- 1 x;
y:= SolGaz,ss(A,x);
rl+I
r : == � ;
1
- X •

X- 1-11
.X •
2 ,

x-=y;
E" := 11 x -i 2
k+1 1
1
Si Err < tol entonces escribir('vector propio aprox', x )
escribir('valor propio aproximado', r)
Parar!
fin_si
fin_para

Nota:ver programa en el anexo

2.3. POTENCIA INVERSA CON DESPL ENTO

Al considerar la 1natriz desplazada (A - µl) se puede calcular el valor propio de


A más cercano a µ.

Sea Ák el valor propio de A tal que O< IAt - µI < E, donde µE C ha sido
deter1ninado con anterioridad y

IA.j - µI > E, para las otros valores propios Áj * At de A. Como los valores

38
propios de A - µ/ son los ní1meros lj - µ � el método de la potencia inversa se
1
puede aplicar a (A - µI) para obtener 11na aproximación de /3 = (Ak - µ)- • Para
dete11ninar x < k+I)
de

la descomposición gausiana de A - µJ se debe calcular una sola vez. Finaln1ente


1
de /J == (lk - µ)- se obtiene .,i• = p- + µ.
1

2.3.1. ALGORITMO DE LA POTENCIA INVERSA CON


DESPLAZAMIENTO

Entrada: AER
X€ R

M : número de iteraciones
to/ : tolerancia.;
•·=
X X .
Xp ,

Para k == l,2, .. . ,A1 hacer


y:== (A - µI)- x; 1

y:= SolGauss(A - µJ., x);


.rl:-t 1
r := � ;
1
-
X •
X- llxH 2 '
x=y;
x k+t
Err := 11 -x
k
11 2
Si E" < to/ entonces escribir('vector propio aprox', x)
escribir('valor propio aproximado', r- 1 + µ)
Parar!
fin_si
jin_para

39
2.4. METODO DE LA POTENCIA CON DESPLAZAMIENTO

Al considerar la matriz desplazada (A - µl) también se puede calcular el valor


propio de A más alejado de 110 valor propio dado µ. Sea l1 el valor propio tal que
ll k - µI > E para algún k y lli - µI < E para los otros valores propios de A. Al
aplicar el metodo de la potencia a (A - µl) se obtiene /J = Ák - µ y de aqui
11 == /J + µ.

40
2.4.1. ALGORITMO DE LA POTENCIA CON DESPLAZAMIENTO

Entrada: AER
xER
M : número de iteraciones
tol : tolerancia
µ : para deter111inar un valor más proximo
p : = min{i€{l,2, ... ,n}: lx¡I = llxll 00 };

X.·= X .
X ,
p
Para k == 1,2, . . . ,M hacer
y:= (A - µ/) x;
,. := yp;
p : = min{iE{l,2, ... ,n} : lvj l = IIYII C(J }
Si YP = O, entonces escribir ("criterio falla')
SIDO

x:= Y .
Xp,

E" : =11 x - ir Y ooII


Si Err < to/ entonces escribir(_'vector propio aprox', x )
escribir(_'valor propio aproximado', r + µ)
Parar!
fin_si
fin_si

Nota:ver programa en el anexo

DEFINICION 2.5. Supongamos que {Pn} � es una sucesión que converge a P


con P O * P para todo n . Si existen las constantes positivas l y a con

41
lim

:
entonces {P m} =0 convergera a P, oon orden a con 11na constante de error.

DEFINICIÓN 2.6. Supongamos que {/J 0 }: 1es una sucesión que converge a
cero y que {a n }:: 1 converge en un número a. Si 3 una constante positiva K con
1 a n- a 1 :S Kl /Jo I para un valor mas alto de n, entonces diremos que {aº}� 1
converge en a con un rápidez de convergencia 0(/Jn)
(a 0 =a+O(/J ó ªº - a con rapidez de convergencia 0(/Jn))
0)

La rapidez con que {µ } :__ 1 converge a A 1


m (µ m
� A1 + 1 :� 1 m) se dete11nina

mediante las razones 1 :: 1 m, para j=2,3,...,m y particularmente con 11� 1m, la


rapidez de convergencia o( 1 !� j m) por lo cual hay un aconstante K tal que para
m grande.

(*)

2.5. ACELERACIÓN DEL MÉTODO DE LA POTENCIA

ª
2.5.l. PROCEDIMIENTO DE Al'l K'4:N A 2

Cuando una sucesión tiene una convergencia lineal , se puede mejorar su


convergencia es decir:

Sea {P O } :=0 es una sucesión que converge linealmente a P, para obtener la


/\
construcción de una sucesión Pn que converja mas rápidamente a P que

{P n } supongamos que los signos de Pn - P, P n+I - P, Pn+2 - P son iguales y que n

42
es suficientemente grande como para que

entonces

por tanto

=>P=------
Po+z- 2Pn+I+ P n

sumando y restando P� y 2PoP n-t-1 :

P=----------------

(Pn+ 1- p D) 2
P= .Pn - -------
Pn+2- 2P nt-1+ p n

43
A
El metodo ll 2 de Aitken se fundamenta en que )a sucesión P n defmida por

/\ 00

converge más rápidamente a P que la sucesión P n

44
2.5.2. ALGORITMO ACELERADO DEL MÉTODO DE LA POTENCIA

Enbada: AE R

X€ R

M : número de iteraciones
to/ : tolerancia
k-== I·,
µ0=0;
µ1=0;
p := min{;E{l.2•...• n} :
-
lxj l = Hxll 00 };
X•·= XXp ,.

Para k == 2, ... , M hacer


y:= A i;
µ = yp ;
/\ = 2
(µ1 - µo)
µ µo - - 2µ
µ 1 + µo
p := min{iE{l,2, ... ,n} : IY¡I = 11.Yll oo }
Si YP = O, entonces escribir ('criterio falla')

smo
-
X := Y �.
Xp

Err := 11 X - )P Y 00 ll
Si Err < tol entonces escribir(_"vector propio aprox", x )
escribir(_'valor propio aproximado', r)
Parar!
jin_si
jin_si
µo = µ1;
µ1 = µ;
jin_pa,ra

45
Nota: ver programa en el anexo

2.6. MÉTODO DE LA PO'I'ENCIA SIMÉTRICA

C11ando A es simétrica, podemos hacer una variación en la elección de los


vectores x m
, y y escalares
m
µ m para mejorar significativamente la razón de
convergencia entre la sucesión {µ m } ;F I y el valor propio dominante l 1. De
hecho , aunque la razón de convergencia del metodo general de potencias es

o( 1 �� 1 m), la del metodo modificado para matrices simetricas es O 11� l 2m


La sucesión {µ } es todavia linealmente convergente, de modo que podemos
m

2
volver a aplicar el procedimiento 6. de Aitken.

2.6.1 ALGORITMO DEL MÉTODO DE LA POTENCIA SIMÉTRICA

Para aproximar el valor propio dominante y el vector propio asociado de 11na


-
matriz simetrica A de nxn, dado un vector r.t=O

46
Entrada: A€R

i ER
M : número de ite.raciones
to/ : tolerancia
k = 1 ,·
-

x:= 11f112;
Para k = 2, .. . .,M hacer
y: = Ax;
-T -
µ =x •y;
Si IIY 11 2 == O, entonces escribir('criterio falla')
Parar!

SIDO
-
X:= y .
11.Y 11 2 ,
Err := tlx - ) y 11P «>

Si E" < to/ entonces escribir(_'vector propio aprox', x )


escribir(_'valor propio aproximado', r)
Parar!
fin_si
fin_si
fin_para

47
TEOREMA 2.9. Si A es una matriz simétrica de nxn con los valores propios
l 1 , ••• ,ln y 11 A x - l x 11 2 < E para algún vector x con II x 11 2 = 1 y con el número
rea) A, entonces

mio llj-AI < E


J<j<n

1 n
Demostración: supongamos que v ,... ,v fo1,oan un conj11nto ortogonal de
vectores propios de A asociados, respectivamente, a los valores propios l1�-··),n.
e11tonces para algún conjunto único de las constantes P 1,...,/Jn, podemos expresar
- .
x como sigue:

x= LP.i j
v
j=I

Por tanto,

2
LI
n n n
2
/Jj (Aj - l) vj = Ll/Jj 1 llj- l 1 � mio l)�j-ll LI/Jj 1
2 2 2

j= 2 j=I 1 <j<n j=-1

pero

o
LIPj1 =
2
nx 11 � = 1
j=J

,
as1 que

E � 11 Ax - lx 11 2 > min l lj- l 1


1 <j<n

48
-

Capítulo 111.

Una Aplicación para un problen1a de Valor en la Frontera

3 .1. Introducción

Describimos el siguiente sistena fisico que puede servir como contexto para
examinar este tipo de problema.

p p
y
(0..0)

t
y •

-------
M
X
._ t•
"'
P

(LO)

b)
X o)

La curvatura de una columna esbelta sujeta a una carga axial P se puede modelar

por

(1)
___ _

elasticidad e I = momento de inercia de la sección transversal con respecto a su


eje neutro. Tomando en consideración el diag1ama de cuerpo libre de la figw11
(b), está claro que el momento de flexión en x es M = -Py. Sustituyendo este
valor en la ectiación (1) se obtiene

d 2y 2
�+P y = O
dx2 (2)

donde

(3)

Para el sistema de la figura , sujeta a las condiciones de frontera

y(O) = O (4)

y(L) = O (5)

la solución general para la ecuación (2) es

y = Asen(px) + B cos(px) (6)

donde A y B son constantes arbitrarias que serán evaluadas por medio de las
condiciones de frontera. De acuerdo con la primera condición (4)

O== Asen(O) + B cos(O)

Por tanto, concluimos que B == O

50
De acuerdo con la segunda condición (5)

O = Asen(pL) + B cos(pL
. )

Pero, puesto que B = O, Asen (pL) ==O. Ya que A = O representa una solución
trivial, concluimos que sen(pL )==O • Para que esta igualdad se cumpla

pL = rur paran = 1�,3,... (7)

Así existe un número finito de valores que cumplen con las condiciones a la
front� la ecuación (7) se _puede resolver para

D1C
p= L (8)

los cuales son los valores propios para la columna.

t'EI 41EJ 9i'EI 16iEI


P= pe p: p
e
'C
·t
L L, L,

l - l 1 l

o) n = l b) tF=2

La figura muestra la solución para los primeros cuatro valores propios, puede
proporcionar el significado fisico de los resultados. Cada valor propio
cu11esponde a una manera en la que se pandea la columna. Combinando las
ecuaciones (3) y (8), se obtiene

51
n 2n:2EI
p = L2 paran=l,2,3, ... (9)

ésta se pueden tomar como cargas de pandeo, pues representan los niveles a los
cuales se mueve la columna en cada configuración de pandeo sucesiva. En un
sentido práctico, usualmente el primer valor es el interés, ya que en general, las
fallas ocWTen cuando primero se pandea la columna Así, una carga crítica se
puede definir como

la cual es conocida de manera for111al como formula de Euler.

Aplicando el Método de la Potencia

La ecuación (2) se puede resolver numéricamente sustituyendo una aproximación


por diferencias divididas fmitas cer1badas para la segunda derivada, lo que dá

Yi-1- 'l:y¡+Yi-1
-ly¡ =0
h2

la cual puede expresarse como

-1
h2
o
-1 -1 =0
b2 h2
(11)
o -)
h2

Deteru1inaremos el valor propio, más grande para la columna cargada axialmente


usando 3 nodos. Para poner en práctica el método de la potenci� el sistema que
se analizará debe expresarse en la fo1n1a

52
Ax == lx (12)

ésta es la base para una técnica de solución iterativa que fmalmente da e) valor
propio más grande y su vector propio asociado.

·, Escribiremos , el sistema según ( 12)

3.556x1 -1.778x2 o Xt

-l .778x1 +3.556x2 -l ..778x3


o -1.778x3 +3.556x2 X3

53
potenci_ acelerada. nb

,',

Metodo de la Potencia con el procedimiento de Aitken


'·.

3.556 -1.778
..... ri 7- _;.;._... =
.:..:.:it -1.778 3 .�::>o
... - ,,. -i."778
-1.778 3.SSó

·_¡ e C t-"- O r --·n·--i ,-'-- i· a 1 - ..


'<" Ü
-

{{0.6}, {-0.6}, {l.}} U(l)==2.96333 O

{1.}} U(2J-=4.6228 6.73485

{(0.8}, {-1.25}, {l.}} U(J]=S.47077 6.35685

{-1.32:308}, {l.}} U[4]=5.7785 5.95379

Q'JC,2. '"l 6}
r
t
(Q
l • -· L. ..J .J "'- ' {l. / } U(S]=S.90843 �.00338

(l. }} U(ó]=S.97606 6.04945

{{0.973941}, f'. - 1, . 3c._, ---,,


....
..._; , · .
1 •
, (1.}} U[7] =6.01483 6.06695

::o
'..\
0911 ..... ,.."i}
, _.,, --,Q:)¿_ ,
{ -
1- .
, ,.._--,.,..
-iUjjQj' {1.}} U(8)=6.03767 6.0704

•'-" -M<l'.
{-1 • Jr, ...,.�, {1.}} U(9]=6.05117 6.J7068
' U(iOJ=ó.05913 6.07058
·�- l .¼,1 J..v
' '"' -t
1,- .
:, {1.}}

{{0.996896}, ',' -1• . �-�u�


., 1 ...., n '") .\ , ,
r -1
.
' - •
'¡ )1
. J
U(ll]=6.06382 6.07052

{{0.998181}, {-1.41293}, {l.}} U(l2]=6.06657 6.07049

Q08CJ4} - U(l3]=6.06818 é.07048


� r,"!
\I.. .J , ..., __, _, , { -
1 . 4. .,-_¿- ,,.o,
1,,. ' ,< � �
{1.}}
r
'-...L
' .--t�-
, 111--:71'
/ .·,
{1.}} U(l4}=6.06913 E.07047

, .. .. .. "" ,,.
6.07047
. . U[- :::.1-"" 0 9 9
l,..¿ O
"' ... • 4 - - ,.. ..

1 - 1 . -i.J....;:1J · , -0 . O

{i. '} u[:éJ=6.07001 é.07047

...º'J ---0-- 1, ' u(:"7J=ó.0702 ¿. -J70.J 7


� _, -
� "
..
,, . _,'--4 ,. \..111111t ,• w. ¡ '
"'

· 1. .¡¡

-�mor002c1cr. "'O
,... .
.... __ ... -
v r u..-;,o.:; ....
¡ ____ , o· n . • • •

..�J< - L � .• ) = '· { o . o
,...
- •......, •¡
, 0 r
V ? ---,1}}
.. ,-: "
-.J - '- - � ...)
Conclusiones

© Es un método iterativo para aproximar valores propios (dominantes), así como


también su vector propio asociado.

C, El método de la potencia con desplazamiento inverso es una modificación del


método de las potencias que ofrece ,,na convergencia más rápida. Se t1sa para
dete11nmar el valor propio de A más cercano a un númeroµ específico.

O La elección deµ dete1111ina la convergencia siempre y cuando 1/(Ak-µ) sea un


1
valor propio dominante y único de (A - µ/)- (aunque puede ser un valor propio
dominante múltiple).

«, C11anto más se acerque q a un valor propio Ak de la matriz A, más rápida será


la convergencia.

O Este método de la potencia tiene la desventaja de que al inicio no se sabe si la


matriz tiene un solo valor propio dominante.

O Cuando A es simétric� podemos hacer una variación en la elección de los


m
vectores xm , ym y escalares µ para mejorar significativamente la razón de

convergencia

o El método de la potencia también puede ser aplicado para hacer el calculo del
valor propio má s peq ueñ o, par a ell o cal cul am os la ma triz inversa de A y (A- 1), y
· e -- 1 va 1o r pr o .
pio 1
.
el m et od o de la po te nc ia co nv rg era a T
© También podemos hacer el cálculo de los valores propios aproximados
inte11nedios, reemplazando la matriz original por 11na que incluya sólo los valores
propios restantes

O En el algoritmo de la potencia se puede mejorar la rapidez de convergencia,


mediante la nor1nalización del vector obtenido antes de una nueva iteración.

O El algoritmo del metodo de la potencia se puede optimizar, aplicando el


PROCEDIMIENTO DE ASCEl,ERACION DE AITKEN.

56
Bibliografia.

•BURDEN RICHARD L. & FAIRES J. OOUGLAS. Análisis Numérico. Sexta


Edición .. lntemational Thomson Editores (1998).

...coHEN ALAN M.; cu·rrs J.F; FIELDER R; JONES O.E.; RIBBANS J.;
STUART E. Análisis Numérico. Reverté S.A., Barcelona (1977).

........ G. R. W. Numerical Methods for Scientists and Engineers, 2a. ed.,


MC.GRA W-HILL, Nueva York ( 1973)

•NOMIW KATSUMI . Fundamentals of linear Algebra. Me Graw-Hill Book


Company, New York (1966).

•KINCAID DAVID & CHENEY WARD. Análisis Numérico: las matemáticas


del cálculo científico. Addison-Wesley Iberoamericana (1994).

... RAFAEL BRU JOAN-JOSEP CLIMENT .Algebra Lineal.Universidad


Politecnica de Valencia (2001)

... sTEVEN C. CHAPRA RAYMOND P. CANALE. Métodos Númericos para


Ingenieros. e MCGRAW-HILL(l995)

... WILLIAM W. HAGER Applied Numerical Liner Algebra. Prentice Hall


lnternationa� loe (1988)
UNIVERSIDAD NACIONAJ¿ DF: IN(iENJF:RIA
l�acultad de c:icncias

ACTA DE SUSTENTACIÓN DEL INFORME DE SUFICIENCIA


PARA OPTAR EL TÍTULO PROFESIONAL DE LICENCIADO
EN MATEMÁTICA

Nombre: ......�(H.�P.J.4. .... �ªJ.0.P.�1 ...¡..-�).�.�'.!.�.S:-: ... 8��.��.(<;'........

'Título:

............. e: A.\-��º-.. .P. .r;:,... k/t.>.�r-f;i�....em.f(� ... .Mfi!?.��-� �.....................



..............§.�...�J3� �). 9.;). .... P.� ....((.1.... r r.0.q4 ...................................... .
<;!.

•••••• •••• •• •• •• •• ••••••••••••••••••••••••••• •••••••••••••••••••••••• ••••••••••••••••••• ••••••••••••••••••••••••••••••

Miembros del Jurado:

Decano o su representante:

" (firma)

..

Profesor Especialista:

(firma)

Luego de sustentado el Informe de Suficiencia y absueltas las preguntas, el


Jurado c)torgó el calificativo de:
ÁJ?llof!:A-(20 C(Jf{ f)lSí(NC/óf/

tal como consta en el l _¿ib1·0 de Actas N º


M�::q,�t, l�'olio N º
••••••••••••••••••••• • • • • • • •

Dado en la ciudad de Lima en la fecha: 0-6 l_éJ //<!J 's a horas: ¡9-: 15

Decano irect()l" ... e la Escuela Pr<)Íesional

También podría gustarte