Notas de Clase Control PDF
Notas de Clase Control PDF
Notas de Clase Control PDF
Nicanor Quijano
c Borrador Editado 14 de julio de 2009
Índice general
Contenido I
Prefacio 1
1. Introducción 3
1.1. Qué es Retroalimentación? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Qué es Control? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Historia del Control Automático . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1. Inicios del Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2. Perı́odo Pre-Clásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3. Perı́odo Clásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.4. Control Moderno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4. Ejemplos de Sistemas de Control Retroalimentado y Future Directions . . . . 9
2. Modelamiento de Sistemas 11
2.1. Filosofı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Principios de Modelamiento Matemático . . . . . . . . . . . . . . . . . . . . 11
2.2.1. Esquema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3. Sistemas de Primer Orden y Controlador ON-OFF . . . . . . . . . . . . . . 19
2.4. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.1. Transformada Unilateral de Laplace . . . . . . . . . . . . . . . . . . . 20
2.4.2. Propiedades de la Transformada de Laplace . . . . . . . . . . . . . . 23
2.4.3. Solución de ODEs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5. Funciones de Transferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.6. Linealización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.7. Diagramas en Bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
i
ii ÍNDICE GENERAL
6.2.6. Sintetizando . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.3. Sintonización de Controladores PID . . . . . . . . . . . . . . . . . . . . . . . 85
6.3.1. Sintonización de Controladores PID: Método Manual . . . . . . . . . 86
6.3.2. Sintonización de Controladores PID: Ziegler/Nichols . . . . . . . . . . 86
6.3.3. Sintonización de Controladores PID: Cohen y Coon . . . . . . . . . . 89
6.3.4. Sintonización de Controladores PID: Método del Coeficiente de Ajus-
tabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.3.5. Sintonización de Controladores PID: Internal Model Control (IMC) . 89
6.3.6. Sintonización de Controladores PID: Sı́ntesis Directa . . . . . . . . . 90
6.4. Algoritmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.5. PID Digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.6. Criterios de Desempeño . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
6.7. Diseño con Pole Placement . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
v
vi ÍNDICE DE FIGURAS
4.2. Respuesta a entrada paso del sistema de primer orden (4.1) cuando K = 1, y
τ = 10. La lı́nea punteada roja representa el valor final cuando se ha cumplido
el primer τ , mientras que la punteada negra representa el valor final cuando
se han cumplido 2τ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3. Respuesta a entrada rampa del sistema de primer orden (4.1) cuando K = 1,
y τ = 10 para el panel superior, y τ = 1 para el panel inferior. . . . . . . . . 55
4.4. Sistema de segundo orden [6]. En a) se tiene el grafo, mientras que en b) el
diagrama en bloques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.5. Respuesta a entrada paso del sistema de segundo orden descrito por (4.3). En
este caso, se tiene que ζ = 0 para el panel superior izquierdo, ζ = 0,2 para
el panel superior derecho, ζ = 0,4 para el panel inferior izquierdo, y ζ = 0,8
para el panel inferior derecho. En todos los casos, wn = 24. . . . . . . . . . . 57
4.6. Respuesta a entrada paso del sistema de segundo orden descrito por (4.3)
cuando ζ = 1 y wn = 24. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.7. Respuesta a entrada paso del sistema de segundo orden descrito por (4.3)
cuando ζ = 2 y wn = 24. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.8. Ubicación
pde los polos en el plano-s [6]. Para este caso β = θ, σ = ζwn , y
wd = w n 1 − ζ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.9. Curvas envolventes para la respuesta a entrada paso del sistema de segundo
orden [21]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.10. Respuesta a entrada paso del sistema de segundo orden descrito por (4.7). En
este caso, K1 = 1, wn = 23,53, and ζ = 0,46. . . . . . . . . . . . . . . . . . . 63
4.11. Relación entre M P y ζ. Además, se incluye la relación entre wn tp y el factor
de amortiguamiento [6]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.12. Diagrama en bloques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.13. Respuesta a entrada paso del sistema de segundo orden diseñado para obtener
los parámetros MP y tp definidos en el ejercicio. . . . . . . . . . . . . . . . . 64
4.14. Ubicación de polos de un sistema de tercer orden en el plano-s [6]. . . . . . . 65
4.15. a) Porcentaje de overshoot como función de ζ y ωn cuando un sistema de se-
gundo orden posee un cero. b) Respuesta a entrada paso para diversos valores
de a/(ζωn ). A=5, B=2, C=1, D=0.5, cuando ζ = 0,45 [6]. . . . . . . . . . . 66
4.16. Ubicación de los polos y ceros en el plano-s para un sistema de tercer orden [6]. 67
4.17. Respuesta a entrada paso para un sistema de tercer orden con un cero. Si
se desprecia el polo (-), el overshoot es mayor, pero su ts es menor. Si no se
desprecia (–), se tiene que el overshoot disminuye, haciendo que el tiempo de
establecimiento aumente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.18. Respuesta impulso para varias ubicaciones de las raı́ces en el plano-s. El com-
plejo conjugado no se muestra [6]. . . . . . . . . . . . . . . . . . . . . . . . . 69
6.1. Sistema de control tı́pico. La referencia o el set point viene siendo R(s), mien-
tras que la variable controlada es C(s). La perturbación es D(s). . . . . . . . 80
6.2. Sistema retroalimentado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.3. Proceso de tomar una señal continua y(t) que es generada por el proceso, y
convertirla en una secuencia de números y[n]. El computador toma una deci-
sión y la convierte en otra secuencia de números u[n], los cuales se convierten
luego en una señal continua u(t) que actúa sobre el proceso. Figura adaptada
de [1]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.4. Figura adaptada de [1]), la cual muestra el efecto de aliasing utilizando dos
diferentes señales x1 (t) = sin(2πf1 t) (punteada) and x2 (t) = − sin(2πf2 t)
(sólida), con sus respectivas frecuencias (f1 = 0,1 Hz, f2 = 0,9 Hz, y fs = 1
Hz). Este es un excelente ejemplo de cómo el aliasing puede afectar la recons-
trucción perfecta de las señales . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.1. Modelo mecánico que corresponde a una masa, sujetada por un amortiguador
y un resorte. La posición está dada por y, y se le aplica una fuerza inicial f0 . 102
7.2. Modelo en Simulink que corresponde a la Figura 7.1. . . . . . . . . . . . . . 103
7.3. Simulación en Simulink del sistema descrito en la Figura 7.1. Para este caso
se utilizaron los parámetros f0 = 5N, M = 2kg, k = 16N/m, y cuatro valores
para b. En la parte superior izquierda, se tiene b = 2N.s/m; en la parte superior
derecha, se tiene b = 4N.s/m; en la parte inferior izquierda, se tiene b =
8N.s/m; y en la parte inferior derecha, se tiene b = 16N.s/m. En todos los
casos se tiene que posición está dada por la lı́nea (-), mientras que la velocidad
es la lı́nea punteada (- -). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.4. Simulación en Simulink del sistema descrito en la Figura 7.1, cuando única-
mente se aplica una fuerza f0 durante un determinado tiempo. Para este caso
se utilizaron los parámetros f0 = 5N, M = 2kg, k = 16N/m, y b = 2N.s/m.
La posición está dada por la lı́nea (-), mientras que la velocidad es la lı́nea
punteada (- -). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.5. Diagrama en bloques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.6. Representación en diagramas en bloques de la Ecuación (7.22). Figura tomada
de [11]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.7. Representación en diagramas en bloques de la Ecuación (7.23). Figura tomada
de [11]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.8. Representación en diagramas en bloques de la forma canónica controlable.
Figura tomada de [11]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.9. Representación en diagramas en bloques de la forma canónica de Jordan cuan-
do las raı́ces son diferentes. Figura tomada de [11]. . . . . . . . . . . . . . . 118
viii ÍNDICE DE FIGURAS
6.1. Valores de los parámetros de los controladores para el método de malla cerrada. 87
6.2. Valores de los parámetros de los controladores para el método de malla abierta. 88
6.3. Valores de los parámetros de los controladores para el método de Cohen y Coon. 89
6.4. Valores de los parámetros de los controladores para el método del coeficiente
de ajustabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
ix
x INDICE DE TABLAS
Prefacio
Estas notas de clase son para uso exclusivo de la clase. Este es un primer borrador,
el cual contiene muchos errores de toda ı́ndole. En muchos casos no le doy el crédito co-
rrespondiente a algunos resultados. Sin embargo, una falta de referencia no significa que
los resultados sean del todo originales. En efecto, todos los resultados presentados en estas
notas han sido tomados de libros y artı́culos que no necesariamente son mı́os (a excepción
de algunos ejemplos).
1
2 INDICE DE TABLAS
Capı́tulo 1
Introducción
Whenever you feel like criticizing any one,-he told me,- just remember that all the
people in the world haven’t had the advantages that you’ve had.
The Great Gatsby, F.S. Fitzgerald
3
4 CAPÍTULO 1. INTRODUCCIÓN
abierta y lazo cerrado3 . Un sistema se dice que es de lazo cerrado si los sistemas están in-
terconectados en forma cı́clica, tal como lo muestra la Figura 1.1b). Si la interconexión se
rompe, entonces estamos hablando de sistemas en malla abierta como lo muestra la Figura
1.1a).
Sistema 1 Sistema 2
Sistema 1 Sistema 2
Definition 1 Control es un dispositivo que por medio del uso de algoritmos y retroalimen-
tación regula el funcionamiento de un sistema.
Ası́ pues, se puede decir que control incluye ejemplos tales como controladores de “set point”
en procesos quı́micos, “fly-by-wire” en sistemas aeronáuticos, además de protocolos para el
control de tráfico en la Internet. En la actualidad, las aplicaciones que están emergiendo entre
otras incluyen vehı́culos y robots autónomos y sistemas bioinspirados. El área de control es
esencialmente una ciencia que incluye información de tipo análogo y digital.
La idea básica en un controlador moderno es sensar lo que está sucediendo en el
sistema, comparar el comportamiento de este con el objetivo inicial, corregir aquello que
no esté saliendo bien, y enviar esta información para que el sistema actúe. Es decir, es un
sistema retroalimentado donde se sensa, se computa, y se actúa para obtener el cambio
deseado. El punto clave en este caso es diseñar un controlador que asegure que las dinámicas
del sistema en malla cerrada sean estables y que el resultado final sea siempre el deseado.
Para ello se necesitan técnicas de modelaje y análisis para capturar los elementos fı́sicos para
poder describir de manera adecuada el comportamiento de un sistema, para poderlo hacer
robusto cuando se tienen perturbaciones, ruido, y otras fallas debido a los componentes.
La figura 1.2 muestra un ejemplo de este tipo de sistemas. En ella se pueden observar
los elementos necesarios para sensar, computar, y actuar. En los sistemas de control mo-
derno, el uso de computadores es esencial, con lo cual se requieren components tales como
conversores análogos y digitales (ADC y DAC según sus siglas en inglés). Las perturbaciones
que entran al sistema se modelan de varias formas (e.g., ruido, perturbaciones en el sistema).
El algoritmo de control tiene que ser lo suficientemente robusto para poder responder rápi-
da y adecuadamente a este tipo de incertidumbres. Este algoritmo se conoce generalmente
como ley de control. Para poder diseñar de manera adecuada el controlador, por lo general
es necesario tener un buen modelo del sistema que se quiere controlar.
Routh-Hurwitz (su trabajo tomaba ideas de Cauchy y Sturm, y en 1895 Hurwitz es el que
deriva la misma idea independientemente).
La mayorı́a de los inventos de la época tenı́an que ver con control y estabilidad de
temperatura, presión, nivel, y velocidad de rotación de máquinas. Luego las aplicaciones
comenzaron a realizarse en la parte naval con la aparición de barcos navales y armas de
guerra. Una de los primeros motores dirigidos y controles de posición en malla cerrada fueron
diseñados por Farcot en 1866, el cual sugirió por primera vez el nombre de “servo-moteur.”
El desarrollo de la electricidad y su mejor comprensión, permitieron que se crearán
más aplicaciones en el área de control (se tenı́an más mecanismos para sensar y manipular
señales, y por ende para crear actuadores).
En 1940, Hendrik Bode, demostró que existe una relación una atenuación caracterı́stica y el
mı́nimo cambio de fase asociado con ella. A su vez, utilizó el punto (-1,0), en vez del (1,0)
que originalmente utilizó Nyquist para introducir los conceptos de margen de ganancia y de
fase (además de las limitaciones de ganancia de ancho de banda).
En 1942 Ziegler y Nichols publicaron un paper describiendo cómo encontrar los paráme-
tros adecuados para un controlador PI y PID. Coon en los 50s, extendió dicha teorı́a que
hoy se conoce como el método de sintonización de Ziegler-Nichols.
Un tercer grupo en MIT encabezado por Hazen y Brown, desarrolló por primera vez el
estudio de diagramas en bloques, además de crear el primer simulador de sistemas de control
por intermedio de un analizador diferencial.
La segunda guerra mundial hizo que el área de control se centrara en temas especı́ficos,
entre los cuales se tiene la detección de posición de una aeronave, además de calcular su
posición futura, y el movimiento de un arma de alto calibre para poder dispararle. De acá se
generaron varios temas de investigación teórica, los cuales dieron pie al análisis de sistemas
discretos (e.g., el trabajo de Tustin), y el estudio de sistemas estocásticos de Norbert Wiener.
Al finalizar la guerra, casi todas las técnicas de control clásico se habı́an desarrollado
(la única excepción era el trabajo del lugar de las raı́ces de Walter Evans en 1948). Las
metodologı́as de diseño realizadas eran para sistemas lineales y de una sola entrada, con
coeficientes constantes (lo que generaba problemas, ya que los sistemas son no lineales y de
múltiples entradas). Si bien las técnicas de respuesta en frecuencia eran bastante utilizadas,
algunos preferı́an la solución mediante ecuaciones diferenciales utilizando transformadas de
Laplace, ya que según los ingenieros de la época, ésta era más ajustada a la realidad. También
se comenzó a estudiar optimización, área en la que intervinieron personas de la talla de
Bellman, y LaSalle.
Los misiles guiados, la conquista del espacio, y el desarrollo de los computadores mar-
caron el inicio de esta nueva etapa de conocimiento del control. Ası́ pues, gracias a las ideas
expuestas por Henri Poincaré en torno a ecuaciones diferenciales de primer y segundo orden,
se comenzó a estudiar todo desde el punto de vista de “state-space”.
Richard Bellman entre 1948 y 1952, trabajando para la corporación RAND, estudió el
problema de asignar un misil a un objetivo determinado para que éste causara la mayor
cantidad de daño posible. Esto lo llevó a formular el principio de optimalidad y generó lo
que se conoce como programación dinámica (cuya máxima dificultad radica en la cantidad
de memoria de cómputo que se requiere para resolver estos problemas). Bellman utilizó for-
mulaciones mecánicas como las expuestas por Lagrange y Hamilton para poder resolver los
problemas óptimos que se planteaban. A la par de Bellman, Pontryagin (1956) planteaba el
“maximum principle”, el cual sentó las bases de la teorı́a de control óptimo. Estas dos teorı́as
permitieron que se empezara a profundizar en problemas matemáticos del área de control.
Lógicamente, el desarrollo de los computadores incidieron en que muchos de los problemas
pudiesen resolverse más rápido de lo que se esperaba.
Kalman en los años cincuenta presentó un paper en el cual mostraba cómo problemas
1.4. EJEMPLOS DE SISTEMAS DE CONTROL RETROALIMENTADO Y FUTURE DIRECTIONS9
de control multivariable estaban ligados a aquellos de filtros, lo cual abrı́a una nueva área
de investigación dentro del control (también se encuentra dentro de todo este desarrollo
los aportes que hiciera Bucy tiempo después para generar el famoso filtro Kalman-Bucy).
Ası́ pues, se generaron conceptos tales como observabilidad y controlabilidad, hoy utilizados
extensamente en el desarrollo de controladores bajo el uso de sistemas modelados a partir
de variables de estado.
Después de estos primeros pasos, se empezaron a abrir otras áreas de investigación:
control adaptativo; control no lineal (con técnicas que van desde phase plane, describing
functions, hasta teorı́a de estabilidad de Lyapunov); técnicas dentro de las cuales se comienza
a ver una influencia de varias áreas de la ciencia: algoritmos genéticos, fuzzy logic, redes
neuronales, y otras nuevas tales como foraging theory.
vista biológico que matemático y tecnológico. Actualmente, se tienen más herramientas para
comprender y modelar de una forma más completa los sistemas naturales, lo cual nos puede
llevar a explorar soluciones en ámbitos de la ciencia como lo son la medicina, la biologı́a,
y los ecosistemas. En biologı́a por ejemplo, uno de los temas más recurrentes es el tratar
de tratar de entender lo que pasa con sistemas complejos en ingenierı́a como las redes, para
poder entender cómo funcionan ciertos aspectos moleculares (e.g., scale-free networks). Desde
el punto de vista de los ecosistemas, es claro que éstos son sistemas complejos, los cuales
podrı́an verse como de múltiples entradas y salidas. En un ecosistema pueden haber varias
capas de retroalimentación, y aún se necesitan elementos teóricos que puedan explicar el
funcionamiento de los mismos. Sin embargo, el traer estas ideas al área de control, permite
que se vayan desmenuzando paulatinamente dichos problemas, y porque no, llegar a una
solución futura de ciertos problemas básicos (e.g., redes bacteriales).
Capı́tulo 2
Modelamiento de Sistemas
Entusiasmo es una palabra griega que significa “rozado por el ala de Dios”. El
entusiasmo es eso. Un roce, un instante
Historia Argentina, Rodrigo Fresán
En este capı́tulo se pretende entender cómo se modelan los sistemas dinámicos. Para
ello, se empieza con una reseña filosófica, para luego definir las ideas para el modelado
matemático de un sistema. Se presentan ejemplos y simulaciones para que el estudiante
comience a familiarizarse con herramientas tales como Matlab y Simulink. Las siguientes
notas han sido adaptadas a partir de varios textos de control (e.g., [26, 21, 15, 11, 30, 27, 6]).
2.1. Filosofı́a
Cuando uno se enfrenta a un problema de control, por lo general se siguen ciertos
procedimientos. La Figura 2.1 nos da una primera idea de cómo modelar un sistema.
El modelamiento es la base para diseñar un buen sistema de control. Sin un buen
modelo no podrı́amos diseñar un sistema de control que cumpla ciertas caracterı́sticas. Sin
embargo, ningún modelo es perfecto, lo cual ciertas veces dificulta el diseño. Lo bueno es que
cualquier tipo de incertidumbre puede llegar a ser modelada de tal forma que se incluya en
el proceso de diseño. De esta forma, se estarı́a frente a un modelo más completo, y por ende,
se tendrı́an más herramientas a la hora del diseño de un controlador. En este curso, sólo se
utilizarán sistemas lineales e invariantes en el tiempo (LTI por sus siglas en inglés), ya que
estos nos dan una primera aproximación del modelo de un sistema. Otro tipo metodologı́a
que se sigue por lo general está descrito por la Figura 2.2.
11
12 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
PROCESO
Ganar intuición y
entender la planta
MODELAR
PROCESO
Modelamiento físico
SYSID, APPROX
Approx (reducción,
linealización)
2.2.1. Esquema
Un esquema básico que deberı́a seguirse se define a continuación. En la siguiente sección
se presenta un ejemplo que nos lleva paso a paso con el fin de entender cada uno de los puntos
expuestos en el siguiente esquema.
1. Definir Objetivos
2.2. PRINCIPIOS DE MODELAMIENTO MATEMÁTICO 13
2. Preparar Información
3. Formular el Modelo
a) Balances de conservación
b) Plantear las ecuaciones.
c) Combinar las ecuaciones y los términos que se han ido obteniendo.
d ) Verificar los grados de libertad para saber si el número de ecuaciones es el ade-
cuado.
4. Determinar la Solución
a) Analı́ticamente.
b) Numéricamente.
6. Validar el Modelo
2.2.2. Ejemplo
Para poder entender el procedimiento de modelado previamente descrito, tomemos el
ejemplo de un tanque de flujo continuo perfectamente agitado (continuous-flow stirred tank
de la Figura 2.3).
Objetivo: Determinar la respuesta dinámica del tanque a un cambio tipo escalón en
la CA0 , ası́ como la velocidad y forma de respuesta. Todo esto depende del volumen y del
flujo. Una de las suposiciones que se tienen es que la salida no puede ser utilizada a no ser
que el 90 % del cambio de concentración haya ocurrido. Por lo tanto, otro de los objetivos es
determinar cuánto tiempo se necesita para llegar a este valor.
Información: Para poder preparar la información, primero se identifica el sistema, y
la manera más sencilla de hacerlo es mediante un diagrama. Con ello se pueden identificar
las variables y tener una idea de los balances a formular. Para este caso, el sistema es el
lı́quido en el tanque. El tanque ha sido bien diseñado tal que la concentración sea uniforme
en el lı́quido. Se asumirá luego que,
F0 = 0,086m3 /min.
V = 2,1m3 .
CAIN IT = 0,925mole/m3 .
Formulación: Primero, para poder formular el modelo, tenemos que seleccionar las variables
de cuyo comportamiento queremos predecir. Una vez se tengan estas variables, las ecuaciones
pueden ser deducidas basados en principios fundamentales, como lo es la conservación. Estos
balances de conservación son relaciones que obedecen ciertos supuestos en sistemas fı́sicos.
Estos balances de conservación se pueden ver por lo general como,
donde si ACC 6= 0 para un well-mixed system, se tendrá una ODE, mientras que si ACC = 0
para un well-mixed system, se tendrá una ecuación algebraica. Los más utilizados son los
balances de masa y energı́a.
Hay casos especı́ficos en los que se utiliza cada uno de los balances previamente descritos. A
continuación se da un ejemplo de los más utilizados.
Lógicamente, si se tienen varias variables, es claro que se pueden utilizar varios balances para
poder obtener el modelo matemático. En ciertos casos los balances no son suficientes, por lo
que se utilizan ecuaciones que pueden relacionar varias variables. Por ejemplo,
Flujo: F = CV (∆P/ρ)1/2 .
Estas relaciones dependen del problema en cuestión, ya que por lo general no son univer-
salmente aplicables. Finalmente, la formulación del modelo queda completa cuando se tiene
el número adecuado de ecuaciones. Para ello, existe un elemento conocido como grado de
libertad (degree of freedom, DOF), el cual viene dado por DOF = N V − N E, donde N V
es el número de variables dependientes (i.e., variables que dependen del comportamiento
del sistema y deberán ser evaluadas por medio de las ecuaciones del modelo), y N E es el
número de ecuaciones independientes. Si DOF = 0, el sistema está exactamente especifica-
do; si DOF < 0, el sistema está sobreespecificado, i.e., no existe una solución del modelo; si
DOF > 0, el sistema está subespecificado, i.e., existe un número infinito de soluciones.
Para el ejemplo en cuestión, como se tienen concentraciones, los balances de mas son
adecuados. El balance total de masa para un incremento de tiempo ∆t viene dado por,
donde ρ es la densidad. Dividiendo por ∆t, y tomando el lı́mite cuando tiende a 0, se tiene
que la acumulación de masa es igual a la masa de entrada menos la masa de salida, i.e.,
dV
(2.1) = F0 − F1
dt
Es claro que F0 es una variables externa que no depende del comportamiento del sistema.
Como el lı́quido sale al rebosarse el lı́quido, entonces el flujo de salida F1 está correlacionado
con el nivel del lı́quido. Para ello se utiliza una ecuación de presa que viene dada por,
p
F1 = kF L − Lw , para L > Lw
dV
(2.2) = F0 − F1 = 0 ⇒ V = constante
dt
Ahora se necesita formular el balance de masa del componente A. Como es un tanque well-
mixed, las concentraciones del tanque y las de salida son las mismas, por lo que,
dCA
(2.3) M WA V = M WA F (CA0 − CA )
dt
Por lo tanto, las Ecuaciones (2.2) y (2.3) describen nuestro sistema. Se tiene entonces que
las variables son CA y F1 , y las variables externas son F0 y CA0 , entonces el DOF = 0. Se
tiene que tener en cuenta que los parámetros no cambian con el tiempo, lo cual no es real,
pero es válido siempre y cuando los cambios sean lentos.
Solución Matemática: Una de las ventajas de una solución analı́tica es que se pue-
de calcular valores especı́ficos de la solución, ası́ como determinar las relaciones entre las
variables y el comportamiento del sistema.
El modelo en (2.3) es una ODE lineal de primer orden, que puede ser escrita como
dCA 1 1
(2.4) + C A = C A0
dt τ τ
donde τ = V /F = 24,7min, y se conoce como la constante de tiempo del sistema.
Para resolver este tipo de ecuaciones, se recurre a lo visto en ecuaciones diferenciales.
Se sabe que
Rt1
(2.5) e 0 τ dt = et/τ
Si la entrada u(t) es un escalón unitario, la salida serı́a y(t) = 1 − e−t/τ para t ≥ 0, lo que
gráficamente serı́a equivalente a lo que se ve en la Figura 2.4).
Para el caso del ejemplo en cuestión, CAIN IT = 0,925 y τ = 24,7min, lo cual nos brinda la
rapidez con la que responde el sistema. Todo esto depende del equipo (i.e., por el volumen
V ), y la operación del proceso (i.e., F ).
2.3. SISTEMAS DE PRIMER ORDEN Y CONTROLADOR ON-OFF 19
dY
(2.6) = 0 − 0 + Q − Ws
dt
20 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
Definition 2 Una función x(t) es piecewise continuous en un intervalo finito si este inter-
valo puede ser dividido en un número finito de subintervalos sobre los cuales la función es
continuo y se tienen lı́mites por izquierda y derecha de x(t).
Definition 3 Una función x(t) es de orden exponencial si existe una constante a tal que
e−at |x(t)| esté acotada para todo valor de t mayor que un valor finito T .
Esta última limitante impone la restricción de que σ, i.e., la parte real de s tiene que ser
mayor a un lı́mite inferior σa , para el cual el producto e−σa t |x(t)| es de orden exponencial.
Esto es lo que se conoce como el concepto de region of convergence (ROC).
Utilizando (2.11),
R∞
X(s) = x(t)e−st dt
0
R∞
= e−at e−st dt
0
R∞
= e−(s+a)t dt
0
1 1
= − s+a lı́mt→∞ e−((σ+a)+jw)t + s+a
z }| {
0 if σ + a > 0
22 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
1
X(s) =
s+a
esto es válido para Re{s} > −a.
Utilizando (2.11),
Z∞
X(s) = cos(wt)e−st dt
0
s
L {cos(wt)u(t)} = s2 +w2
Utilizando (2.11),
Z∞
X(s) = te−st dt
0
Integrando por partes, y utilizando
Zb Zb
udv = [uv]ba − vdu
a a
Por ende,
1
L {tu(t)} = s2
if Re{s} > 0
2.4. TRANSFORMADA DE LAPLACE 23
Si
L
x1 (t) ←→ X1 (s)
L
x2 (t) ←→ X2 (s)
Entonces,
L
a1 x1 (t) + a2 x2 (t) ←→ a1 X1 (s) + a2 X2 (s)
Corrimiento en tiempo
Si
L
x(t) ←→ X(s)
Entonces,
L
x(t − t0 ) ←→ X(s)e−st0
Proof: Por (2.11)
Z∞
L {x(t − t0 )} = x(t − t0 )e−st dt
0
Si
L
x(t) ←→ X(s)
Entonces,
L
es0 t x(t) ←→ X(s − s0 )
Ejemplo 2.4.4
L
e3t x(t) ←→ X(s − 3)
24 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
= L { 12 x(t)ejw0 t } + L { 12 x(t)e−jw0 t }
1
= 2
X(s − jw0 ) + 21 X(s + jw0 )
Time Scaling
Si
L
x(t) ←→ X(s)
Entonces,
L 1 s
x(at) ←→ X
|a| a
Proof: Por (2.11)
Z∞
L {x(at)} = x(at)e−st dt
0
1
R∞ τ
L {x(at)} = a
x(τ )e−s( a ) dτ
(2.12) 0
1 s
= a
X a
Si a < 0, se tiene
Z∞
L {x(at)} = x(at)e−st dt
0
1
R0 τ
L {x(at)} = a
x(τ )e−s( a ) dτ
∞
(2.13) R∞ τ
= − a1 x(τ )e−s( a ) dτ
0
= − a1 X s
a
1 s
L {x(at)} = X
|a| a
Time Reversal
2.4. TRANSFORMADA DE LAPLACE 25
Si
L
x(t) ←→ X(s)
Entonces,
L
x(−t) ←→ X(−s)
Differentiation
Si
L
x(t) ←→ X(s)
Entonces,
dx(t) L
←→ sX(s) − x(0)
dt
Proof: Por (2.11)
Z∞
dx(t) dx(t) −st
L = e dt
dt dt
0
dx(t)
Integrando por partes con u = e−st y dv = dt
dt, se tiene
n
dx(t)
o
∞ R∞
L dt
= [e−st x(t)]0 − x(t)(−s)e−st dt
0
−st
R∞
= lı́mt→∞ e x(t) − e−s0 x(0) + s x(t)e−st dt
0
= lı́mt→∞ e−st x(t) − x(0) + sX(s)
Entonces,
dx(t)
L = sX(s) − x(0)
dt
Si
L
x(t) ←→ X(s)
Entonces,
dn x(t) L n
←→ s X(s) − sn−1 x(0) − sn−2 ẋ(0) − . . . − sxn−2 (0) − xn−1 (0)
dtn
donde xn−1 (0) corresponde a la derivada n − 1 de x evaluada en t = 0.
n o
dx(t)
Ejemplo 2.4.5 Sea x(t) = e−t u(t). Encuentre L dt
.
dx(t)
= −e−t u(t) + δ(t)e−t = −e−t u(t) + 1.δ(t)
dt
Por tablas, se sabe que
L
δ(t) ←→ 1
L 1
e−at u(t) ←→
s+a
Entonces
dx(t) s
L =
dt s+1
Si se utilizan las propiedades,
dx(t)
L = sX(s) − x(0− )
dt
Si
L
x(t) ←→ X(s)
Entonces,
L dN
tN x(t) ←→ (−1)N X(s)
dsN
Integration
2.4. TRANSFORMADA DE LAPLACE 27
Si
L
x(t) ←→ X(s)
Entonces,
Zt
L 1
x(λ)dλ ←→ X(s)
s
0
Convolución
Si
L
x1 (t) ←→ X1 (s)
L
x2 (t) ←→ X2 (s)
Entonces,
L
x1 (t) ∗ x2 (t) ←→ X1 (s)X2 (s)
En la Figura 2.7 tomada de [30] se pueden ver algunas de las transformadas tradicio-
nales de Laplace.
clases de Sedan de cuatro puertas, tiene unas dinámicas en lazo cerrado dadas por
ÿ + 5ẏ + 6y = f (t)
Esto es equivalente a
s+5 −2 3
Y (s) = = +
(s + 3)(s + 2) s+3 s+2
Tomando la transformada inversa de Laplace se obtiene finalmente que
r =
-2.0000
3.0000
p =
-3.0000
-2.0000
k =
[]
Para poder obtener la transformada inversa de Laplace se utilizan por lo general fracciones
parciales.
2.4. TRANSFORMADA DE LAPLACE 29
Polos Sencillos
Sea n
N (s) X ki
P (s) = =
D(s) i=1
(s − pi )
donde
ki = [(s − pi )P (s)]|s=pi
siempre y cuando el grado del numerador sea menor a la del denominador.
Polos Múltiples
Sea
N (s) k11 k1r k21 k2m
P (s) = = + ... + r
+ + ... + + ...
D(s) (s − p1 ) (s − p1 ) (s − p2 ) (s − p2 )m
donde
k1r = [(s − p1 )r P (s)]|s=p1
1 di [(s − p1 )r P (s)]
k1i = i = 1, . . . , r − 1
i! dsi
s=pi
r =
2
1
-2
1
p =
-1
-1
30 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
0
0
k =
[]
ki ki+1 ∗
P (s) = + ki = ki+1
(s − (−α + jβ)) (s − (−α − jβ))
donde
ki = [(s + (α − jβ))P (s)]|s=−α+jβ
Por lo tanto,
p(t) = ki e(−α−jβ)t + ki∗ e(−α+jβ)t
p(t) = 2|ki |e−αt cos (βt + ]ki )
Ejemplo 2.4.9 [6] Se tiene un sistema simple de masa resorte como se ve en la Figura 2.8.
Este sistema representa, por ejemplo, un amortiguador de choques para un vehı́culo. En él
se puede ver el diagrama de cuerpo libre de la masa M , donde b es el amortiguamiento
viscoso (i.e., la fuerza de fricción es linealmente proporcional a la velocidad de la masa), y
la constante de un resorte ideal k.
.
La ecuación diferencial vendrı́a dada por la suma de fuerzas actuando sobre M , i.e.,
utilizando la segunda ley de Newton,
X
Ma = F
(M s + b)y0 n(s)
(2.14) Y (s) = 2
=
M s + bs + k d(s)
Si d(s) = 0, estamos hablando de la ecuación caracterı́stica, porque las raı́ces de esta
ecuación determinan la caracterı́stica de la respuesta en tiempo. Las raı́ces de la ecuación
caracterı́stica se conocen como polos o singularidades del sistema. Las raı́ces de n(s) se
denominan ceros.
Consideremos el caso cuando k/m = 2 y b/m = 3, por lo que
(s + 3)y0
Y (s) =
(s + 1)(s + 2)
La Figura 2.9 [6] muestra como se graficarı́a este sistema en el plano-s.
.
Utilizando expansión en fracciones parciales se tiene
2 1
Y (s) = −
s+1 s+2
Tomando la transformada inversa de Laplace se obtiene finalmente que
32 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
Cabe aclarar que esto sólo es válido si lı́mt→∞ y(t) existe. Para el ejemplo en cuestión, es
claro que lı́mt→∞ y(t) = 0, lo que implica que la posición final de la masa es la posición
y = 0.
Podrı́amos ilustrar los puntos principales de la transformada de Laplace hasta ahora
enunciados por métodos gráficos. Para ello, tomemos la Ecuación (2.14) nuevamente, i.e.,
(s + Mb )y0
Y (s) = 2
s + ( Mb )s + Mk
Cuando ζ = 1, las raı́ces son repetidas y reales. Esta última condición se conoce como
amortiguamiento crı́tico.
Para el caso cuando ζ > 1, la respuesta es subamortiguada, y las raı́ces de (2.15) se podrı́an
escribir como p
s1,2 = −ζωn ± jωw 1 − ζ 2
Si graficáramos en el plano-s los polos y ceros de Y (s) obtendrı́amos lo que se ve en la
Figura 4.8 [6].
donde θ = cos−1 ζ. Si asumimos que ωn es constante, las raı́ces complejas conjugadas
variarı́an dependiendo del valor de ζ como se ve en la Figura 2.11 [6].
2.4. TRANSFORMADA DE LAPLACE 33
Es claro que la respuesta transitoria aumentará sus oscilaciones a medida que las raı́ces
tiendan al eje jω, i.e., cuando ζ tiende a cero.
Si calculáramos la transformada inversa utilizando la expansión en fracciones parciales
para el caso en que ζ < 1, tendrı́amos que
k1 k1∗
Y (s) = +
s − s1 s − s2
donde p
s1 = −ζωn + jωw 1 − ζ2
p
s2 = −ζωn − jωw 1 − ζ 2
Utilizando las ideas vistas previamente, obtenemos que
1 1 ζ
k 1 = − y0 − j y0 p
2 2 1 − ζ2
34 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
Por lo tanto,
1 1
|k1 | = y0 p
2 1 − ζ2
y
ζ
∠k1 = tan−1 p
1 − ζ2
Finalmente, la respuesta en tiempo serı́a igual a
!
1 p ζ
y(t) = y0 p e−ζωn t cos ωn t 1 − ζ 2 + tan−1 p
1 − ζ2 1 − ζ2
.
Mı́rese ahora la relación entre la respuesta en tiempo y la ubicación de los polos y ceros
en el plano-s. Si ζωn varı́a, entonces la envolvente e−ζωn t también, por lo que la respuesta
cambiarı́a. Entre más grande sea el valor de ζωn , más rápido será el amortiguamiento de la
respuesta. Esto implicarı́a desplazar bastante los polos hacia la izquierda del plano-s.
Es claro que en aplicaciones de control se tendrán más polos, por lo que la respues-
ta transitoria dependerá de la contribución de todos ellos. Estas ideas se analizarán más
adelante.
En esta definición, válida para sistemas lineales e invariantes en el tiempo, se tiene que para
un sistema como (7.18), la relación entre la entrada u y la salida y estará dado por una
2.5. FUNCIONES DE TRANSFERENCIA 35
transformación en frecuencia de las señales, siempre y cuando las condiciones iniciales sean
nulas.
Esto serı́a,
L [salida]
H(s) =
L [entrada] CI=0
dónde L [·] es la transformada de Laplace. Aplicando esto a (7.18), se obtiene que
Cabe aclarar que en realidad la respuesta de un sistema está dada por dos componentes:
n(s) p(s)
Y (s) = R(s) +
d(s) d(s)
| {z } |{z}
Respuesta a Estado Cero Respuesta a Entrada Cero
Respuesta Forzada Respuesta Natural
Función de Transferencia
Ejemplo 2.5.1 [6] Se tiene el sistema que se ve en la Figura 2.13 [6]. Obtener la función
de transferencia que relaciona la velocidad v1 (t) y la fuerza r(t).
2.6. Linealización
Las aproximaciones de un sistema no lineal a uno lineal se realiza para estudiar el com-
portamiento local de un sistema, donde los efectos no lineales son pequeños y prácticamente
despreciables. Para que una ecuación sea lineal, cada uno de los términos no debe contener
variables cuya potencia sea mayor que uno. Existe una técnica de linealización mediante
la cual es posible aproximar las ecuaciones no lineales que se pueden analizar mediante la
transformada de Laplace. La suposición básica es que la respuesta de la aproximación lineal
representa la respuesta del proceso en la región cercana a un punto de operación, al rededor
del cual se realiza la linealización [30, 6].
El manejo de las ecuaciones linealizadas se facilita en gran medida con la utilización
de las variables desviación, las que se definen como la diferencia entre el valor de la variable
y su valor en un punto de operación dado. Esto se podrı́a escribir como
(2.18) x̂(t) = x(t) − x̄
En (2.18) se tiene que x(t) es la variable que se está analizando, y x̄ es el punto de operación
al rededor del que deseamos trabajar. En otras palabras, la variable desviación mide la
diferencia entre el valor de la variable y un valor de operación sobre el que deseamos trabajar
(ver Figura 2.14 [30]).
.
La transformación del valor absoluto de una variable al de desviación equivale a mover
el cero sobre el eje de esa variable hasta el valor base, i.e., x̄. Se tiene que
dn x̂(t) dn x(t)
=
dtn dtn
2.6. LINEALIZACIÓN 37
ẋ(t) = f (x(t))
La aproximación lineal consiste en tomar únicamente los primeros elementos de la serie, i.e.,
aquellos que no están elevados a ninguna potencia. Por lo tanto,
df (x(t))
(2.19) f (x(t)) ' f (x̄) + (x − x̄)
dx x=x̄
Ejemplo 2.6.1 [30] Linealizar la ecuación de Arrhenius para la dependencia de las tasas
de reacción quı́mica de la temperatura,
k(T ) = k0 e−E/RT
Supongamos que T̄ es el punto de operación alrededor del cual queremos linealizar. Tomando
(2.19) se tiene que
dk
k(T ) = k(T̄ ) + T̂
dt T =T̄
Es decir que
E
k(T ) = k(T̄ ) + k(T̄ ) T̂
RT̄ 2
Ejemplo 2.6.2 Analicemos el problema de un tanque acoplado con una válvula que se ob-
serva en la Figura...
ANADIR FIGURA
Primero, antes de plantear las ecuaciones diferenciales que nos ayudarı́an a entender
el sistema, recordemos cómo se modela un sistema hidráulico.
El flujo de lı́quido a través de una válvula que está totalmente abierta está dado por
r
∆P
q(t) = CV
G
donde q(t) corresponde al flujo, CV es el coeficiente de la válvula en gpm/(psi)1/2 y G es la
gravedad especı́fica del lı́quido que fluye a través de la válvula. Esta ecuación se puede reducir
a √
q(t) = K ∆P
38 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
(2.21) P = ρgh + Pa
dV dV dh
=
dP dh dP
Reemplazando (2.20) y (2.21) se obtiene que
dV 1
= A(h)
dP ρg
1
Por lo tanto C = A(h) ρg .
Por otra parte, el volumen en función del tiempo está dado por
Z h
V (t) = V (0) + (qi (α) − qo (α))dα
0
dP 1
= (qi − qo )
dt C
√ √
Retomando el problema original, tenemos que ∆P1 = P1 − Pa , qo = K1 ∆P1 , y por lo
tanto
1 p
Ṗ1 = (qi − K1 ∆P1 )
C1
¯ 1 , se obtiene que
Si linealizamos el sistema alrededor de los puntos de operación q̄ o y ∆P
K1 ¯ 1)
qo = q̄o + p (∆P1 − ∆P
¯
2 ∆P 1
2.6. LINEALIZACIÓN 39
y
f (x, y, z) = 2x2 + xy 2 − 3
z
Figura 2.15: Algunas reglas útiles cuando se manejan diagramas en bloques [30, 21].
Se dice que se tiene una combinación en serie cuando se tienen dos funciones de transfe-
rencia conectadas una después de otra. En la Figura 2.16 [6] se muestra un sistema cuya salida
X3 (s) = X2 (s)G2 (s) está conectada con un sistema que tiene una salida X2 (s) = X1 (s)G1 (s).
Reemplazando W (s) en la primera ecuación, se tiene que X3 (s) = X1 (s)G1 (s)G2 (s), lo que
es equivalente al diagrama en bloques que también se puede ver en la Figura 2.16 [6].
2.7. DIAGRAMAS EN BLOQUES 41
Figura 2.21: Ejemplo del álgebra de bloques para sistemas retroalimentados [6].
2.7.6. Ejemplos
Definition 6 Una rama es un segmento lineal dirigido que une dos nodos.
Definition 7 Un nodo de entrada (source) es un nodo que sólo tiene una rama saliente. Un
nodo de salida (sink) es un nodo que sólo tiene ramas entrantes. Un nodo mixto es aquel
que tiene tanto ramas de entrada y de salida. Un nodo suma las señales de todas las ramas
entrantes y transmite esta suma a todas las ramas salientes.
Definition 8 Un trayecto es una conexión entre ramas de un nodo a otro con las flechas en
la misma dirección. Es decir, todas las señales van en la misma dirección de un nodo a otro.
Un trayecto directo es aquel que conecta un nodo de entrada con un nodo de salida
donde ningún nodo se encuentra más de una vez.
Definition 9 Un lazo es una trayectoria cerrada (loop) en la cual ningún nodo se repite.
Nótese que ningún nodo de entrada puede ser parte de una trayectoria cerrada ya que cada
nodo en un lazo debe tener al menos una rama que llegue al nodo y al menos otra rama
saliendo.
Se dice que un lazo es disyunto cuando no se tiene un nodo en común.
Es claro que para un sistema dado pueden existir varias formas de realizar el diagrama
de flujo. Para determinar la relación entrada salida, se puede reducir el diagrama de flujo
utilizando álgebra (similar a lo que vimos previamente), o se puede utilizar le ley de Mason
que definimos a continuación. La función de transferencia entre un nodo de salida y uno de
entrada, está dada por
n
1 X
(2.24) F (s) = P k ∆k
∆ k=1
Pero las lenguas son sustancias radioactivas que hunden sus raı́ces en nuestro
corazón más primitivo, en la oscura e irracional memoria de la horda. Rosa Montero
3.1. Introducción
Como se ha visto previamente, un sistema de control se compone de una serie de
elementos que están interconectados de tal forma que se obtiene una respuesta deseada del
sistema. Ya que lo que uno desea es conocido, una señal proporcional al error producido entre
la señal deseada y la actual se puede generar (ver Figura 4.1p213). Para ello, algún tipo de
retroalimentación es necesaria, la cual redundará en un mejor comportamiento del sistema.
Es claro que este tipo de retroalimentación aparece en varios sistemas en la naturaleza, como
lo son los sistemas biológicos y fisiológicos.
ANADIR FIGURA
Para poder entender las ventajas y caracterı́sticas a la hora de introducir la retroali-
mentación, comparemos con un sistema en malla abierta como el de la Figura...
ANADIR FIGURA
En este caso, es claro que la perturbación TD (s) influye directamente Y (s), por lo que en
ausencia de retroalimentación, el sistema de control es bastante sensible a las perturbaciones
y a los cambios en los parámetros de G(s).
Por otro lado, un sistema retroalimentado negativamente serı́a como el que se observa
en la Figura...
ANADIR FIGURA
A pesar de la complejidad, se tiene una serie de ventajas como:
45
46 CAPÍTULO 3. CARACTERÍSTICAS DE LOS SISTEMAS
Definamos la función
L(s) = Gc (s)Gp (s)
como la ganancia de lazo, lo cual darı́a
L(s)
C(s) =
1 + L(s)
Analizando (3.4) se puede ver que para un Gp (s) dado, si queremos minimizar el error,
se necesita que S(s) y C(s) sean lo más pequeños posibles. Sin embargo, ambas funciones
dependen de Gc (s), y además
S(s) + C(s) = 1
3.3. SENSITIVIDAD DE SISTEMAS DE CONTROL PARA VARIACIONES DE PAR ÁMETROS47
Por lo que no podrı́an minimizarse ambas funciones al tiempo. Para poder entender qué sig-
nifica que una función sea grande o no, analicemos la magnitud de L(s), i.e., |L(jω)| a
lo largo de un rango de frecuencias ω de interés. Para reducir la influencia de D(s) en
E(s) se quiere que L(s) sea grande en el rango de frecuencias que caracterizan la perturba-
Gp (s)
ción. Por ende, 1+L(s) será pequeño, haciendo que la influencia de D(s) disminuya. Al tener
L(s) = Gc (s)Gp (s) se requiere que la magnitud de Gc (s) sea alta. Para atenuar la influencia
del ruido N (s) en E(s), se requiere que L(s) sea pequeño en el rango de frecuencias que
L(s)
caracterizan el ruido. Por ende, 1+L(s) será pequeño, haciendo que Gc (s) tenga que tener una
magnitud pequeña en ese mismo rango de frecuencias.
1
E(s) + ∆E(s) = R(s)
1 + Gc (s)(Gp (s) + ∆Gp (s))
Gc (s)∆Gp (s)
∆E(s) = − R(s)
(1 + Gc (s)(Gp (s) + ∆Gp (s)))(1 + Gc (s)Gp (s))
Gc (s)∆Gp (s)
∆E(s) ≈ − R(s)
(1 + L(s))2
48 CAPÍTULO 3. CARACTERÍSTICAS DE LOS SISTEMAS
Esto quiere decir que el error se ve reducido por un factor 1 + L(s), el cual por lo general
se hace mucho más grande que 1 en el rango de frecuencias de interés. Es decir que por lo
general, 1 + L(s) ≈ L(s), haciendo que
1 ∆Gp (s)
∆E(s) ≈ − R(s)
L(s) Gp (s)
La sensitividad se verá reducida para cambios en el proceso siempre y cuando L(s) sea grande,
i.e., sensitividad S(s) menor. Para este caso, la sensitividad del sistema se define como la
proporción de cambio en la función de transferencia del sistema a cambios en el Gp (s) para
pequeños cambios incrementales. Es decir, si la función de transferencia del sistema es
Y (s)
T (s) =
R(s)
∆T (s)/T (s)
S(s) =
∆Gp (s)/Gp (s)
En el lı́mite, para pequeños cambios, esta ecuación se convierte en
Gc (s)Gp (s)
T (s) =
1 + Gc (s)Gp (s)
Ejemplo 3.3.1 Se tiene el sistema en malla cerrada con retroalimentación negativa unitaria
y ganancia de lazo 1+K−K a
a (β+1)
como se ve en la Figura...
ANADIR FIGURA
La función de transferencia está dada por
−Ka
1+Ka (β+1) −Ka
T (s) = =
1 − 1+KKa (β+1)
a
1 + Ka β
Antes de iniciar con el diseño de los controladores, necesitamos entender cómo se com-
portan los sistemas con respecto a diversas entradas. Los sistemas que analizaremos son
sistemas lineales e invariantes en el tiempo (LTI), por lo cual se utilizará la transformada
de Laplace para poder analizar el comportamiento de sistemas de primero y segundo orden.
Luego, se muestra que los sistemas de orden superior son una combinación de las respuestas
de primer y segundo orden. Las entradas más comunes en los sistemas de control, de las
cuales cuatro se ilustran en la Figura 4.1. Estas serı́an:
Entrada paso (escalón unitario): Este tipo de entrada se encuentra en varios sistemas
como lo son sistemas de temperatura donde se quiere conservar la misma temperatura
en algún lugar determinado.
Entrada sinusoidal: Su utilidad no parece evidente a simple vista, ya que por lo general
no se requiere que un sistema “siga” este tipo de señales. Sin embargo, si se conoce
la respuesta de este tipo de entradas en sistemas LTI para todas las frecuencias, se
podrá tener una descripción más completa del sistema. De esta forma, se podrán diseñar
compensadores o controladores para un sistema.
Hay otro tipo de entradas que se pueden utilizar como son las parabólicas, o aquellas
que podrı́an ser descritas de forma general como
r(t) = tn
51
52 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
8
1.5
6
1
4
0.5
2
0 0
0 2 4 6 8 10 0 2 4 6 8 10
tiempo tiempo
80
0.5
60
0
40
−0.5
20
−1 0
0 2 4 6 8 10 0 2 4 6 8 10
tiempo tiempo
K K
C(s) = −
s s + τ1
donde ctr (t) corresponde a la respuesta que va del estado inicial al estado final, y css (t)
corresponde a la manera como se comporta la salida del sistema conforme t → ∞.
La Figura 4.2 ilustra el resultado de (4.2) cuando K = 1, y τ = 10. En (4.2) la primera
parte de la respuesta corresponde a la respuesta en estado estacionario, mientras que la
t
segunda parte, i.e., Ke− τ corresponde a la respuesta transitoria del sistema. Esto se debe a
que si tomamos el lı́mite cuando t tiende a infinito de (4.2) , obtenemos que
Por lo cual K corresponde al valor final o el valor en estado estable. La constante τ se conoce
como la constante de tiempo, y como se puede observar en la figura, después de 4τ o 5τ el
sistema ya está cerca del valor final. Por lo general, para t ≥ 4τ la respuesta permanece
dentro del 2 % del valor final.
Otro punto interesante a analizar es lo que puede verse en la Figura 4.2. Cuando t = τ ,
el valor final es igual al 63.2 % del valor final, ya que c(τ ) = K − Ke−1 = 0,632K. Cuando
t = 2τ se llega al 86.5 % del valor final. Estos dos puntos se representan en la Figura 4.2.
Ası́ pues, cuando la constante de tiempo τ es pequeña, la respuesta es más rápida, y esto se
puede ver porque la pendiente de la curva en t = 0 es igual a Kτ .
K Kτ Kτ
C(s) = − +
s 2 s s + τ1
Step Response
0.9
0.8
0.7
0.6
Amplitude
0.5
0.4
0.3
0.2
0.1
0
0 10 20 30 40 50 60 70 80
Time (sec)
Figura 4.2: Respuesta a entrada paso del sistema de primer orden (4.1) cuando K = 1, y
τ = 10. La lı́nea punteada roja representa el valor final cuando se ha cumplido el primer τ ,
mientras que la punteada negra representa el valor final cuando se han cumplido 2τ .
La Figura 4.3 muestra un par de ejemplos de este tipo de respuesta. Para este caso, Kt − Kτ
t
corresponde al estado estacionario, mientras que Kτ e− τ corresponde a la respuesta natural.
El error en este caso vendrı́a dado por e(t) = Kr(t) − c(t), por lo que
t
e(t) = Kτ + Kτ e− τ
Tomando el lı́mite de esta señal, tendremos que lı́mt→∞ e(t) = Kτ . Por lo tanto, entre más
pequeño Kτ menor será la diferencia entre la entrada y la salida en estado estacionario. Esto
se puede apreciar más claramente si comparamos las dos gráficas en la Figura 4.3. En el
panel superior el valor del error es 10, mientras que en el segundo caso es igual a 1. De esta
forma, se puede observar claramente como el error disminuye.
C(s) wn2
(4.3) = 2
R(s) s + 2ζwn s + wn2
4.2. SISTEMAS DE SEGUNDO ORDEN 55
80
70
60
50
Amplitude
40
30
20
10
0
0 10 20 30 40 50 60 70 80
Time (sec)
80
70
60
50
Amplitude
40
30
20
10
0
0 10 20 30 40 50 60 70 80
Time (sec)
Figura 4.3: Respuesta a entrada rampa del sistema de primer orden (4.1) cuando K = 1, y
τ = 10 para el panel superior, y τ = 1 para el panel inferior.
Esta forma se conoce como la forma estándar del sistema de segundo orden. Para el caso
especı́fico del servosistema descrito previamente, wn2 = KJ , y 2ζwn = 2σ = BJ . El término
wn se conoce como la frecuencia natural no amortiguada, ζ es el factor de amortiguamiento
relativo del sistema, y σ es la atenuación. El factor
√ de amortiguamiento relativo ζ es el
cociente real B y el amortiguamiento crı́tico Bc = 2 JK.
Figura 4.4: Sistema de segundo orden [6]. En a) se tiene el grafo, mientras que en b) el
diagrama en bloques.
= 1
s
− (s+ζwn )2 +w2 − (s+ζwζwn )n2 +w2
s+ζwn
d d
De (4.4) se puede deducir que la frecuencia de oscilación por parte de la respuesta transitoria
es igual a wd , i.e., depende directamente de ζ. Si analizáramos la señal de error para este
caso, obtendrı́amos que
e(t) = r(t) −
c(t)
−ζwn t ζ
= e cos(wd t) + √ sin(wd t)
(1−ζ 2 )
Como se puede ver, la señal de error presenta una oscilación amortiguada, por lo que si t →
∞, entonces no existe error. El único caso crı́tico serı́a si ζ = 0, donde se tiene una oscilación
permanente, con una frecuencia wn (porqué?). Un ejemplo de cómo serı́a la respuesta en
tiempo para diversos casos se ilustra en la Figura 4.5.
4.2. SISTEMAS DE SEGUNDO ORDEN 57
1.8
1.4
1.6
1.2
1.4
1
1.2
1 0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20
1.2 1.2
1 1
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20
Figura 4.5: Respuesta a entrada paso del sistema de segundo orden descrito por (4.3). En
este caso, se tiene que ζ = 0 para el panel superior izquierdo, ζ = 0,2 para el panel superior
derecho, ζ = 0,4 para el panel inferior izquierdo, y ζ = 0,8 para el panel inferior derecho. En
todos los casos, wn = 24.
Si los dos polos de (4.3) son iguales, el sistema tendrı́a que ζ = 1, por lo que a entrada
paso se tiene que
wn2
C(s) =
s(s + wn )2
La transformada inversa de Laplace serı́a
(4.5) c(t) = 1 − e−wn t (1 + wn t)
Esto parte de la base que si ζ = 1, tocarı́a aproximar uno de los factores de (4.4) a
sin(wd t)
lı́m p = wn t
ζ→1 1 − ζ2
La Figura 4.6 muestra un ejemplo de como responderı́a el sistema para este caso.
En este caso, los dos polos de la función de transferencia en (4.3) son reales negativos
y diferentes. Para una entrada paso, se tiene que
wn2
C(s) = p p
s(s + ζwn + wn ζ 2 − 1)(s + ζwn − wn ζ 2 − 1)
La transformada inversa de Laplace nos da
wn e−s1 t e−s2 t
(4.6) c(t) = 1 + p −
2 ζ2 − 1 s1 s2
58 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
Figura cuando ξ = 1
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0 2 4 6 8 10 12 14 16 18 20
Figura 4.6: Respuesta a entrada paso del sistema de segundo orden descrito por (4.3) cuando
ζ = 1 y wn = 24.
p p
donde s1 = ζwn + wn ζ 2 − 1 y s2 = ζwn − wn ζ 2 − 1. Si se analiza (4.6) se puede ver
que se tienen dos factores exponenciales que decaen. Entre más grande es el valor de ζ, uno
de las exponenciales decae más rápidamente (s2 serı́a considerablemente menor a s1 , por lo
que la exponencial asociada a este polo podrı́a “despreciarse”). El efecto que tiene s2 en el
sistema serı́a muchı́simo más relevante, por lo cual (4.6) se aproxima mediante
C(s) s2
=
R(s) s + s2
Esta respuesta es similar a la respuesta de un sistema de primer orden. La Figura 4.7 muestra
un ejemplo de esta situación.
Entrada Impulso
wn2
C(s) =
s2 + 2ζwn s + wn2
wn p
−ζwn t 2
c(t) p e sin wn 1 − ζ t
1 − ζ2
Es claro que este factor es la derivada del término que se obtuvo en la sección anterior para
entrada paso. En la Figura... se observa el comportamiento para diferentes ζs.
4.2. SISTEMAS DE SEGUNDO ORDEN 59
Figura cuando ξ = 2
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0 2 4 6 8 10 12 14 16 18 20
Figura 4.7: Respuesta a entrada paso del sistema de segundo orden descrito por (4.3) cuando
ζ = 2 y wn = 24.
wn2
(4.7) H(s) = K1 = K1 H1 (s)
s2 + 2ζwn s + wn2
Por lo general, al diseñar un sistema de control se especifican ciertas caracterı́sticas que se
definen en el ámbito del tiempo. Estas caracterı́sticas están ligadas a la respuesta transitoria,
la cual depende de la entrada o la perturbación que se le aplique al sistema. La entrada
clásica que se utiliza para ver dicho comportamiento es el escalón unitario, ya que es fácil
de generar y es lo suficientemente drástico para observar el comportamiento del sistema
(además, al conocer su respuesta en tiempo, se pueden obtener todas las demás respuestas).
Como esta respuesta depende de las condiciones iniciales, se asumirá que éstas son cero, i.e.,
el sistema está en reposo al inicio.
Asumiendo que se tiene una entrada paso y el sistema es subamortiguado, se vio pre-
viamente que esto puede ser escrito como
wn2
C(s) = K1
s(s2 + 2ζwn s + wn2 )
s+2ζwn
C(s) = K1 1s − s2 +2ζw n s+wn
2
= K1 s − (s+ζwn )2 +w2 − (s+ζwζwn )n2 +w2
1 s+ζwn
d d
60 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
tr : tiempo de subida. Es el tiempo que se necesita para subir del 10 al 90 por ciento
del valor final (como se muestra en la Figura 4.10). Sin embargo, esta definición aplica
más para el caso sobreamortiguado. La definición que se utilizará acá es el tiempo que
toma la señal de pasar del 0 al 100 % del valor final.
Utilizando (4.4), tenemos que el tiempo de subida viene dado cuando c(tr ) = 1. Esto
quiere decir que
p !
1 −ζwn tr −1 (1 − ζ 2 )
1 = c(t) = 1 − p e sin wd tr + tan
(1 − ζ 2 ) ζ
tp : tiempo de pico. Es el tiempo que se requiere para que la respuesta alcance el primer
pico del overshoot.
Para esto, se tiene que hallar la derivada de c(t) evaluada en tp , ya que esta será igual
a 0.
dc
=0
dt t=tp
Esto serı́a equivalente a
! !
−ζwn tp ζ −ζwn tp ζwd
ζwn e cos wd tp + p sin wd tp +e wd sin wd tp − p cos wd tp =0
1 − ζ2 1 − ζ2
Esto es equivalente a
w
p n e−ζwn tp sin wd tp = 0
1 − ζ2
Lo que darı́a que sin wd tp = 0, por lo que wd tp = 0, π, 2π, . . .. Como el tp corresponde
al primer pico,
4.2. SISTEMAS DE SEGUNDO ORDEN 61
Figura 4.8:
p Ubicación de los polos en el plano-s [6]. Para este caso β = θ, σ = ζwn , y
wd = w n 1 − ζ 2 .
π
tp = wd
M P : Máximo pico porcentual. Es el valor del máximo pico de la respuesta medido con
respecto al valor de estado estable. El valor se define por lo general como
c(tp ) − c(∞)
MP = × 100 %
c(∞)
Utilizando esta idea, se obtiene que
!
−ζwn wπ ζ
M P = −e d cos π − p sin π
1 − ζ2
Por lo tanto,
− √ ζπ
MP = e 1−ζ 2 × 100 %
tolerancia, i.e., ±2 % o ±5 % del valor final. Si es el 2 % del valor final, se tendrá que
esperar 4τ para que el sistema ingrese dentro de esta banda, mientras que si es el 5 %,
se tendrá que esperar 3τ para que el sistema llegue a este rango. En el primer caso,
4
ts = ζwn
, 2%
Figura 4.9: Curvas envolventes para la respuesta a entrada paso del sistema de segundo orden
[21].
A partir de todo esto, es claro que si uno desea una respuesta rápida, wn debe ser
grande. Además, para limitar M P y reducir ts , ζ no debe ser demasiado pequeño. La Figura
4.11 ilustra cómo serı́a la relación en este caso.
Step Response
1.4
1.2
MP
DC gain
1
0.8
Amplitude
0.6
0.4
0.2
tr
0
tp ts
Time (sec)
Figura 4.10: Respuesta a entrada paso del sistema de segundo orden descrito por (4.7). En
este caso, K1 = 1, wn = 23,53, and ζ = 0,46.
Si comparamos con (4.3), se puede deducir que wn2 = K y que 2ζwn = 1 + KKh . Utilizando
las ecuaciones para M P y tp podemos obtener los valores de ζ y wn , para luego obtener las
variables deseadas. En este caso, se tiene que
− √ ζπ
e 1−ζ 2 = 0,2
64 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
K
1 1
s2+s
R(s) C(s)
Transfer Fcn
Subsystem
1+sKh
Step Response
1.4
System: untitled1
Peak amplitude: 1.2
Overshoot (%): 20
At time (sec): 0.988
1.2
System: untitled1
System: untitled1 Final Value: 1
Settling Time (sec): 2.36
1
System: untitled1
Rise Time (sec): 0.442
0.8
Amplitude
0.6
0.4
0.2
0
0 0.5 1 1.5 2 2.5 3 3.5 4
Time (sec)
Figura 4.13: Respuesta a entrada paso del sistema de segundo orden diseñado para obtener
los parámetros MP y tp definidos en el ejercicio.
son las que contienen la mayor cantidad de información sobre el comportamiento del mismo.
Para sistemas de orden superior a dos, la respuesta a entrada paso se puede asemejar a lo
visto previamente, haciendo algunas suposiciones (de esta forma, no es necesario obtener la
transformada inversa de Laplace para determinar el comportamiento del sistema).
Por ejemplo, tomemos el sistema de tercer orden,
1
T (s) =
(s2 + 2ζs + 1)(γs + 1)
Por otro lado cabe aclarar que el análisis de un sistema de segundo orden es válido si
la función de transferencia no tiene ceros finitos, ya que si estos están localizados relativa-
mente cerca de los polos complejos dominantes, la respuesta transitoria del sistema se verı́a
altamente afectada. Por ejemplo, si se tiene un sistema cuya función de transferencia es de
la forma 2
ωn
a
(s + a)
T (s) = 2
(s + 2ζωn s + ωn2 )
66 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
El porcentaje de overshoot a una respuesta escalón unitario será función del término a/ζ,
cuando ζ ≤ 1, como se puede ver en la Figura 4.15.
Otro ejemplo de lo que puede suceder cuando se le añade un polo y un cero adicional
se tiene en el siguiente caso. Asuma que se tiene un sistema cuya función de transferencia es
de la forma 2
ωn
a
(s + a)
T (s) = 2
(s + 2ζωn s + ωn2 )(1 + τ s)
Cuyos polos y ceros pueden afectar la respuesta transitoria del sistema. Si a ζω n y
τ 1/(ζωn ), entonces el polo y el cero no tendrán mucho efecto sobre la respuesta a
entrada paso. Sin embargo, si se tuviera un sistema donde
62,5(s + 2,5)
T (s) =
(s2 + 6s + 25)(s + 6,25)
Entonces, sı́ habrı́a inconvenientes. Por ejemplo, la ubicación de los polos en el plano-s serı́a
la que se observa en la Figura 4.16.
Nótese que la ganancia DC es igual a 1 (i.e., T (0) = 1), por lo que se espera tener un
error en estado estacionario nulo a entrada paso. A su vez, se tiene que ζωn = 3, τ = 0,16,
4.4. UBICACIÓN DE LAS RAÍCES EN EL PLANO-S Y LA RESPUESTA TRANSITORIA67
Figura 4.16: Ubicación de los polos y ceros en el plano-s para un sistema de tercer orden [6].
10(s + 2,5)
T (s) =
(s2 + 6s + 25)
donde ∆(s) = 0 es la ecuación caracterı́stica del sistema. Para un sistema con ganancia de
lazo G(s) y retroalimentación negativa con ganancia H(s), la ecuación caracterı́stica serı́a
∆(s) = 1 + G(s)H(s).
Para unPsistema de malla cerrada, los polos de T (s) son las raı́ces de ∆(s) y a su vez
los polos de k Pk (s)∆k (s), por lo que la respuesta transitoria del sistema estarı́a descrita
por las raı́ces de ∆(s) (i.e., los polos y ceros de T (s) están incluidos en ∆(s)).
68 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
Step Response
1.6
System: T2
Peak amplitude: 1.54
Overshoot (%): 54.4
1.4 At time (sec): 0.353
System: T1
Peak amplitude: 1.38
Overshoot (%): 37.9
At time (sec): 0.565
1.2
System: T2
Settling Time (sec): 1.47
1
System: T1
Settling Time (sec): 1.59
Amplitude
0.8
0.6
0.4
0.2
0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
Time (sec)
Figura 4.17: Respuesta a entrada paso para un sistema de tercer orden con un cero. Si se
desprecia el polo (-), el overshoot es mayor, pero su ts es menor. Si no se desprecia (–), se
tiene que el overshoot disminuye, haciendo que el tiempo de establecimiento aumente.
La salida de un sistema con ganancia 1 a entrada paso unitaria, donde no hay raı́ces
repetidas se puede expresar como
M N
1 X Ai X Bk + C k
C(s) = + +
s i=1 s + σi k=1 s2 + 2αk s + (αk2 + ωk2 )
donde Ai , Bk , Ck son constantes. Las raı́ces del sistema serı́an s = −σi y s = −αk ± jωk ,
por lo que al tomar la transformada inversa se tendrı́a una respuesta transitoria que serı́a la
suma de varios términos, i.e.,
M
X N
X
−σi t
c(t) = 1 + Ai e + Dk e−αk t sin ωk t + θk
i=1 k=1
Figura 4.18: Respuesta impulso para varias ubicaciones de las raı́ces en el plano-s. El complejo
conjugado no se muestra [6].
70 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
Capı́tulo 5
Me costaba entender que no tenı́a que caerle bien a todos para ser respetado, ni
tampoco que el agrado o desagrado que nos procura una persona es algo caprichoso,
incapaz de ser explicado sólo por la razón
La materia del deseo, Edmundo Paz Soldán
Criterio del lugar de las raı́ces: Evans desarrolló un método gráfico que permitı́a enten-
der más claramente cómo se desplazaban los polos y ceros de la ecuación caracterı́stica.
Durante muchos años su uso fue fundamental para el desarrollo de controladores, y en
la actualidad existen herramientas de computador que permiten graficar lugares de las
raı́ces complejos.
71
72 CAPÍTULO 5. ESTABILIDAD DE LOS SISTEMAS
1 G(s) 1
R(s) C(s)
G(s)
H(s)
H(s)
donde b1 = a1 a2a−a 1
0 a3
, b2 = a1 a4a−a 1
0 a5
, b3 = a1 a6a−a 1
0 a7
, y ası́ sucesivamente. Por ejemplo,
b1 a3 −b2 a1 b1 a5 −b3 a1 b1 a7 −b4 a1
c1 = b1
, c2 = b1
, y c3 = b1
, entre otros.
El criterio de estabilidad de Routh-Hurwitz propone que el número de raı́ces con parte
real positiva en la ecuación caracterı́stica es equivalente al número de cambios de signo
en los coeficientes de la primera columna de la “matriz”formada previamente. Si todos los
coeficientes en esta primera columna son positivos, entonces el sistema es estable.
a0 s 3 + a 1 s 2 + a 2 s + a 3 = 0
s3 a0 a2
s2 a1 a3
a1 a2 −a0 a3
s a1
s0 a3
Por lo tanto, para que el sistema sea estable, se requiere que a1 a2 > a0 a3 .
s4 + 2s3 + 3s2 + 4s + 5 = 0
s4 1 3 5
s3 2 4 0
s2 1 5
s −6
s0 5
Por lo tanto, al haber dos cambios de signo, existen dos raı́ces con parte real positiva. Esto
puede ser comprobado directamente utilizando el comando roots en Matlab. En este caso, se
obtendrı́an las siguientes raı́ces: −1,28 ± j0,86 y 0,29 ± j1,41.
s3 + 2s2 + s + 2 = 0
s3 1 1
s2 2 2
s 0'
s0 2
Como no hay cambio de signo, pero el sistema presenta un , se puede decir que el
sistema es crı́ticamente (marginalmente) estable.
74 CAPÍTULO 5. ESTABILIDAD DE LOS SISTEMAS
s5 1 4 10
s4 2 8 6
3
s 0' 7
s2 8−14
6
s 7
s0 6
8−14
Hay dos cambios de signo, ya que > 0, por lo que el factor
< 0. Por lo tanto,
el sistema es inestable.
2. Caso 2: Si toda una fila de elementos es igual a cero, ésta tiene que ser sustituida por
la derivada de la fila anterior.
s4 + 4 = 0
s4 1 0 4
s3 0 0
En este caso, se toma como polinomio auxiliar el que corresponde a la fila anterior a
la que se tiene llena de ceros. En este caso, P (s) = s4 + 4, y su derivada correspon-
derá ahora a la nueva fila de s3 . En este caso, se tendrı́a que
s4 1 0 4
s3 4 0
2
s 0' 4
s −16/
s0 4
Hay dos cambios de signo, ya que > 0. Por lo tanto, el sistema es inestable.
Ejemplo 5.1.6 Hallar el rango de Kc en la Figura 5.2 para que el sistema sea estable.
0.016 50
1 Kc 1
3s+1 30s+1
R(s) C(s)
Kc Transfer Fcn1 Transfer Fcn2
Transfer Fcn
1
10s+1
s3 900 43
s2 420 1 + 0,8Kc
17160−720Kc
s 420
s0 1 + 0,8Kc
Por lo tanto el rango de Kc tiene que ser −1,25 < Kc < 23,83.
Ejemplo 5.1.7 Se tiene un proceso inestable cuya función de transferencia viene dada por
1
P (s) =
(s − 1)(s2 + 2s + 2)
K(s + 2)
G(s) =
s+3
tal que el sistema en malla cerrada unitaria con retroalimentación negativa sea estable. Halle
el rango de K para que esto se logre.
3 < K < 14
68 − K − K 2 > 0
Por lo que se tiene que √
68,25 − 0,5
3<K<
7,76
Ejemplo 5.1.8 Halle el rango de K en función de T para que el sistema sea estable para el
sistema de la Figura 5.3.
1 Ke^(Ts)/(s+1) 1
R(s) C(s)
Kc
s + 1 + Ke−T s = 0
donde
(2n − k)!n!
ck = k = 0, . . . , n
2n!k!(n − k)!
Por ejemplo, para n = 1, c0 = 1 y c1 = 1/2. Es decir que la aproximación de Padé de primer
orden viene dada por
−sT 1 − T2 s
e =
1 + T2 s
Para n = 2, se tiene que c0 = 1, c1 = 1/2 y c2 = 1/12, por lo que se tendrı́a que
(T s)2
−sT 1 − T2 s + 12
Pd (s) = e = (T s)2
1 + T2 s + 12
Esto implica finalmente que K > −1 y K < 1+ T2 . Se puede ver claramente que a medida que
T aumenta, el rango de ganancia disminuye, por lo cual el tiempo muerto influye bastante
en la estabilidad de los sistemas.
tipos de incertidumbres (debido a la planta), o parámetros libres como los del controlador
en los coeficientes de la ecuación caracterı́stica, se necesita hacer una variación al criterio de
Routh-Hurwitz. Para ello, se introduce a continuación el criterio de estabilidad de Kharita-
nov, el cual es útil en este tipo de problemas (sin embargo, si el número de parámetros es
grande, el análisis se vuelve un poco largo y tedioso) [25].
Asumamos que la función de transferencia de una planta está dada por
Kp
P (s) =
s2 + 2ζωn sωn2
A su vez, supongamos que de acuerdo al conocimiento que se tiene de la planta se sabe que
se tienen unos rangos para cada uno de los parámetros, i.e., Kp ∈ [0,8, 1,3], ζ ∈ [0,2, 0,3] y
ωn ∈ [10, 12].
La función de transferencia se puede escribir entonces como
q0
P (s) =
r0 s2 + r1 s + r 2
donde q0 ∈ [0,8, 1,3], r0 ∈ [1, 1], r1 ∈ [4, 7,2], y r2 ∈ [100, 144]. Es claro entonces que se
tendrı́an una gran cantidad de posibilidades para formar una única función de transferencia
del sistema.
Generalizando, se puede ver que cualquier función de transferencia que tenga incerti-
dumbre en sus parámetros se puede escribir de la forma
Np (s) q0 sm + q1 sm−1 + . . . + qm
Pq,r (s) = =
Dp (s) r0 sn + r1 sn−1 + . . . + rn
donde qk ∈ [qk− , qk+ ] para todo k = 0, . . . , m, y rl ∈ [rl− , rl+ ] para todo l = 0, . . . , n. Los − y
+ corresponden a los lı́mites inferiores y superiores de los parámetros, respectivamente. Las
plantas Pq,r (s) con esta clase de incertidumbres se conocen como interval plants. Si se tiene
Nc (s)
un sistema retroalimentado como el que se ve en la Figura..., con C(s) = D c (s)
, la función
de transferencia vendrı́a dada por
Nc (s)Np (s)
T (s) =
Dc (s)Dp (s) + Nc (s)Np (s)
Por lo que el sistema serı́a robustamente estable si todas las raı́ces de la ecuación carac-
terı́stica Dc (s)Dp (s) + Nc (s)Np (s) = 0 están ubicadas en el semi-plano izquierdo para todas
las posibles combinaciones de P (s) ∈ Pq,r (s).
ANADIR FIGURA
con r0 ∈ [1, 1,1], r1 ∈ [4, 4,2], r2 ∈ [6, 8], r3 ∈ [10, 20], y q0 ∈ [3, 5]. Entonces, el polinomio
caracterı́stico estarı́a dado por
(s2 + 2s + 2)(r0 s3 + r1 s2 + r2 s + r3 ) + q0 (s + 2) = 0
a0 s 5 + a 1 s 4 + a 2 s 3 + a 3 s 2 + a 4 s + a 5 = 0
donde a0 ∈ [1, 1,1], a1 ∈ [6, 6,4], a2 ∈ [16, 18,6], a3 ∈ [30, 44,4], y a5 ∈ [26, 50]. Nótese bien
que en este caso hay seis coeficientes, pero en realidad sólo cinco son variables caracterı́sticas
del sistema (i.e., sólo los ri s y q0 son variables).
χ = a0 sn + a1 sn−1 + . . . + an
donde los coeficientes ak pueden tomar cualquier valor en un intervalo dado [a− +
k , ak ], k =
0, . . . , n, cuyos valores son independientes de aj , j 6= k. El conjunto de todas las ecuaciones
caracterı́sticas está dado por
χa := a0 sn + . . . + an : [a−
k , a +
k ], k = 0, . . . , n
Theorem 5.1.1 Teorema de Kharitanov Todos los polinomios en χa son estables sı́ y
sólo sı́ los siguientes cuatro polinomios son estables
− + + − −
a1 (s) = a− 2 3 4 5
n + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s + . . .
+ − − + +
a2 (s) = a+ 2 3 4 5
n + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s + . . .
+ + − − +
a3 (s) = an + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s5 + . . .
− 2 3 4
− − + + −
a4 (s) = a+ 2 3 4 5
n + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s + . . .
En la literatura, los polinomios a1 (s), . . . , a4 (s) se conocen como los polinomios de Kharita-
nov. Por medio del teorema de Kharitanov, la robustez en estabilidad puede ser obtenida al
aplicar el teorema de estabilidad de Routh-Hurwitz a cada uno de los cuatro polinomios. Si
se ve desde el punto de vista de complejidad, el hecho de haber reducido todo el espacio de
posibilidades a sólo tener que observar el comportamiento en estos cuatro polinomios es un
gran logro.
Capı́tulo 6
Dicen que la manera más limpia y sana de salir de un presente que agobia y que no
vislumbra ningún futuro es poner marcha atrás e internarse en el pasado. Sólo el
pasado, con sus hechos y recuerdos, podrá esclarecer lo que hoy nos parece tan
enredado y oscuro. Quizás. Pero entiendo a los que se niegan a rebobinar hacia
cualquier lado. Si algo tenı́amos en común todos nosotros era que no querı́amos ni
mirar ni sentir. Nuestra única convicción era no volver a tener ninguna.
Por favor, Rebobinar, Alberto Fuguet
2. “Comparar”la variable medida con el valor deseado o set-point para obtener la desvia-
ción (que serı́a la señal de error, o la señal de error retroalimentado).
3. Utilizando esta señal de error, el controlador procesará dicho valor y su salida será la
alimentación del proceso.
4. Esta salida, antes de ir al proceso pasa por un elemento final de control, el cual se
encarga de transmitir dicha señal en las unidades determinadas al proceso.
79
80 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO
2
D(s)
Gp(s) 1
1 Gc(s) Gv(s)
R(s) C(s)
Proceso
Controlador Válvula
Elemento final de control
Gt(s) Gs(s)
Transmisor Sensor
Elemento Secundario Elemento Primario
Figura 6.1: Sistema de control tı́pico. La referencia o el set point viene siendo R(s), mientras
que la variable controlada es C(s). La perturbación es D(s).
1 G(s) 1
R(s) C(s)
G(s)
H(s)
H(s)
sistema como se verá luego. Cabe resaltar que el tipo del sistema es diferente del orden de
un sistema.
El error en estado estacionario viene dado por
donde u(t) corresponde a la salida del controlador (por lo general estarı́a dada en unidades
de psi o mA); ū es el valor base (este valor es la salida del controlador cuando el error
es 0. Generalmente se fija durante la calibración del controlador); Kc es la ganancia del
controlador, y e(t) es la señal de error. Por lo general, asumiremos que ū = 0.
Como se puede ver, si y(t) se incrementa de tal forma que supere a r(t), el error se vuelve
negativo, y por ende u(t) decrece. Por otra parte, la salida del controlador es proporcional
al error, y esta ganancia determina cuánto se modifica la salida.
82 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO
Es claro que como sólo tiene un valor que ajustar, se hace más sencillo. Pero como se
vio en la sección anterior, existe un error en estado estacionario, dependiendo de la entrada
que se tenga, y el proceso que se está controlando.
En algunos casos, los controladores reales no utilizan el término ganancia sino que
utilizan el concepto de Banda Proporcional (BP). Esta es inversamente proporcional a la
ganancia Kc , y se define como
100
BP =
Kc
En algunos textos se conoce también como porcentaje de banda proporcional. Por lo tanto,
la ecuación en este caso serı́a,
100
(6.2) u(t) = ū + e(t)
BP
Es claro que las Ecuaciones (6.1) y (6.2) son totalmente diferentes, por lo que se tiene que
tener saber muy bien qué tipo de controlador se está utilizando.
ANADIR EJEMPLO
donde va el proceso durante la observación de la rapidez para el cambio del error, i.e., su
derivada. En este caso, la Ecuación (6.3) se convierte en
Z
Kc de(t)
(6.4) u(t) = ū + Kc e(t) + e(t)dt + Kc τd
τi dt
donde el término τd corresponde a la rapidez de derivación, y está dado por lo general en
minutos.
Los controladores PID se utilizan en procesos donde las constantes de tiempo son muy
largas. En procesos en los que las constantes son cortas, existe una mayor susceptibilidad al
ruido, por lo que la derivada tenderı́a a amplificarlo. Esto se ve más claramente al obtener
una función de transferencia de (6.4) cuando ū =, i.e.,
U (s) 1
= Kc 1 + + τd s
E(s) τi s
En la práctica, esta función de transferencia no se suele implementar, sobre todo por lo
que se dijo sobre el término derivativo. Más adelante veremos otro tipo de funciones de
transferencias que sı́ se suelen implementar. En general, el uso de filtros y configuraciones
diferentes ayudan a la implementación de dichos controladores.
6.2.5. Implementación
Dentro de todas las acciones del controlador de tres términos, la acción derivativa es la
más complicada de implementar, y por eso muchos fabricantes no la utilizan. Los problemas
de implementación radican en:
El uso o no de un filtro. Esto con el fin de evitar daños en los actuadores y no am-
plificar ruidos de alta frecuencia. Estos filtros pueden ser de primero o segundo orden,
dependiendo del fabricante.
El punto en el cual la acción derivativa actúa, bien sea en la medida o en el error.
Si la acción derivativa actúa o no con la acción integral, lo cual depende del algoritmo
que se utilice.
84 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO
6.2.6. Sintetizando
Hasta este punto se han visto los controladores P, PI, PD, PID, y los parámetros
asociados a ellos. Se conoce el concepto de Kc , BP , τi , τiR , τd . Cabe recordar que la forma
en la que se basan la mayorı́a de conceptos de sintonización está basada en la función de
transferencia ideal.
Si se tuviera un sistema de primer orden τK p
s+1
asociado a un controlador proporcional,
K ∗
se obtendrı́a en malla cerrada que T (s) = τ ∗ s+1 , donde
Kc Kp
K∗ =
1 + K c Kp
τ
τ∗ =
1 + K c Kp
Esto implicarı́a que el controlador proporcional modificarı́a el comportamiento dinámico del
sistema, conservando el orden del mismo, pero modificando los valores de los parámetros
asociados. Uno de los puntos importantes es ver la contribución de Kc en el τ ∗ . Si Kc Kp > 0,
entonces τ ∗ < τ , por lo que se harı́a más rápida la respuesta del proceso.
Si en lugar de un regulador proporcional se tuviera un PI, la función de transferencia
en lazo cerrado vendrı́a siendo
Kp Kc (τi s + 1)
T (s) =
τi τ s2 + (τi + Kp Kc τi )s + Kc Kp
Es claro que se tiene un cero y dos polos. En el caso anterior, el efecto de P sólo era cambiar
las caracterı́sticas del proceso, i.e., sus parámetros. En el caso de un PI, se añaden un polo y
6.3. SINTONIZACIÓN DE CONTROLADORES PID 85
1 Kp Kc (τi s + 1)
C(s) =
s τ τi (s − r1 )(s − r2 )
Es decir que c(t) = A0 + A1 er1 t + A2 er2 t . Una serie de conclusiones se pueden obtener en este
caso:
Si r1 y r2 son complejos conjugados con parte real negativa, se tendrá una respuesta
amortiguada oscilatoria.
En el caso de tener un PD en vez de un PI, T (s) tiene un cero y un polo, pero hace que
la respuesta transitoria exhiba error en estado estacionario como el proporcional. Este se
va si se tiene un PID, caso en el cual se tienen dos polos y dos ceros, y 0 error en estado
estacionario.
Por lo tanto, se podrı́a decir que las caracterı́sticas de los controladores clásicos serı́an:
Control P: Acelera la respuesta del sistema de control pero posee un offset para todos
los procesos, a excepción lógica de un proceso de capacidad constante.
Control PI: Elimina offsets pero el sistema se vuelve más oscilatorio. El añadir la acción
integral hace que se aumente la inestabilidad si Kc aumenta.
Control PID: El término I elimina el offset y las oscilaciones son compensadas por el
término D. Sin embargo, éstas amplifican las componentes de ruido de las señales.
Tipo De Regulador Kc τi τd
P 0,5Kcr - -
PI 0,45Kcr Pcr /1,2 -
PID 0,6Kcr 0,5Pcr 0,125Pcr
Tabla 6.1: Valores de los parámetros de los controladores para el método de malla cerrada.
La idea de este método es trabajar el lazo de control en modo automático con una
acción proporcional, i.e., τi = ∞, τd = 0, y utilizar el criterio de estabilidad de Routh-
Hurwitz asociado con el método de sustitución directa para caracterizar el proceso con dos
parámetros:
En la Figura... se muestra el lazo tı́pico para la prueba en automático para este caso.
ANADIR FIGURA
La idea es entonces ir incrementando el valor de Kc desde 0 hasta un valor Kcr , el
cual corresponde al valor de ganancia en el cual la salida presenta oscilaciones sostenidas por
primera vez (ver Figura...). El perı́odo crı́tico corresponde al perı́odo de oscilación tal como
se ve en la Figura... Si éstas no se presentan, este método no deberı́a aplicarse. La Tabla
6.1 muestra los valores que se requieren para cada uno de los tres controladores tı́picos que
podrı́an sintonizarse bajo este método.
Como bien se sabe, la estabilidad está definida por intermedio de la ecuación caracterı́stica
del sistema, i.e., 1 + Gp (s)Gc (s) = 0, lo que en este caso darı́a que
Tipo De Regulador Kc τi τd
P T /(L.K) - -
PI 0,9T /(L.K) 3,33L -
PID 1,2T /(L.K) 2L 0,5L
Tabla 6.2: Valores de los parámetros de los controladores para el método de malla abierta.
Se tendrı́a entonces una ecuación para la parte real y otra para la parte imaginaria, i.e.,
−0,1ω 3 + 1,7jω = 0
y
−0,8ω 2 + 1 + Kc = 0
√ 2π
Esto nos da que ωcr = 17, por lo que el Pcr = ωcr
= 1,52 segundos, y Kcr = 12,6.
El método de malla abierta pretende ajustar el controlador a partir del modelo del
proceso. Para ello, es necesario identificar el proceso utilizando una entrada paso en malla
abierta como se ve en la Figura....
ANADIR FIGURA
Ziegler y Nichols se refieren a una curva de reacción, i.e., una curva en forma de S luego
de aplicar la entrada escalón unitario. Esto suele darse si la planta no incluye integrador(es)
o polos dominantes complejos conjugados. Si la respuesta no está en esta forma, el método
no debe aplicarse. La respuesta del proceso en este caso serı́a
C(s) Ke−Ls
=
U (s) Ts + 1
Tabla 6.3: Valores de los parámetros de los controladores para el método de Cohen y Coon.
rc Kc τi τd
5
0 a 0.1 K
T 0
0,5
0.1 a 0.2 Krc
T 0
0,5(1+0,5rc ) 0,5rc
0.2 a 0.5 Krc
T (1 + 0,5rc ) T 0,5rc +1
Tabla 6.4: Valores de los parámetros de los controladores para el método del coeficiente de
ajustabilidad .
La respuesta del sistema debe ser lo suficientemente rápida, pero el sobreimpulso debe
ser lo más pequeño posible.
Las funciones de transferencia que generalmente se utilizan para cumplir estos objetivos son
1
(6.7) T1 (s) =
α1 s + 1
1
(6.8) T1 (s) =
(α2 s + 1)(α3 s + 1)
donde los αi s son las constantes de tiempo que determinan qué tan rápido responde el sistema.
Si estos parámetros son pequeños, el sistema no responde más rápido, aunque la ganancia del
controlador se incrementa. Por ende, de acuerdo al proceso que se tenga, la selección de estos
parámetros es bastante crı́tica. Los dos tipos de controladores que aparecen al reemplazar
(6.7) y (6.8) en (6.6) son
1 1
(6.9) Gc (s) =
Gp (s) α1 s
6.4. ALGORITMOS 91
1 1
(6.10) Gc (s) =
Gp (s) s(α2 α3 s + α3 + α2 )
Nótese bien que el hecho de que se tenga un controlador con un polo en cero, hace que para
una entrada escalón, el error en estado estable tienda a 0.
1
Si Gp (s) = Kp , Gc (s) = α1 K ps
, por lo que el controlador serı́a similar a uno con acción
integral, y α1 determina qué tan rápida serı́a la respuesta del sistema. Si,
Kp
Gp (s) =
τs + 1
y Gc (s) se selecciona de acuerdo a (6.9), se tiene un controlador PI, ya que
τ τs + 1
Gc (s) =
α1 Kp sτ
τ
Si lo comparamos con la ecuación ideal de un PI tendrı́amos que Kc = α1 K p
y τi = τ .
En los dos casos previamente expuestos se trató de buscar una relación directa entre la
forma del controlador que se obtiene a partir del proceso y un controlador clásico. Es claro
que en ocasiones se tienen que hacer suposiciones fuertes (e.g., despreciar ciertos parámetros)
para que el sistema se parezca a una de las ecuaciones ideales que conocemos.
6.4. Algoritmos
En general, los controladores comerciales utilizan algoritmos diferentes para imple-
mentar un PID. De este tipo de algoritmo dependen los valores de los parámetros obtenidos
mediante el método de sintonización que se utilice.
Los algoritmos clásicos son:
Ideal:
1
(6.11) Gc (s) = KcI 1 + I + τdI s
τi s
Paralelo o No Interactivo:
1
(6.12) Gc (s) = KcP + + τdP s
τiP s
Serie o Interactivo:
1
(6.13) Gc (s) = KcS 1+ 1 + τdS s
τiS s
Es claro que los métodos de sintonización vistos hasta el momento se basan en (6.11). Por lo
tanto, se tendrı́an que expresar (6.12) y (6.13) en términos de (6.11) para ası́ poder utilizar
los parámetros que se obtienen en los métodos de sintonización vistos.
92 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO
Este tipo de controladores se caracterizan porque las acciones derivativa e integral se apli-
can sucesivamente, lo que hace que exista una fuerte interacción entre ambas acciones. Al
comparar con un controlador ideal, se tiene que
I S τdS
Kc = K c 1 + S
τi
Por otro lado, el algoritmo paralelo (utilizado por Modicon, Siemens, Allan Braedley, entre
otros) es similar al ideal ya que tiene las tres acciones están actuando en forma independiente,
pero su sintonización es diferente ya que
KcI = KcP
Se hace una conversión de las señales análogas que provienen de los sensores utilizando
un conversor ADC.
t
t
PROCESS
HOLD
SAMPLER
t t
Figura 6.3: Proceso de tomar una señal continua y(t) que es generada por el proceso, y
convertirla en una secuencia de números y[n]. El computador toma una decisión y la convierte
en otra secuencia de números u[n], los cuales se convierten luego en una señal continua u(t)
que actúa sobre el proceso. Figura adaptada de [1].
ANADIR FIGURA
Los computadores que se utilizan se conectan a los actuadores y al proceso por medio
de conversores de señal. La salida es procesada por un DAC durante un perı́odo fijo de
tiempo T el cual se conoce como el tiempo de muestreo (lo mismo sucede a la entrada). El
muestreador es básicamente un interruptor que se cierra cada T segundos por un instante
corto de tiempo. Por ejemplo, en la Figura... se tiene un ejemplo, que gráficamente darı́a
algo como se ve en la Figura...
ANADIR FIGURAS
El DAC es un dispositivo que convierte la señal muestreada r ∗ (t) en una señal continua
p(t). Por lo general, el DAC se representa como un circuito de zero-order hold (ZOH) como
se ve en la Figura...
ANADIR FIGURA
La función de transferencia del ZOH es
1 − e−sT
G0 (s) =
s
94 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO
La idea de este retenedor de orden cero es tomar el valor de r[kT ] y “retenerloçonstante por
un tiempo kT ≤ t < (k + 1)T , como se ve en la Figura... para k = 0.
ANADIR FIGURA
El muestreador y el ZOH pueden seguir acertadamente la señal de entrada si T es pe-
queño comparado con los cambios transientes en la señal. Para una rampa y una exponencial
se tendrı́a lo que se observa en las Figuras...
ANADIR FIGURAS
Muy poco se pierde si se hace un muestreo entre instantes muy cercanos, mas sin
embargo, mucho se pierde si los puntos de muestreo se ubican demasiado lejos. Esto se
da sobre todo en la conversión de la señal muestreada a una continua. Si la frecuencia de
muestreo
2π
ωs =
T
es lo suficientemente grande comparada con la componente de frecuencia más alta en una
señal continua, entonces se puede afirmar que las caracterı́sticas de amplitud de la señal se
preservan. Para evitar este tipo de inconvenientes, asumamos que ω1 es la frecuencia máxima
o ancho de banda de una señal x(t), i.e., no hay componentes de frecuencia por encima de ω1 .
El siguiente teorema conocido como el teorema de muestreo de Nyquist, ilustra la escogencia
de la frecuencia de muestreo de acuerdo al ancho de banda de la señal en cuestión.
2π
Theorem 6.5.1 Si ωs = T
, i.e., la frecuencia de muestreo, cumple con
ωs > 2ω1
donde ω1 es la componente de frecuencia más alto en una señal continua x(t) (i.e., su ancho
de banda), entonces ésta puede ser reconstruida en su totalidad de la señal muestreada x ∗ (t).
z = esT
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
−1
0 1 2 3 4 5 6 7 8 9 10
Figura 6.4: Figura adaptada de [1]), la cual muestra el efecto de aliasing utilizando dos
diferentes señales x1 (t) = sin(2πf1 t) (punteada) and x2 (t) = − sin(2πf2 t) (sólida), con sus
respectivas frecuencias (f1 = 0,1 Hz, f2 = 0,9 Hz, y fs = 1 Hz). Este es un excelente ejemplo
de cómo el aliasing puede afectar la reconstrucción perfecta de las señales
Observaciones:
Teniendo el controlador PID digital, para poderlo sintonizar utilizando alguno de los
métodos vistos previamente, se recurre a añadir T /2 al tiempo muerto del proceso, para
ası́ poder utilizar dichos criterios. Es decir, el nuevo tiempo muerto serı́a dependiente
del tiempo de muestreo, i.e.,
T
L̄ = L +
2
Con ello, se estarı́a incluyendo el tiempo de muestreo en la selección de cada uno de
los componentes.
En algunos casos se toma como lı́mite superior un tiempo t finito tal que se haya
alcanzado el valor en estado estacionario. Por lo general éste es igual al tiempo de
establecimiento ts .
ANADIR EJEMPLO
RT
En lı́neas generales, lo que se tiene es I = 0 f (e(t), r(t), y(t))dt, ya que no necesa-
riamente tendrı́a que ser el error, sino una combinación de cualquiera de las señales que se
tengan a disposición.
Kc Kp τd + τ
τi = 16
Kp Kc
98 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO
1 + K c Kp
τi = 4
Kc Kp
Sin embargo, es claro que las respuestas no van a ser exactamente las mismas, ya que sólo
se están escogiendo los polos mientras que los ceros no se tienen en cuenta y estos pueden
afectar el desempeño.
Capı́tulo 7
Es gracias a la muerte que podemos ser felices porque sabemos que en algún
momento todo va a terminar Mario Vargas Llosa
Hasta el momento hemos analizado los sistemas desde el punto de vista de funciones
de transferencia. Hemos visto cómo los modelos matemáticos obtenidos por medio de leyes
fı́sicas nos ayudan a modelar relaciones de toda ı́ndole, además de brindarnos la posibilidad
de estudiar dichos sistemas para obtener su estabilidad y buscar métodos de control. Sin
embargo, todo este estudio se ha basado en el hecho de que los sistemas estudiados son
lineales y están representados en el espacio s. Es sabido que cualquier sistema no lineal
se puede transformar en uno lineal por medio de métodos de linealización como los vistos
previamente. En este capı́tulo veremos otra forma de representar los sistemas por medio de
las variables de estado. El análisis que se hará en este y los subsiguientes capı́tulos se basa
en los sistemas lineales, y su representación por medio de ecuaciones diferenciales ordinarias.
Primero se repasan los conceptos de variables de estado y su relación con cualquier tipo de
sistema, y luego se ahonda en la representación de sistemas lineales. Las notas de este capı́tulo
han sido sacadas de varios libros, dentro de los que se destacan [21, 30, 6, 10, 31, 11, 13, 29, 32].
99
100 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
donde x = [x1 , x2 , . . . , xn ]> , y u = [u1 , u2 , . . . , um ]> . En este caso f (·) es una función vectorial
con n + m + 1 argumentos, de dimensión n.
7.1.1. Definiciones
Existen dos tipos de sistemas dinámicos. Aquellos que están descritos por ecuaciones
diferenciales (i.e., aquellas que describen la evolución de los sistemas en tiempo continuo), y
aquellos descritos por ecuaciones de diferencias o iterated maps (i.e., aquellas dinámicas en
tiempo discreto). A lo largo del curso se utilizarán ecuaciones diferenciales, y más especı́fi-
camente las ordinarias (las parciales no serán utilizadas) de la forma
(7.2) ẋi = fi (x1 , x2 , . . . , xn , t), i = 1, . . . , n
Con ẋi ≡ dx
dt
i
, y f (·) una función determinada por el problema a tratar. El sistema descrito
por (7.25) puede ser lineal o no lineal y depende tanto de x como de t.
Definition 11 El sistema descrito por (7.25) se dice que es un sistema autónomo si f i (·)
no depende del tiempo. En caso contrario, decimos que (7.25) es un sistema no autónomo o
dependiente del tiempo.
Definition 12 El sistema
(7.3) ẋi = fi (x1 , x2 , . . . , xn , t, u(t))
se dice que es un sistema forzado o con entrada. Si f (·) no depende de u(t) se tiene un
sistema no forzado.
Esto implicarı́a que el número de condiciones iniciales que deben ser especificadas constituye
el orden del sistema, y por ende el número de variables de estado necesarias para determinar
el mismo.
ẋ1 (t) = a11 (t)x1 (t) + . . . + a1n (t)xn (t) + b11 (t)u1 (t) + . . . + b1m (t)um (t)
ẋ2 (t) = a21 (t)x1 (t) + . . . + a2n (t)xn (t) + b21 (t)u1 (t) + . . . + b2m (t)um (t)
(7.5) ..
.
ẋn (t) = an1 (t)x1 (t) + . . . + ann (t)xn (t) + bn1 (t)u1 (t) + . . . + bnm (t)um (t)
donde x0 es un vector que reúne las entradas exógenas (e.g., perturbaciones, ruido), y E(t)
es una matriz de las ganancias que poseen dichas entradas.
Finalmente, lo que nos interesa es la salida en la mayorı́a de los casos, más no el estado.
Por ello, se define un vector de salida y = [y1 , y2 , . . . , yr ]> y estarı́a dado por
Ejemplo 7.1.2 [11, 27] En este caso se tiene un modelo que corresponde a una masa M
que está sujetada a un amortiguador cuya constante de amortiguación es b y a un resorte
cuya constante es k. La Figura7.1 muestra el sistema.
d2 y(t) X
M = f (t)
dt2
d2 y(t) dy(t)
(7.8) M + b + ky(t) = f0
dt2 dt
102 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
k b
fo y
Figura 7.1: Modelo mecánico que corresponde a una masa, sujetada por un amortiguador y
un resorte. La posición está dada por y, y se le aplica una fuerza inicial f0 .
Por lo tanto
ẋ1 (t) = x2 (t)
(7.10) 2
ẋ2 (t) = d dty(t)
2
Utilizando (7.8) en (7.10), con el cambio de variables descrito en (7.9) se tiene que
ẋ1 (t) = x2 (t)
ẋ2 (t) = − Mb x2 (t) − k
x (t)
M 1
+ 1
f
M 0
Las Figuras 7.2 y 7.3 muestran la implementación del sistema utilizando Simulink. La
primera corresponde al modelo utilizando diagrama en bloques donde sólo se pueden utilizar
sumadores, integradores, y ganancias. La segunda corresponde a la simulación del sistema
para cuatro casos diferente. Como se puede observar, en los cuatro casos la posición final es
la misma ( fk0 , i.e., 0.3125m), pero lo que varı́a es la respuesta del sistema. Esto se debe a que
los puntos de equilibrio serı́an x2 = 0 y x1 = k1 f0 . Entre más grande sea el amortiguamiento,
menos oscilaciones tiene el sistema, pero su respuesta pareciera ser más lenta. Es el mismo
caso de la velocidad, ya que ésta siempre llega a 0, pero con más o menos oscilaciones. Cabe
aclarar que en estos cuatro casos las otras variables permanecieron exactamente iguales. Un
ejemplo de qué sucede cuando se deja de aplicar una fuerza constante f0 se puede ver en la
Figura 7.4. Claramente, en este caso, el sistema cambia su punto de equilibrio luego de 19
segundos, ya que en ese momento f0 = 0. Esto era de esperarse debido a la fı́sica del sistema
(i.e., se tiene un amortiguador).
Ejemplo 7.1.3 [11] Representar el sistema descrito en (7.11) por intermedio de diagramas
de bloques.
ẋ1 (t) = a11 x1 + a12 x2 (t) + b11 u1 + b12 u2 (t)
(7.11)
ẋ2 (t) = a21 x1 + a22 x2 (t) + b21 u1 + b22 u2 (t)
7.2. REPRESENTACIÓN Y SOLUCIÓN DE VARIABLES DE ESTADO 103
f0 x2 x1
1/M
1 1
Step s s
Gain1
Integrator Integrator1 Scope
Gain
b/M
Gain2
k/M
!#"$
% !#&
'
!#(
)$* +
, !#&
- .
- /- (
)$0 * +
7.2.1. Representación
Consideremos el siguiente sistema de n-ésimo orden [21]
En este caso, y n corresponde a la n-ésima derivada de y. Para poder hacer una representación
en término de ecuaciones de estado, se asume que se conocen las condiciones iniciales y(0),
ẏ(0), . . ., y n−1 (0), además de la entrada u(t). Por lo tanto, el conjunto de n variables de
estado será
x1 (t) = y(t)
x2 (t) = ẏ
..
.
dn−1 y(t)
xn (t) = dtn−1
ẋ1 = x2
ẋ2 = x3
..
.
ẋn−1 = xn
ẋn = −an x1 − an−1 x2 − . . . − a1 xn + u
104 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
Simulación para b=2. Velocidad (−−) Simulación para b=4. Posición (−)
1 0.6
0.8 0.5
0.4
0.6
0.3
0.4
0.2
0.2
0.1
0
0
−0.2 −0.1
−0.4 −0.2
0 5 10 15 20 0 5 10 15 20
Simulación para b=8, Velocidad (−−) Simulación para b=16, Posición (−)
0.4 0.35
0.3
0.3
0.25
0.2 0.2
0.1 0.15
0.1
0
0.05
−0.1 0
0 5 10 15 20 0 5 10 15 20
Figura 7.3: Simulación en Simulink del sistema descrito en la Figura 7.1. Para este caso se
utilizaron los parámetros f0 = 5N, M = 2kg, k = 16N/m, y cuatro valores para b. En la parte
superior izquierda, se tiene b = 2N.s/m; en la parte superior derecha, se tiene b = 4N.s/m;
en la parte inferior izquierda, se tiene b = 8N.s/m; y en la parte inferior derecha, se tiene
b = 16N.s/m. En todos los casos se tiene que posición está dada por la lı́nea (-), mientras
que la velocidad es la lı́nea punteada (- -).
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
0 5 10 15 20 25 30 35 40
Figura 7.4: Simulación en Simulink del sistema descrito en la Figura 7.1, cuando únicamente
se aplica una fuerza f0 durante un determinado tiempo. Para este caso se utilizaron los
parámetros f0 = 5N, M = 2kg, k = 16N/m, y b = 2N.s/m. La posición está dada por la
lı́nea (-), mientras que la velocidad es la lı́nea punteada (- -).
7.2.2. Solución
Asumamos que se tiene la representación en el espacio de estado
ẋ(t) = Ax(t)
Esta ecuación se puede escribir como
ẋ1 (t) = a11 x1 (t) + . . . + a1n xn (t)
ẋ2 (t) = a21 x1 (t) + . . . + a2n xn (t)
..
.
ẋn (t) = an1 x1 (t) + . . . + ann xn (t)
Se asume que se conocen las condiciones iniciales del sistema (x(0)), por lo cual se podrı́a
integrar a ambos lados de la ecuación, para ası́ obtener
Rt
x1 (t) − x1 (0) = 0 (a11 x1 (τ ) + . . . + a1n xn (τ )) dτ
Rt
x2 (t) − x2 (0) = 0 (a21 x1 (τ ) + . . . + a2n xn (τ )) dτ
..
.
Rt
xn (t) − xn (0) = 0 (an1 (t)x1 (τ ) + . . . + ann xn (τ )) dτ
7.2. REPRESENTACIÓN Y SOLUCIÓN DE VARIABLES DE ESTADO 107
Pero, qué es x(τ ) en (7.14)? Si observamos (7.14), x(τ ) viene siendo la solución de dicha
ecuación cuando x(t)|t=τ . En otras palabras,
Z τ
0 0
(7.15) x(τ ) = Ax(τ )dτ + x(0)
0
El término Φ(t) = eAt se conoce como matriz de transición de estado. Esta matriz se conoce
ası́ porque transfiere el estado del sistema en tiempo 0 a tiempo t. En el paper [19] se deducen
19 diferentes formas de computar dicha matriz.
Algunas propiedades de la matriz de transición de estado son
Φ(0) = I
Pero,
d −At
e−At (ẋ(t) − Ax(t)) = e x(t)
dt
Integrando a ambos lados,
Z t
−At
e x(t) = e−Aτ Bu(τ )dτ + x(0)
0
En esta definición, válida para sistemas lineales e invariantes en el tiempo, se tiene que para
un sistema como (7.18), la relación entre la entrada u y la salida y estará dado por una
transformación en frecuencia de las señales, siempre y cuando las condiciones iniciales sean
nulas.
Esto serı́a,
L [salida]
H(s) =
L [entrada] CI=0
dónde L [·] es la transformada de Laplace. Aplicando esto a (7.18), se obtiene que
Y (s) b0 sm + b1 sm−1 + . . . + bm−1 s + bm
(7.19) H(s) = = n
U (s) s + a1 sn−1 + . . . + an−1 s + an
Cuál es la relación que existe entre la función de transferencia y la representación en variables
de estado? Tomemos la Ecuación (7.6), y aplicando la transformada de Laplace, se obtiene
que
sX(s) − x(0) = AX(s) + BU (s)
Como se sabe que las condiciones iniciales son cero, se tiene que
Por otra parte, la transformada de y(t) en (7.7) viene siendo Y (s) = CX(s) + DU (s), por
lo cual si reemplazamos X(s) en (7.20), se obtiene que la función de transferencia es
Y (s)
(7.21) = C(sI − A)−1 B + D
U (s)
Si se analiza la Ecuación (7.21) se puede observar que |sI − A| corresponde al polinomio
caracterı́stico del sistema, ya que el resto de términos podrı́an ser agrupados de tal forma
G(s)
que H(s) = |sI−A| , por lo que los valores propios de A son idénticos a los polos de H(s). Su
rol es vital ya que las raı́ces del polinomio son las raı́ces caracterı́sticas, o valores propios, o
polos del sistema, los que determinan las principales caracterı́sticas del comportamiento del
sistema no forzado.
Se sabe que
A2 t2 A3 t3
Φ(t) = eAt = I + At + + + ...
2! 3!
Por lo tanto, la transformada de Laplace serı́a igual a
I A A2 A3
Φ(s) = + 2 + 3 + 4 + ...
s s s s
I A A2 A3
[sI − A]Φ(s) = [sI − A] + + 3 + 4 + ...
s s2 s s
2
[sI − A]Φ(s) = I 2 + As + As2 + . . .
2 3
− As − As2 − As3 . . .
= I
Por lo tanto,
eAt = L −1 {(sI − A)−1 }
En la literatura, la matriz Φ(s) = (sI − A)−1 se conoce como el resolvent de A (o la matriz
caracterı́stica). Por lo tanto, los pasos a seguir a la hora de calcular la matriz de transición
de estado son:
Recuerde que
adj(A) 1
A−1 = = (Cij )>
|A| |A|
dónde adj(A) es la matriz adjunta, o la matriz de cofactores, la cual tiene como coeficientes
(Cij ) = (−1)i+j Mij (Mij es la matriz que remueve la fila i y la columna j, para luego tomar
el determinante). El determinante de una matriz A de n × n se puede definir por medio de
la expansión de Laplace con respecto a una fila arbitraria i de la forma
n
X
detA = aij Cij
j=1
110 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
Esto también se puede hacer con respecto a una columna arbitraria k de la forma,
n
X
detA = aik Cik
i=1
Por lo tanto, los cofactores asociados serı́an C12 = (−1)3 5 = −5, C12 = (−1)4 4 = 4, y
C32 = (−1)5 1 = −1. Por lo tanto, usando la expansión de Laplace con respecto a la columna
2, se tiene que |A| = 4C12 = −20.
Ejemplo 7.3.2 Calcular la matriz adjunta cuando se tiene una matriz cuadrada de n = 2,
y n = 3.
a11 a12
A=
a21 a22
b11 b12 b13
B = b21 b22 b23
b31 b32 b33
a22 −a12
adj(A) =
−a21 a11
b11 b12 b13
B = b21 b22 b23
b31 b32 b33
b22 b23 b12 b13 b12 b13
b32 b33 − b32 b33 b22 b23
b21 b23 b11 b13 b11 b13
adj(B) = − b31 b33 b31 b33 − b21 b23
b21 b22
− b11 b12 b11 b12
b31 b32 b31 b32 b21 b22
7.3. FUNCIONES DE TRANSFERENCIA 111
Ejemplo 7.3.3 [11] Hallar la matriz de transición de estado si las dinámicas de un motor
DC con inercia están dadas por
θ̇ = w
ẇ = −αw + βu
U (s) Y (s)
1 2
s3 +b2 s2 +b1 s+b0 a2s + a1s + a0
V (s)
ẋ = Ax + Bu
y = Cx + Du
Ejemplo 7.3.5 [28] Un calibrador óptico utilizado por la Chrysler Corporation, el cual se
utiliza para verificar el perfecto alineamiento de todos los componentes metálicos de varias
clases de Sedan de cuatro puertas, tiene unas dinámicas en lazo cerrado dadas por
ÿ + 5ẏ + 6y = f (t)
d3 y
+ 6ÿ + 11ẏ + 6y = 6u
dt3
Según lo visto en la sección anterior, se tiene que las matrices A, B, C, y D vienen dadas
por
0 1 0
A= 0 0 1
−6 −11 −6
0
B= 0
6
C= 1 0 0
7.4. FORMAS CANÓNICAS 113
El resultado del ejemplo anterior nos muestra claramente que una función de transferencia
puede tener muchas representaciones en el espacio de estado. A continuación se explicarán los
métodos estándares conocidos como representaciones CANÓNICAS, las cuales tienen varias
propiedades que serán explotadas a lo largo del curso.
Si formásemos la matriz A, se puede ver que tiene una estructura especial: los coeficientes
del denominador de H(s) están en la última fila precedidos de un signo menos; el resto de
valores son 0, excepto la “superdiagonal” cuyos términos son 1. Este tipo de matrices se
conocen como matrices que tienen una companion form.
La función de transferencia en (7.22) se modifica de tal forma que ahora, la función de
transferencia es
b0 sn + b1 sn−1 + . . . + bn−1 s + bn
(7.23) H(s) =
sn + a1 sn−1 + . . . + an−1 s + an
donde si el grado del numerador fuera menor o igual al grado del denominador, i.e., deg(num)
≤ deg(den), entonces se dice que es una función de transferencia propia; si es estrictamente
menor, entonces se dice que es una función de transferencia estrictamente propia; y si es
mayor, entonces se dice que la función de transferencia es impropia.
Pero esta ecuación es equivalente a
Y (s) Z(s)
H(s) =
Z(s) U (s)
Z(s)
Por linealidad, U (s)
serı́a equivalente a (7.22), mientras que se puede decir que
Y (s)
= b0 sn + b1 sn−1 + . . . + bn−1 s + bn
Z(s)
Ası́ pues, se tiene una parte que es idéntica a lo expuesto anteriormente, mientras que la
segunda serı́a la suma escalizada de las salidas de los integradores que se forman de acuerdo
a lo visto previamente. Un diagrama en bloques se puede ver en la Figura 7.7.
Las matrices A y B son las mismas que se definieron previamente, mientras que las
matrices C y D estarı́an dadas en este caso por el hecho de que
Esta ecuación se obtiene por los dos caminos directos que existen, i.e.,
|λI − A| = 0 ⇒ an + an−1 λ + . . . + a1 λn = 0
1 1
Y (s) = bo U (s) + (b1 U (s) − a1 Y (s)) + . . . + n (bn U (s) − an Y (s))
s s
ẋ1 = x2 − a1 (x1 + b0 u) + b1 u
ẋ2 = x3 − a2 (x1 + b0 u) + b2 u
..
.
ẋn−1 = xn − an (x1 + b0 u) + bn−1 u
ẋn = −an (x1 + b0 u) + bn u
y = x1 + b0 u
En algunos casos, para hallar los residuos de una función de transferencia, se puede recurrir
a programas como Matlab. A continuación se presenta cómo se deberı́a hacer para obtener
dichos residuos de la expansión en fracciones parciales.
Una forma de ver esta ecuación es utilizar diagramas en bloques como se puede ver en
la Figura 7.9.
ẋ1 = s1 x1 + u
ẋ2 = s2 xs + u
..
.
ẋn = sn xn + u
y = r 1 x1 + r 2 x2 + . . . + r n xn + b 0 u
En este caso
s1 0 . . . 0
0 s2 . . . 0
A=
... ... ... ...
0 0 . . . sn
118 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
1
1
B= ..
.
1
C= r1 r2 . . . r n
y D = b0 . Si las raı́ces son reales, se podrı́a implementar en hardware. En cualquier otro caso
sólo servirı́a desde un punto de vista teórico.
7.4. FORMAS CANÓNICAS 119
La representación serı́a
ẋ1,i = si x1,i + u
ẋ2,i = x1,i + si x2,i
..
.
ẋki ,i = xki −1,i + si xki ,i
yi = r1,i x1,i + r2,i x2,i + . . . + rki ,i xki ,i
En este caso si definimos xi = [x1,i , x2,i , . . . , xki ,i ]> , se tiene la siguiente representación
ẋi = Ai xi + bi u
yi = C i xi
donde
si 0 ... 0
1 si ... 0
Ai =
0 1 ... 0
... ... ... ...
0 0 . . . si
120 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
1
0
Bi = ..
.
0
C= r1,i r2,i . . . rki ,i
La matriz Ai consiste en dos diagonales: la diagonal principal con los polos más una subdiago-
nal de unos. En álgebra esto se conoce como la Jordan form (si se tomara otra nomenclatura,
los unos irı́an en la parte superior).
Por (7.24) se tienen n̄ subsistemas de este mismo calibre. Por lo tanto, el sistema general
consistirı́a en concatenar cada uno de ellos, definiendo x = [x1 , x2 , . . . , xn̄ ]> , con
A1 0 . . . 0
0 A2 . . . 0
A= ... ... ... ...
0 0 . . . An̄
B1
B2
B= ..
.
Bn̄
C= C1 C2 . . . Cn̄
y D = b0 .
EJEMPLOS MATLAB/SIMULINK
7.5. Equilibrio
Asumamos que se tiene un sistema que puede ser descrito mediante la siguiente ecuación
diferencial
(7.25) ẋ = f (t, x)
dónde x ∈ Rn es el estado del sistema, t ≥ 0, con una condición inicial x(t0 ) = x0 , siendo t0
el valor inicial del tiempo. Por lo general, no existen reglas generales que permitan encontrar
de manera explı́cita las soluciones del sistema descrito mediante la Ecuación (7.25). En este
caso, el análisis de este tipo de problemas se realiza de dos formas: i) un análisis cuantita-
tivo mediante el cual se haya de manera explı́cita la solución de (7.25) utilizando métodos
numéricos y aproximaciones; o ii) un análisis cualitativo, en el cual no se busca una solución
explı́cita de la solución de (7.25), sino que el sistema es estudiado gracias al comportamiento
de la familia de soluciones del problema en cuestión. Nosotros enfocaremos este tutorial en
este segundo ı́tem, ya que los resultados principales de este análisis incluyen las propieda-
des de estabilidad de un punto de equilibrio (o posición de reposo), y el acotamiento de las
soluciones de ecuaciones diferenciales de la forma definida en (7.25).
7.5. EQUILIBRIO 121
Empecemos nuestro análisis por definir ciertas propiedades básicas en nuestro proble-
ma. La ecuación diferencial que nos atañe está definida por intermedio de la Ecuación (7.25),
dónde x ∈ Rn . Para definir el dominio de f tenemos que considerar dos opciones:
Algunas veces se asume que t ∈ R, pero nosotros asumiremos en lo que resta que t ∈
[t0 , +∞), dónde t0 ≥ 0. En el siguiente análisis asumiremos que para un determinado t0 ,
y una condición inicial x(t0 ) = x0 , el sistema de la Ecuación (7.25) posee una solución
única que llamaremos φ(t, t0 , x0 ). Esta solución está definida para todo t ≥ t0 y depende de
manera continua de los datos iniciales, i.e., (t0 , x0 ). Uno de los casos particulares en los que
esta aseveración es cierta es cuando f satisface la condición de Lipschitz que definimos a
continuación.
para todo (t, x), (t, y) que pertenezcan a D. En este caso, la función f es continua según
Lipschitz en x.
Theorem 7.5.1 Existencia Local y única: Sea f (t, x) una función continua en todo t
que satisface (7.26) para todo x, y ∈ B = {x ∈ Rn : ||x − x0 || ≤ r} y para todo t ∈ [t0 , t1 ].
Existe pues un determinado δ > 0 tal que la ecuación
Lo que nos quiere decir el Teorema 7.5.1 es que si para cierto xm → x0 , entonces la trayectoria
φ(t, t0 , xm ) → φ(t, t0 , x0 ) de manera uniforme en t en |t − t0 | ≤ δ para cierto δ > 0.
Una vez establecidas estas condiciones, podemos definir el punto de equilibrio.
Nótese que para sistemas autónomos (aquellos en los cuales la Ecuación (7.25) no depende
del tiempo), un punto xe ∈ Rn es un punto de equilibrio en un determinado tiempo t∗ si y
sólo si es un punto de equilibrio para todo tiempo. Nótese también que si xe es un punto de
equilibrio en t∗ , entonces la transformación τ = t − t∗ reduce la Ecuación (7.25) a
dx
= f (τ + t∗ , x)
dτ
y por ende, xe es un punto de equilibrio en τ = 0. Es por ello que se asumirá que t∗ = 0, y
omitiremos su uso en lo que resta del documento. Además, si x(t0 ) = xe , el sistema está en
reposo desde el inicio, por lo cual no tiene porque desplazarse de su punto de equilibrio.
Ejemplo [13]: Consideremos el sistema descrito por
ẋ1 = x2
ẋ2 = − gl sin(x1 ) − k
x
m 2
dónde g, l, m, k > 0. Este sistema describe de forma simple el péndulo sin fricción, y como
se puede ver tiene infinitos puntos de equilibrio localizados en (πn, 0), n = 0, ±1, ±2, . . ..
Fı́sicamente sólo tiene dos puntos de equilibrio, y los demás son la repetición de los dos
primeros.
Para poder definir ciertas caracterı́sticas de un punto de equilibrio, introducimos la
siguiente definición.
Como podemos observar, todos los puntos de equilibrio de la Ecuación (7.27) son aislados
en R2 . Sin embargo, existen sistemas en los cuales los puntos de equilibro no son aislados.
Ejemplo [?]: Consideremos el sistema
dónde a > 0 y b > 0 son constantes. Queda claro que x1e = 0, por lo cual cualquier punto
en el eje positivo de x2 es un punto de equilibrio de (7.27). Ası́ pues, el punto de equilibrio
no es aislado.
Es claro que existen casos en los cuales no existen puntos de equilibrio. Por ejemplo,
tomemos el siguiente ejemplo
ẋ1 = 2 + sin(x1 + x2 ) + x1
ẋ2 = 2 + sin(x1 + x2 ) − x1
En lo que nos resta, asumiremos que los puntos de equilibrio son aislados. También asumi-
remos que el punto aislado de equilibrio que analizaremos es xe = 0. Por qué? Asumamos
7.6. ESTABILIDAD Y ACOTAMIENTO 123
(7.27) ė = f (t, e + xe )
Como las propiedades de (7.27) y (7.25) son las mismas, podemos asumir que el punto de
equilibrio está localizado en xe = 0, el cual es conocido como el punto de equilibrio trivial
de (7.25).
cuando
1. Es SISL.
2. Para cualquier t0 ≥ 0, existe un η(t0 ) > 0, tal que
x2
φ(t,t0,x 0)
x1
δ(ε,t0)
Cuál es la diferencia entre un punto de equilibrio que es SISL y uno que es AS? Cuando ha-
blamos de SISL se dice que el sistema tiene unas condiciones iniciales tales que si el sistema
está cerca de su punto de equilibrio, entonces al final el sistema se mantendrá cerca del punto
de equilibrio. Sin embargo, en la definición de AS lo que se tiene es que si el sistema arranca
cercano al punto de equilibrio, entonces además de que la trayectoria se mantendrá cerca,
ésta convergerá al punto de equilibrio.
Ejemplos:
ẋ = 0: Este sistema tiene un punto de equilibrio que es SISL, más en ningún momento
es AS ya que las trayectorias no convergen al punto de equilibrio.
ẋ = −ax: Si asumimos que a > 0, el punto de equilibrio es xe = 0, y como se puede
ver este es SISL pero además como la trayectoria es φ(t, t0 , x0 ) = x0 e−at , tomando el
lı́mite en el infinito, se puede ver que la trayectoria converge a 0, con lo cual es AS.
Este último ejemplo nos muestra una caracterı́stica adicional, y es cuán rápido las
trayectorias convergen al punto de equilibrio. A continuación la definimos.
ε e- αt
ε
x0
δ
t
En la definición anterior β podı́a depender de t0 . Si esta constante es tal que para cualquier
α > 0 y cualquier t0 ∈ R+ , β = β(α) > 0 (independiente de t0 ), se tiene que si |x0 | < α,
entonces |φ(t, t0 , x0 )| < β para todo t ≥ t0 .
Gráficamente esta última definición puede verse ilustrada en la Figura 7.13. Lo que se ilustra
en esta figura es que si bien se pueden llegar a tener oscilaciones elevadas en un principio,
luego de un tiempo T (α), las trayectorias se ven acotadas por una especie de cilindro de
radio B.
φ(t)
x0
α B t
T(α)
Entre tenerle miedo a todo y tenerle miedo a mi propio miedo, elijo esto último, no
se olvide que soy policı́a y que si le tuviera miedo a todo no podrı́a trabajar. Pero si
le tiene miedo a sus miedos su vida se puede convertir en una observación constante
del miedo, y si éstos se activan, lo que se produce es un sistema que se alimenta a
sı́ mismo, un rizo del que le resultarı́a difı́cil escapar, dijo la directora.
2666, Roberto Bolaño
Las notas de este capı́tulo han sido sacadas de varios libros, dentro de los que se
destacan [21, 6, 10, 31, 11, 3].
8.1. Introducción
Normalmente estamos interesados en controlar el sistema con una señal de control u(t),
que está ligada a las variables de estado del sistema. Este controlador opera bajo la infor-
mación disponible, y es un sistema de compensación bastante utilizado para optimización de
sistemas.
Los conceptos de controlabilidad y observabilidad fueron introducidos por R. E. Kal-
man en los años 50s para explicar porqué un método de diseño de compensadores para
sistemas inestables por medio de la cancelación de los polos en el semiplano derecho por
ceros en el mismo semiplano no siempre funcionaba. Kalman demostró que una cancelación
perfecta polo-cero podrı́a resultar en un sistema inestable incluso teniendo una función de
transferencia estable.
Ejemplo 8.1.1 [11] Asumamos que se tiene el sistema descrito por las ecuaciones de es-
tado,
ẋ1 = 2x1 + 3x2 + 2x3 + x4 + u
ẋ2 = −2x1 − 3x2 − 2u
ẋ3 = −2x1 − 2x2 − 4x3 + 2u
ẋ4 = −2x1 − 2x2 − 2x3 − 5x4 − u
y = 7x1 + 6x2 + 4x3 + 2x4
127
128 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO
s3 + 9s2 + 26s + 24
H(s) = C(sI − A)−1 B =
s4 + 10s3 + 35s2 + 50s + 24
Factorizando, se puede ver como un sistema de cuarto orden se reduce a uno de primer orden
de la forma
(s + 2)(s + 3)(s + 4) 1
H(s) = =
(s + 1)(s + 2)(s + 3)(s + 4) s+1
Porqué sucede esto?
Por intermedio de un cambio de variables (que se verá más adelante), el sistema puede
ser escrito como
ż1 = −z1 + u
ż2 = −2z2
(8.1) ż3 = −3z3 + u
ż4 = −4z4
y = z1 + z2
ẋ = Ax + Bu
y = Cx
puede ser transformado en susbistemas como los del ejemplo anterior. Para este caso especı́fi-
co, se concluye que
−1
R
+ z2
−2
R
+ z3
−3
R z4
+
−4
La función de trasferencia está determinada sólo por el subsistema que es tanto controlable
como observable. Se dice que un sistema que contiene un subsistema NO controlable es NO
controlable; un sistema que contiene un subsistema NO observable es NO observable.
Si existe al menos una cancelación de polos y ceros inestables, cualquier perturbación
llevarı́a al sistema a volverse inestable. Sin embargo, en este caso no habrı́a problema ya
que los polos eran todos estables, por lo cual la cancelación polos/ceros no nos afectaba en
deması́a.
Si se escoge
z = Tx
ż = T ẋ
T −1 ż = Ax + Bu
T −1 ż = AT −1 z + Bu
Por lo que, la normal/modal canonical form viene siendo
ż = T AT −1 x + T Bu
y = CT −1 x + Du
Lo que se puede escribir de forma más sencilla como
ż = Āz + B̄u
y = C̄z + D̄u
Por ejemplo, en el caso de calcular eAt , si la matriz Ā fuera diagonal, entonces serı́a más
sencillo calcular eĀt que eAt , ya que los valores propios no se ven afectados bajo una trans-
formación ideal, i.e.,
|λI − T AT −1 | = |T (λI − A)T −1 |
= |T ||λI − A||T −1 |
= |T ||T −1 ||λI − A|
= |λI − A|
El problema que surge entonces es escoger T de tal forma que Ā = T AT −1 sea diagonal.
λe = Ae
Una de los métodos para hallar T es utilizando la noción de vectores propios agrupados todos
en la matriz T −1 . Sin embargo, el método que se describe a continuación sólo es válido si los
n valores propios son diferentes, i.e., no existe ninguno que sea repetido.
Para hacer la explicación más sencilla, supongamos que A tiene tres vectores propios
diferentes e1 , e2 , e3 . A continuación escogemos las columnas de T −1 como cada uno de los
vectores propios, i.e.,
| | |
T −1 = e1 e2 e3
| | |
Luego, se puede obtener T , y por lo tanto calcular Ā, la cual será una matriz diagonal que
tendrá en su diagonal los valores propios λi , i = 1, . . . , n. Esto nos permitirı́a encontrar la
modal canonical form si es que existe.
Ejemplo 8.2.1 Encontrar la modal canonical form del siguiente sistema, si es que existe.
−1 −2 3
ẋ = x+ u
0 −2 1
y = [2 − 6]x
8.2. TRANSFORMACIÓN DE LAS VARIABLES DE ESTADO 131
En primera instancia, tendrı́amos que hallar los valores propios de A por medio de |λI −A| =
0, lo que en este caso implica que λ = {−1, −2}.
Luego, para encontrar T se necesita encontrar una base de vectores propios, i.e., (λ i I −
A)ei = 0, i = 1, 2. Esto implica que si λ1 = −1 se puede escoger que e1 = (1, 0)> , y que si
λ2 = −2 se puede escoger que e2 = (2, 1)> . Por lo tanto se tendrı́a que
−1 1 2
T =
0 1
y
1 −2
T =
0 1
Por lo cual
−1 −1 0
T AT =
0 −2
1
TB =
1
CT −1 = [2, −2]
Otra forma más sencilla de obtener la matriz T cuando los valores propios son todos dife-
rentes, es utilizar
λ1 0 ... 0
0 λ2 0 0
Ā = ...
0 0 0
0 0 . . . λn
Con
1 1 ... 1
λ1 λ2 ... λn
T −1
= λ21 λ22 ... λ2n
.. .. .. ..
. . . .
λn−1
1 λn−1
2 . . . λn−1
n
Ejemplo 8.2.2 Encontrar la modal canonical form del siguiente sistema, si es que existe.
0 1 0 0
ẋ = 0 0 1 x + 0 u
−18 −27 −10 1
y = [1 0 0]x
En primera instancia, tendrı́amos que hallar los valores propios de A por medio de |λI −A| =
0, lo que en este caso implica que λ = {−1, −3, −6}.
Si T se escoge como
1 1 1
T −1 = −1 −3 −6
1 9 36
132 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO
Vale resaltar nuevamente que los métodos descritos son válidos si se tienen n valores propios
diferentes. Si uno de los valores propios es repetido, el método falla, ya que no se tendrán n
vectores propios independientes.
Otra de las cosas que valdrı́a resaltar es el hecho de que el polinomio ∆(λ) = |λI−A| = 0
corresponde al polinomio caracterı́stico. Esto se hace más evidente cuando uno recuerda la
definición de función de transferencia que se utilizó previamente.
Ejemplo 8.3.1
−1 a 0
ẋ = x+ u
3 −2 1
8.3. DISEÑO DE CONTROLADORES UTILIZANDO STATE FEEDBACK 133
La idea es poder diseñar un controlador lineal de la forma u = −Kx tal que los polos queden
ubicados donde se desee. Por lo tanto, l reemplazar u, se tendrı́a un sistema de la forma
−1 a
ẋ = x
3 − K1 −2 − K2
Los polos de lazo cerrado están determinados por el polinomio caracterı́stico, i.e.,
|λI − (A − BK)| = 0
λ2 + λ(K2 + 3) + 2 + K2 + a(K1 − 3) = 0
Supongamos que queremos que los polos de lazo cerrado estén ubicados en -2, -3, i.e.,
(λ + 2)(λ + 3) = 0
λ2 + 5λ + 6 = 0
2
Entonces, se tendrı́a finalmente que escoger K2 = 2, y K1 = a
+ 3, con a 6= 0.
Qué sucederı́a en el problema anterior si a = 0? En ese caso, no se pueden colocar los polos
de lazo cerrado donde uno lo desea, ya que el sistema no serı́a controlable. La siguiente
definición ilustra mejor este concepto.
Definition 25 El sistema
ẋ = Ax + Bu
es controlable si y sólo si es posible transferir, por medio de la entrada u(t), el sistema de
cualquier estado inicial x(t) = x0 a cualquier otro estado x(T ) = xT en un tiempo finito
T − t ≥ 0.
Definition 26 El sistema
ẋ = Ax + Bu
se dice que es controlable si para cualquier polinomio αc (s) de orden n existe un único
control u = −Kx tal que el polinomio caracterı́stico de A − BK sea igual a α c (s).
Otra forma de comprobar si un sistema es controlable o no, es por medio de las caracterı́sticas
algebráicas de sus matrices. Para definir correctamente esto, se necesita recordar lo siguiente.
α1 v1 + . . . α n vn = 0 ⇒ α 1 = α 2 = . . . = α n = 0
Si no, son linealmente dependientes, ya que al menos un αi 6= 0 uno podrı́a expresar el vector
asociado con él como una combinación lineal en términos de los otros vectores.
134 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO
x3
xf = x(T )
x0
x2
x1
Ejemplo 8.3.2 Los vectores [1, 3]> , [4, 5]> , [6, 4]> NO son independientes, porque se
pueden escoger α1 = −2, α2 = 2, y α3 = −1, tal que α1 [1, 3]> + α2 [4, 5]> + α3 [6, 4]> = 0.
1. El sistema es controlable?
2. Si es ası́, determine las ganancias K = [K1 , K2 ] tales que los polos de lazo cerrado
estén ubicados en λ ∈ {−2, −2}.
Una de las ventajas de las formas canónicas se puede ver a continuación. Si el sistema está en
la forma canónica controlable, se tiene que
0 1 0 ... 0
0 0 1 ... 0
A = ... ... ... ...
...
0 0 0 ... 1
−a0 −a1 −a2 . . . −an−1
8.3. DISEÑO DE CONTROLADORES UTILIZANDO STATE FEEDBACK 135
0
0
B= ..
.
1
Si se quisieran ubicar los polos en unos puntos determinados con K = [K1 , . . . , Kn ], los
valores propios de A − BK están dados por las raı́ces de |λI − (A − BK)| = 0, los cuales son
λn + β1 λn−1 + . . . + βn−1 λ + βn = 0
Por lo tanto, serı́a muy sencillo obtener los valores de las ganancias Ki , de la forma
K1 = β n − a 0
K2 = βn−1 − a1 0
Y ası́ sucesivamente.
Sin embargo, no es necesario transformar el sistema en la forma canónica controlable
para hacer la ubicación de polos. Se puede hacer esto directamente con el sistema (A, B) y
luego calcular la ecuación caracterı́stica con A − BK directamente.
Un test interesante con el cual se puede verificar la controlabilidad de un sistema es el
PBH test.
.
Theorem 8.3.3 El par (A, B) es controlable si y sólo si rank[A − λI .. B] = n para todos
los valores propios de A.
Y (s) 1
=
U (s) s(s + 1)(s + 2)
Se desea diseñar este servosistema para que lo polos en lazo cerrado estén ubicados en −2 ±
j3,464 y −10. Se supone que la configuración del sistema es la que se ve en la Figura 8.4.
El sistema en términos de las variables de estado se ve como
0 1 0 0
ẋ = 0 0 1 x + 0 u
0 −2 −3 1
y = [1 0 0]x
Y además, a partir de la Figura... es claro que u = −(K2 x2 +K3 x3 )+K1 (r−x1 ) = −Kx+K1 r.
136 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO
x1
r + x2 y = Cx y = x1
K1 ẋ = Ax + Bu
+
− − − x3
K2
K3
Por lo tanto, se puede ver que el rank(C) = 3, y por ende, el sistema es controlable. Ahora
sı́ podemos mirar el polinomio caracterı́stico |λI − (A − BK)| = 0, y compararlo con el
deseado. De esta forma se obtienen los dos polinomios a comparar, i.e.,
λ3 + λ2 (K3 + 3) − λ(2 − K2 ) + K1 = 0
r u + R
x
+ B C y
− +
observador tal que el error de lo estimado (i.e., la diferencia entre el estado del sistema actual
y el observado), tiende a cero asintóticamente tan rápido como uno lo desee. Esta técnica de
diseño es equivalente al diseño de sistemas retroalimentados por pole placement.
Un observador es un dispositivo que reconstruye una señal, el cual provee el estimado
de los estados inaccequibles como e ve en la Figura 8.6.
r u y
+ Plant (A, B, C)
−
ẑ
K Observer
Asumamos que existe una planta cuyo comportamiento está dado por
ẋ = Ax + Bu
y = Cx
u B
+
y + ẑ˙ R ẑ ŷ
T C
+
− +
ẑ˙ = (A − T C)ẑ + Bu + T y
138 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO
Por lo tanto, el comportamiento dinámico de la diferencia entre los estados de los dos sistemas
está dado por
ẑ˙ − ẋ = (A − T C)(ẑ − x)
Si se puede escoger T tal que A − T C tenga raı́ces con parte real negativa, entonces ẑ → x
cuando t → ∞, independientemente de la entrada u.
Definition 28 El sistema
ẋ = Ax + Bu
y = Cx
con condiciones iniciales x(0) = x0 es observable si el estado x(t) puede ser determinado
por la entrada u(s) y la salida y(s), 0 ≤ s ≤ t.
Es claro que los polos del error de lazo cerrado ẑ˙ − ẋ = (A − T C)(z − x) pueden ser colocados
en cualquier posición (escogiendo T ), siempre y cuando el par (A, C) sea observable.
Definition 29 El sistema
ẋ(t) = Ax + Bu
(8.2)
x(0) = x0
se dice que es stabilizable si existe una matriz K tal que para u = −Kx, el sistema en lazo
cerrado
ẋ = (A − BK)x
es estable.
De manera informal, lo que nos plantea la definición es que (8.2) es stabilizable si y sólo si
todos los modos inestables son controlables.
Definition 30 El par (C, A) es detectable si existe una matriz T tal que A − T C, sea
estable.
En otras palabras, desde el punto de vista de los valores propios se tiene que
1. Se asume que todas las variables de estado son medibles, y se utiliza una ley de control
conocida como full-state feedback control law. En realidad esto no es práctico ya que
por lo general no es posible medir todos los estados. En la práctica sólo algunos estados
son medibles, o algunas combinaciones de ellos existen.
2. Se construye un observador para estimar los estados que no se pueden sensar directa-
mente, ni que están disponibles como salidas. Estos observadores pueden ser full-state o
de orden reducido (estos en el caso que algunos estados estén disponibles como salidas,
por lo cual no necesitan ser estimados).
3. Se requiere acoplar el observador con el full-state feedback control law. Esto último se
conoce como compensador.
Para el 3er punto, se podrı́a tener que la ley de control está dada por
Es esta una buena estrategia? Originalmente, K se diseñó para garantizar que el sistema en
malla cerrada fuera estable, i.e.,
det(λI − (A − BK)) = 0
tenı́a raı́ces ubicadas en el LHP. Si todos los estados estaban disponibles, entonces al selec-
cionar K para que la premisa se cumpla, se tenı́a que x(t) → 0 cuando t → ∞ para cualquier
condición inicial x(t0 ). Ahora bien, lo que se necesita es comprobar que con (8.3) el sistema
sigue siendo estable. Para ello, se tiene que el observador de estado viene dado por
como se ve en la Figura...
ANADIR FIGURA
El error de estimación utilizando el compensador de (8.4) darı́a que
ė = ẋ − x̂˙ = Ax + Bu − Ax̂ − Bu − Ly + LC x̂
Es decir
(8.5) ė = (A − LC)e
140 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO
lo cual es equivalente al error de estimación que se obtuvo en el diseño del observador. Esto
implica que el error de estimación NO depende de la entrada.
Se tiene el sistema
ẋ = Ax + Bu
y = Cx
Si u = −Kx, entonces
Capı́tulo 9
Control Multivariable
141
142 CAPÍTULO 9. CONTROL MULTIVARIABLE
Bibliografı́a
[1] Karl J. Åström and Björn Wittenmark. Computer Controlled Systems. Prentice Hall,
New Jersey, NJ, 1997.
[2] S. Bennett. A brief history of automatic control. IEEE Control Systems Magazine,
16(3):17–25, 1996.
[3] W.L. Brogan. Modern control theory. Prentice-Hall, Inc. Upper Saddle River, NJ, USA,
1991.
[4] C.M. Close and D.K. Frederick. Modeling and analysis of dynamic systems. Wiley New
York, 2001.
[5] J.J. D’Azzo and C.H. Houpis. Linear Control System Analysis and Design. McGraw-
Hill, third edition edition, 1988.
[6] Richard C. Dorf and Robert H. Bishop. Modern Control Systems. Addison-Wesley,
Reading, MA, 1995.
[7] Asdrúbal Espitia. El PID Bajo Control. Asdrúbal Espitia Guerra, 1999.
[8] G.W. Evans. Bringing root locus to the classroom. IEEE Control Systems Magazine,
24(6):74–81, 2004.
[9] WR Evans. Control system synthesis by root locus method. Trans. AIEE, 69:66–69,
1950.
[10] Gene F. Franklin, J. David Powell, and Abbas Emami-Naeini. Feedback Control of
Dynamic Systems. Addison-Wesley, Reading, MA, 1994.
[12] Edward W. Kamen and Bonnie S. Heck. Fundamentals of signals and systems using
MATLAB. Prentice Hall, Upper Saddle River, New Jersey, 1997.
[13] Hassan. K. Khalil. Nonlinear Systems. Prentice Hall, New Jersey, 1996.
[14] K.H. Lundberg. Pole-zero phase maps: visualization helps students develop s-plane
intuition. IEEE Control Systems Magazine, 25(1):84–87, 2005.
143
144 BIBLIOGRAFÍA
[15] T.E. Marlin. Process Control: Designing Processes and Control Systems for Dynamic
Performance. McGraw-Hill, 1995.
[16] S.J. Mason. Feedback Theory-Some Properties of Signal Flow Graphs. Proceedings of
the IRE, 41(9):1144–1156, 1953.
[17] S.J. Mason. Feedback Theory-Further Properties of Signal Flow Graphs. Proceedings
of the IRE, 44(7):920–926, 1956.
[18] N. Minorsky. Directional stability of automatically steered bodies. J. Am. Soc. Nav.
Eng, 34:280, 1922.
[19] C. B. Moler and C.F.V. Loan. Nineteen dubious ways to compute the matrix exponen-
tial. SIAM Review, 20(4):801–836, 1978.
[20] R.M. Murray, K.J. Åström, S.P. Boyd, R.W. Brockett, and G. Stein. Future directions
in control in an information-rich world. IEEE Control Systems Magazine, 23(2):20 – 33,
2003.
[21] K. Ogata. Modern control engineering. Prentice-Hall, Inc. Upper Saddle River, NJ,
USA, 1996.
[22] Katsuhiko Ogata. Discrete-Time Control Systems. Prentice Hall, New Jersey, NJ, 1987.
[23] B.A. Ogunnaike and W.H. Ray. Process dynamics, modeling, and control. Oxford
University Press New York, 1994.
[24] Alan V. Oppenheim and Alan S. Willsky. Signals and Systems. Prentice Hall, Upper
Saddle River, New Jersey, 1997.
[26] K.M. Passino. Biomimicry for Optimization, Control, and Automation. Springer-Verlag,
London, 2005.
[27] C. Phillips and R. Harbor. Feedback Control Systems. Prentice Hall, 1996.
[28] F.H. Raven. Automatic Control Engineering. McGraw-Hill New York, 1995.
[29] S. Sastry. Nonlinear Systems: analysis, stability, and control. Springer, 1999.
[30] C.A. Smith and A.B. Corripio. Principles and practice of automatic process control.
Wiley New York, 1985.
[31] Karl J. Åström and Richard M. Murray. Feedback Systems: An Introduction for Scien-
tists and Engineers. 2007.
[32] S.H. Strogatz. Nonlinear dynamics and chaos. Addison-Wesley Reading, MA, 1994.
[33] J.G. Ziegler and N.B. Nichols. Optimum settings for automatic controllers. Trans.
ASME, 64(8):759–768, 1942.