Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Notas de Clase Control PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 155

Análisis de Sistemas de Control

Nicanor Quijano
c Borrador Editado 14 de julio de 2009

Índice general

Contenido I

Prefacio 1

1. Introducción 3
1.1. Qué es Retroalimentación? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Qué es Control? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Historia del Control Automático . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1. Inicios del Control . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2. Perı́odo Pre-Clásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3. Perı́odo Clásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.4. Control Moderno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4. Ejemplos de Sistemas de Control Retroalimentado y Future Directions . . . . 9

2. Modelamiento de Sistemas 11
2.1. Filosofı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Principios de Modelamiento Matemático . . . . . . . . . . . . . . . . . . . . 11
2.2.1. Esquema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3. Sistemas de Primer Orden y Controlador ON-OFF . . . . . . . . . . . . . . 19
2.4. Transformada de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.1. Transformada Unilateral de Laplace . . . . . . . . . . . . . . . . . . . 20
2.4.2. Propiedades de la Transformada de Laplace . . . . . . . . . . . . . . 23
2.4.3. Solución de ODEs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5. Funciones de Transferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.6. Linealización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.7. Diagramas en Bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

i
ii ÍNDICE GENERAL

2.7.1. Combinación en Serie . . . . . . . . . . . . . . . . . . . . . . . . . . . 40


2.7.2. Combinación en Paralelo . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.3. Puntos de Partida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.4. Bloques con Sumadores . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.5. Sistemas Retroalimentados . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.8. Ley de Mason . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3. Caracterı́sticas de los Sistemas 45


3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2. Señal de Error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.3. Sensitividad de Sistemas de Control para Variaciones de Parámetros . . . . . 47

4. Respuesta de los Sistemas 51


4.1. Sistemas de Primer Orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.1. Entrada paso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.1.2. Entrada rampa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2. Sistemas de Segundo Orden . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.2.1. Respuesta a Entrada Paso . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.2. Caracterı́sticas Temporales del Sistema Subamortiguado . . . . . . . 59
4.3. Sistemas de Orden Superior . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4. Ubicación de las Raı́ces en el Plano-s y la Respuesta Transitoria . . . . . . . 67

5. Estabilidad de los Sistemas 71


5.1. Criterio de Estabilidad Routh-Hurwitz . . . . . . . . . . . . . . . . . . . . . 72
5.1.1. Robustez y Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . 76

6. Sistemas de Control Retroalimentado 79


6.1. Análisis de Error . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.2. Controladores PID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.2.1. Controlador Proporcional . . . . . . . . . . . . . . . . . . . . . . . . 81
6.2.2. Controlador Proporcional e Integral . . . . . . . . . . . . . . . . . . . 82
6.2.3. Controlador Proporcional, Integral, y Derivativo . . . . . . . . . . . . 82
6.2.4. Controlador Proporcional y Derivativo . . . . . . . . . . . . . . . . . 83
6.2.5. Implementación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
ÍNDICE GENERAL iii

6.2.6. Sintetizando . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.3. Sintonización de Controladores PID . . . . . . . . . . . . . . . . . . . . . . . 85
6.3.1. Sintonización de Controladores PID: Método Manual . . . . . . . . . 86
6.3.2. Sintonización de Controladores PID: Ziegler/Nichols . . . . . . . . . . 86
6.3.3. Sintonización de Controladores PID: Cohen y Coon . . . . . . . . . . 89
6.3.4. Sintonización de Controladores PID: Método del Coeficiente de Ajus-
tabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.3.5. Sintonización de Controladores PID: Internal Model Control (IMC) . 89
6.3.6. Sintonización de Controladores PID: Sı́ntesis Directa . . . . . . . . . 90
6.4. Algoritmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.5. PID Digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.6. Criterios de Desempeño . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
6.7. Diseño con Pole Placement . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

7. Variables de Estado: Introducción 99


7.1. Definición de Variables de Estado . . . . . . . . . . . . . . . . . . . . . . . . 99
7.1.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
7.1.2. ODEs Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.2. Representación y Solución de Variables de Estado . . . . . . . . . . . . . . . 103
7.2.1. Representación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7.2.2. Solución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.3. Funciones de Transferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.4. Formas Canónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7.4.1. First Companion Form: Forma Canónica Controlable . . . . . . . . . 113
7.4.2. Second Companion Form: Forma Canónica Observable . . . . . . . . 115
7.4.3. Jordan Form . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.5. Equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
7.6. Estabilidad y Acotamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
7.6.1. Conceptos Locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
7.6.2. Conceptos Globales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

8. Variables de Estado: Diseño 127


8.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
8.2. Transformación de las Variables de Estado . . . . . . . . . . . . . . . . . . . 129
iv ÍNDICE GENERAL

8.3. Diseño de Controladores Utilizando State Feedback . . . . . . . . . . . . . . 132


8.4. Diseño de Estimadores en el Espacio de Estado . . . . . . . . . . . . . . . . 136
8.5. Integrated Full-State Feedback and Observer . . . . . . . . . . . . . . . . . . 139

9. Control Multivariable 141


Índice de figuras

1.1. Sistemas de malla abierta a), y de lazo cerrado b). . . . . . . . . . . . . . . . 4


1.2. Componentes de un sistema de control asistido por computador [31]. . . . . . 5

2.1. Primeros pasos en el diseño de un sistema de control [26]. . . . . . . . . . . . 12


2.2. Otra metodologı́a en el modelamiento de procesos [26]. . . . . . . . . . . . . 12
2.3. Tanque de flujo continuo perfectamente agitado. . . . . . . . . . . . . . . . . 14
2.4. Respuesta a entrada paso de un sistema de primer orden. . . . . . . . . . . . 18
2.5. Sistema térmico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.6. Ejemplo de un sistema de control on-off. . . . . . . . . . . . . . . . . . . . . 21
2.7. Transformadas tı́picas de Laplace [30] . . . . . . . . . . . . . . . . . . . . . . 27
2.8. Sistema Masa-Resorte-Amortiguador [6] . . . . . . . . . . . . . . . . . . . . 31
2.9. Representación del sistema en el plano-s [6] . . . . . . . . . . . . . . . . . . 31
2.10. Representación del sistema en el plano-s [6]. . . . . . . . . . . . . . . . . . . 33
2.11. Representación cómo varı́a ζ en el plano-s cuando ωn se mantiene constante
[6]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.12. Respuesta en tiempo del sistema masa-resorte-amortiguador [6] . . . . . . . 34
2.13. Sistema masa-resorte-amortiguador [6] . . . . . . . . . . . . . . . . . . . . . 35
2.14. Representación del sistema en términos de la variable desviación [30] . . . . 36
2.15. Algunas reglas útiles cuando se manejan diagramas en bloques [30, 21]. . . . 40
2.16. Combinación Serie [6]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.17. Ejemplo de puntos de partida [6]. . . . . . . . . . . . . . . . . . . . . . . . . 41
2.18. Ejemplo de puntos de partida [6]. . . . . . . . . . . . . . . . . . . . . . . . . 41
2.19. Ejemplo del álgebra de bloques [6]. . . . . . . . . . . . . . . . . . . . . . . . 42
2.20. Ejemplo del álgebra de bloques [6]. . . . . . . . . . . . . . . . . . . . . . . . 42
2.21. Ejemplo del álgebra de bloques para sistemas retroalimentados [6]. . . . . . . 42

4.1. Diversos tipos de entradas comunes en el análisis de sistemas de control. . . 52

v
vi ÍNDICE DE FIGURAS

4.2. Respuesta a entrada paso del sistema de primer orden (4.1) cuando K = 1, y
τ = 10. La lı́nea punteada roja representa el valor final cuando se ha cumplido
el primer τ , mientras que la punteada negra representa el valor final cuando
se han cumplido 2τ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3. Respuesta a entrada rampa del sistema de primer orden (4.1) cuando K = 1,
y τ = 10 para el panel superior, y τ = 1 para el panel inferior. . . . . . . . . 55
4.4. Sistema de segundo orden [6]. En a) se tiene el grafo, mientras que en b) el
diagrama en bloques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.5. Respuesta a entrada paso del sistema de segundo orden descrito por (4.3). En
este caso, se tiene que ζ = 0 para el panel superior izquierdo, ζ = 0,2 para
el panel superior derecho, ζ = 0,4 para el panel inferior izquierdo, y ζ = 0,8
para el panel inferior derecho. En todos los casos, wn = 24. . . . . . . . . . . 57
4.6. Respuesta a entrada paso del sistema de segundo orden descrito por (4.3)
cuando ζ = 1 y wn = 24. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.7. Respuesta a entrada paso del sistema de segundo orden descrito por (4.3)
cuando ζ = 2 y wn = 24. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.8. Ubicación
pde los polos en el plano-s [6]. Para este caso β = θ, σ = ζwn , y
wd = w n 1 − ζ 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.9. Curvas envolventes para la respuesta a entrada paso del sistema de segundo
orden [21]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.10. Respuesta a entrada paso del sistema de segundo orden descrito por (4.7). En
este caso, K1 = 1, wn = 23,53, and ζ = 0,46. . . . . . . . . . . . . . . . . . . 63
4.11. Relación entre M P y ζ. Además, se incluye la relación entre wn tp y el factor
de amortiguamiento [6]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.12. Diagrama en bloques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.13. Respuesta a entrada paso del sistema de segundo orden diseñado para obtener
los parámetros MP y tp definidos en el ejercicio. . . . . . . . . . . . . . . . . 64
4.14. Ubicación de polos de un sistema de tercer orden en el plano-s [6]. . . . . . . 65
4.15. a) Porcentaje de overshoot como función de ζ y ωn cuando un sistema de se-
gundo orden posee un cero. b) Respuesta a entrada paso para diversos valores
de a/(ζωn ). A=5, B=2, C=1, D=0.5, cuando ζ = 0,45 [6]. . . . . . . . . . . 66
4.16. Ubicación de los polos y ceros en el plano-s para un sistema de tercer orden [6]. 67
4.17. Respuesta a entrada paso para un sistema de tercer orden con un cero. Si
se desprecia el polo (-), el overshoot es mayor, pero su ts es menor. Si no se
desprecia (–), se tiene que el overshoot disminuye, haciendo que el tiempo de
establecimiento aumente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.18. Respuesta impulso para varias ubicaciones de las raı́ces en el plano-s. El com-
plejo conjugado no se muestra [6]. . . . . . . . . . . . . . . . . . . . . . . . . 69

5.1. Sistema retroalimentado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72


ÍNDICE DE FIGURAS vii

5.2. Diseñar Kc para que el sistema sea estable . . . . . . . . . . . . . . . . . . . 74


5.3. Sistema con tiempo muerto . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

6.1. Sistema de control tı́pico. La referencia o el set point viene siendo R(s), mien-
tras que la variable controlada es C(s). La perturbación es D(s). . . . . . . . 80
6.2. Sistema retroalimentado. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.3. Proceso de tomar una señal continua y(t) que es generada por el proceso, y
convertirla en una secuencia de números y[n]. El computador toma una deci-
sión y la convierte en otra secuencia de números u[n], los cuales se convierten
luego en una señal continua u(t) que actúa sobre el proceso. Figura adaptada
de [1]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.4. Figura adaptada de [1]), la cual muestra el efecto de aliasing utilizando dos
diferentes señales x1 (t) = sin(2πf1 t) (punteada) and x2 (t) = − sin(2πf2 t)
(sólida), con sus respectivas frecuencias (f1 = 0,1 Hz, f2 = 0,9 Hz, y fs = 1
Hz). Este es un excelente ejemplo de cómo el aliasing puede afectar la recons-
trucción perfecta de las señales . . . . . . . . . . . . . . . . . . . . . . . . . 95

7.1. Modelo mecánico que corresponde a una masa, sujetada por un amortiguador
y un resorte. La posición está dada por y, y se le aplica una fuerza inicial f0 . 102
7.2. Modelo en Simulink que corresponde a la Figura 7.1. . . . . . . . . . . . . . 103
7.3. Simulación en Simulink del sistema descrito en la Figura 7.1. Para este caso
se utilizaron los parámetros f0 = 5N, M = 2kg, k = 16N/m, y cuatro valores
para b. En la parte superior izquierda, se tiene b = 2N.s/m; en la parte superior
derecha, se tiene b = 4N.s/m; en la parte inferior izquierda, se tiene b =
8N.s/m; y en la parte inferior derecha, se tiene b = 16N.s/m. En todos los
casos se tiene que posición está dada por la lı́nea (-), mientras que la velocidad
es la lı́nea punteada (- -). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.4. Simulación en Simulink del sistema descrito en la Figura 7.1, cuando única-
mente se aplica una fuerza f0 durante un determinado tiempo. Para este caso
se utilizaron los parámetros f0 = 5N, M = 2kg, k = 16N/m, y b = 2N.s/m.
La posición está dada por la lı́nea (-), mientras que la velocidad es la lı́nea
punteada (- -). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.5. Diagrama en bloques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.6. Representación en diagramas en bloques de la Ecuación (7.22). Figura tomada
de [11]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.7. Representación en diagramas en bloques de la Ecuación (7.23). Figura tomada
de [11]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.8. Representación en diagramas en bloques de la forma canónica controlable.
Figura tomada de [11]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.9. Representación en diagramas en bloques de la forma canónica de Jordan cuan-
do las raı́ces son diferentes. Figura tomada de [11]. . . . . . . . . . . . . . . 118
viii ÍNDICE DE FIGURAS

7.10. Representación en diagramas en bloques de la forma canónica de Jordan cuan-


do las raı́ces son repetidas. Figura tomada de [11]. . . . . . . . . . . . . . . . 119
7.11. SISL de un punto de equilibrio. . . . . . . . . . . . . . . . . . . . . . . . . . 124
7.12. ES de un punto de equilibrio. . . . . . . . . . . . . . . . . . . . . . . . . . . 125
7.13. UUB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

8.1. Diagrama en bloques para (8.1). . . . . . . . . . . . . . . . . . . . . . . . . . 129


8.2. Realimentación de estado por medio de una ganancia K. . . . . . . . . . . . 132
8.3. Comportamiento de la definición de controlabilidad en R3 . . . . . . . . . . . 134
8.4. Realimentación de estado con referencia. . . . . . . . . . . . . . . . . . . . . 136
8.5. Realimentación de estado por medio de una ganancia K. . . . . . . . . . . . 137
8.6. Observador asociado con la planta. . . . . . . . . . . . . . . . . . . . . . . . 137
8.7. Observador asociado con la planta. . . . . . . . . . . . . . . . . . . . . . . . 137
Indice de Tablas

6.1. Valores de los parámetros de los controladores para el método de malla cerrada. 87
6.2. Valores de los parámetros de los controladores para el método de malla abierta. 88
6.3. Valores de los parámetros de los controladores para el método de Cohen y Coon. 89
6.4. Valores de los parámetros de los controladores para el método del coeficiente
de ajustabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

ix
x INDICE DE TABLAS
Prefacio

Estas notas de clase son para uso exclusivo de la clase. Este es un primer borrador,
el cual contiene muchos errores de toda ı́ndole. En muchos casos no le doy el crédito co-
rrespondiente a algunos resultados. Sin embargo, una falta de referencia no significa que
los resultados sean del todo originales. En efecto, todos los resultados presentados en estas
notas han sido tomados de libros y artı́culos que no necesariamente son mı́os (a excepción
de algunos ejemplos).

1
2 INDICE DE TABLAS
Capı́tulo 1

Introducción

Whenever you feel like criticizing any one,-he told me,- just remember that all the
people in the world haven’t had the advantages that you’ve had.
The Great Gatsby, F.S. Fitzgerald

El curso de sistemas de control se basa en un principio básico: retroalimentación1 . En esta


primera entrega se brindan las definiciones necesarias para entender un sistema de control
retroalimentado, además de una historia breve del control automático y el futuro del área.
Las siguientes notas han sido adaptadas a partir de varios textos de control (e.g., [31], [11], [2],
and [20]).

1.1. Qué es Retroalimentación?


El término retroalimentación se utiliza para referirse a una situación en la cual uno
tiene dos (o más) sistemas dinámicos2 interconectados de tal forma que cada sistema influye
al otro y a sus dinámicas. Este término fue originalmente un neologismo introducido en los
años 1920s por parte de los ingenieros electrónicos (con énfasis en sistemas radiales) para
describir los efectos que se producen cuando la señal amplificada de salida afecta los circuitos
de entrada.
En la vida diaria se pueden encontrar varios ejemplos. Gracias al mecanismo de retro-
alimentación, un mamı́fero puede mantener la temperatura corporal constante (dentro de un
rango) independientemente de los cambios de la temperatura ambiente. Otro ejemplo en el
ámbito de la ingenierı́a lo encontramos en la parte aeronáutica. Un avión puede mantener su
altitud y velocidad (además de aterrizar) sin que el piloto intervenga. El mecanismo básico
en este caso es nuevamente retroalimentación.
Gráficamente, la Figura 1.1 ilustra en forma de diagrama de bloques el concepto prin-
cipal detrás de un sistema retroalimentado. Normalmente, se utilizan los términos de malla
1
En inglés se conoce como feedback. El diccionario Merriam Webster define el término como: “The return
to the input of a part of the output of a machine, system, or process (as for producing changes in an electronic
circuit that improve performance or in an automatic control device that provide self-corrective action) [1920]”
2
Un sistema cuyo comportamiento cambia con el tiempo debido a una respuesta o a un estı́mulo externo
es un sistema dinámico.

3
4 CAPÍTULO 1. INTRODUCCIÓN

abierta y lazo cerrado3 . Un sistema se dice que es de lazo cerrado si los sistemas están in-
terconectados en forma cı́clica, tal como lo muestra la Figura 1.1b). Si la interconexión se
rompe, entonces estamos hablando de sistemas en malla abierta como lo muestra la Figura
1.1a).

Sistema 1 Sistema 2

a) Sistema de malla abierta

Sistema 1 Sistema 2

b) Sistema de lazo cerrado

Figura 1.1: Sistemas de malla abierta a), y de lazo cerrado b).

La retroalimentación tiene muchas propiedades interesantes. Por ejemplo, la retroali-


mentación permite que un sistema se vuelva menos sensible a perturbaciones externas, a las
variaciones de los elementos que componen los equipos, o también puede servir para crear
un comportamiento lineal a partir de un sistema no lineal (práctica muy utilizada en compo-
nentes electrónicos). Sin embargo, si la retroalimentación se emplea de forma incorrecta, se
pueden generar inestabilidades en el sistema. Por ejemplo, un ruido indeseado de un sensor
serı́a amplificado por la retroalimentación, por lo que se necesitarı́a un filtro que responda
a este tipo de detalles. Otro problema cuando se tiene un sistema retroalimentado mal im-
plementado es el hecho de inestabilidad. Uno de los casos más comunes son los efectos de la
realimentación positiva cuando la amplificación de un micrófono es demasiado alta dentro
de un salón. Este es un ejemplo de inestabilidad debida a la retroalimentación, lo cual por
supuesto, se quiere evitar, aunque no es sencillo. Esta es la razón fundamental por la que la
mayor parte del estudio de los sistemas retroalimentados está dedicada al entendimiento de
las dinámicas y las técnicas de diseño de sistemas dinámicos y su control.

1.2. Qué es Control?


La real academia de la lengua define control como: Comprobación, inspección, fiscali-
zación, intervención; Dominio, mando, preponderancia; Oficina, despacho, dependencia, etc.,
donde se controla; Regulación, manual o automática, sobre un sistema; Dispositivo que re-
gula a distancia el funcionamiento de un aparato, mecanismo o sistema. Si bien el término
tiene muchas definiciones, control se definirá como sigue.
3
En inglés, los términos utilizados son open loop y closed loop, respectivamente
1.2. QUÉ ES CONTROL? 5

Definition 1 Control es un dispositivo que por medio del uso de algoritmos y retroalimen-
tación regula el funcionamiento de un sistema.

Ası́ pues, se puede decir que control incluye ejemplos tales como controladores de “set point”
en procesos quı́micos, “fly-by-wire” en sistemas aeronáuticos, además de protocolos para el
control de tráfico en la Internet. En la actualidad, las aplicaciones que están emergiendo entre
otras incluyen vehı́culos y robots autónomos y sistemas bioinspirados. El área de control es
esencialmente una ciencia que incluye información de tipo análogo y digital.
La idea básica en un controlador moderno es sensar lo que está sucediendo en el
sistema, comparar el comportamiento de este con el objetivo inicial, corregir aquello que
no esté saliendo bien, y enviar esta información para que el sistema actúe. Es decir, es un
sistema retroalimentado donde se sensa, se computa, y se actúa para obtener el cambio
deseado. El punto clave en este caso es diseñar un controlador que asegure que las dinámicas
del sistema en malla cerrada sean estables y que el resultado final sea siempre el deseado.
Para ello se necesitan técnicas de modelaje y análisis para capturar los elementos fı́sicos para
poder describir de manera adecuada el comportamiento de un sistema, para poderlo hacer
robusto cuando se tienen perturbaciones, ruido, y otras fallas debido a los componentes.
La figura 1.2 muestra un ejemplo de este tipo de sistemas. En ella se pueden observar
los elementos necesarios para sensar, computar, y actuar. En los sistemas de control mo-
derno, el uso de computadores es esencial, con lo cual se requieren components tales como
conversores análogos y digitales (ADC y DAC según sus siglas en inglés). Las perturbaciones
que entran al sistema se modelan de varias formas (e.g., ruido, perturbaciones en el sistema).
El algoritmo de control tiene que ser lo suficientemente robusto para poder responder rápi-
da y adecuadamente a este tipo de incertidumbres. Este algoritmo se conoce generalmente
como ley de control. Para poder diseñar de manera adecuada el controlador, por lo general
es necesario tener un buen modelo del sistema que se quiere controlar.

Figura 1.2: Componentes de un sistema de control asistido por computador [31].


6 CAPÍTULO 1. INTRODUCCIÓN

1.3. Historia del Control Automático


Por más de 2000 años se han utilizado sistemas retroalimentados de control. Dentro de
los primeros ejemplos se tienen los relojes de agua descritos por Vitruvius y que se le atribuyen
a Tesibios (circa 270 B.C.). Cerca de trescientos años después, Herón de Alejandrı́a describı́a
un tipo de autómato el cual empleaba un mecanismo de retroalimentación. La historia del
control automático se divide en cuatro perı́odos:

Inicios del Control: Hasta 1900.

Perı́odo del control pre-clásico: 1900-1940.

Perı́odo del control clásico: 1935-1960.

Perı́odo del control moderno: 1955 en adelante.

1.3.1. Inicios del Control


Hacia el final del renacimiento se descubrieron en occidente las ingeniosas ideas de
sistemas de control del perı́odo helénico, las cuales habı́an sido preservadas por la cultura
islámica. A partir de ese momento, nuevos inventos comenzaron a aparecer durante el siglo
XVIII. Uno de los primeros ejemplos es el control de temperatura en incubadoras (utilizando
dispositivos autómaticos) propuesto por René-Antoine Ferchault de Réamur. Durante el siglo
XIX se inventaron varios dispositivos termostáticos, los cuales tenı́an como caracterı́stica el
hecho de que la potencia para operar el actuador era extraı́da del sistema de medida.
El más importante desarrollo de control durante el siglo XVIII fue la máquina de
vapor. En 1788 Matthew Boulton le describió a su socio James Watt el mecanismo (flyball
governor ) que le permitió a este último controlar la velocidad de la máquina de vapor y
reducir las variaciones de carga. El primer diseño se realizó en Noviembre de 1788, y el
controlador se utilizó por primera vez en 1789. Este sistema tiene varios problemas: tiene un
controlador proporcional que proporciona un único punto de operación; sólo puede funcionar
a velocidades bajas; se necesita un mantenimiento permanente. Sin embargo, este fue uno
de los avances más importantes durante la revolución industrial.
Mejoras a este sistema se realizaron durante los primeros setenta años del siglo XIX,
dentro de los cuales se podrı́an rescatar aquellas patentadas por Siemens (1846; 1853), Por-
ter (1858), y otros. En 1868 Maxwell publicó el paper “On Governors”, el cual describı́a
un modelo matemático utilizando ecuaciones diferenciales para controlar la turbina de va-
por, y empezó a analizar la estabilidad del sistema. Por primera vez se determinó que la
estabilidad estaba dada por la ubicación de los polos de la ecuación caracterı́stica. Maxwell
determinó condiciones suficientes y necesarias para ecuaciones hasta de cuarto orden. En su
época su trabajo no fue tan valorado como lo fue en el siglo XX.
El trabajo que realizó Maxwell fue retomado por Routh, el cual publicó los primeros
resultados en 1874. En 1877, Routh produce un tratado sobre “Stability of Motion. en el cual
expone los principios de estabilidad de lo que hoy se conoce como el criterio de estabilidad
1.3. HISTORIA DEL CONTROL AUTOMÁTICO 7

Routh-Hurwitz (su trabajo tomaba ideas de Cauchy y Sturm, y en 1895 Hurwitz es el que
deriva la misma idea independientemente).
La mayorı́a de los inventos de la época tenı́an que ver con control y estabilidad de
temperatura, presión, nivel, y velocidad de rotación de máquinas. Luego las aplicaciones
comenzaron a realizarse en la parte naval con la aparición de barcos navales y armas de
guerra. Una de los primeros motores dirigidos y controles de posición en malla cerrada fueron
diseñados por Farcot en 1866, el cual sugirió por primera vez el nombre de “servo-moteur.”
El desarrollo de la electricidad y su mejor comprensión, permitieron que se crearán
más aplicaciones en el área de control (se tenı́an más mecanismos para sensar y manipular
señales, y por ende para crear actuadores).

1.3.2. Perı́odo Pre-Clásico


Las aplicaciones que se vieron en los primeros años del siglo XX eran de todo tipo
(e.g., control de voltage, corriente, regulación de frecuencia, control de velocidad de motores
eléctricos, control de temperatura, presión, y procesos industriales). Sin embargo, todos estos
dispositivos que se diseñaron no poseı́an un total entendimiento de las dinámicas, lo cual
generó problemas. La única herramienta teórica que se tenı́a era el análisis de estabilidad
de Routh-Hurwitz, el cual implica conocer todos los parámetros del sistema, además de no
proveer herramientas para entender el grado de estabilidad.
En 1922, Nicholas Minorsky presentó por primera vez un análisis de control de posición,
y formuló lo que hoy se conoce como un controlador PID. Su análisis partió del estudio de
cómo un capitán controlaba la posición de su barco. Sin embargo, su trabajo carecı́a de
herramientas a ser aplicadas.
Por la misma época, Harlod Black comenzó a estudiar el incremento de ancho de banda
en las lı́neas de transmisión telefónica, para que no hubiese tantas pérdidas y distorsión. El
fue el primero en crear un circuito con retroalimentación negativa. Su colaborador inmediato
fue Harry Nyquist, cuyo paper “Regeneration Theory”publicado en 1932 formula las bases
del análisis que lleva su nombre. Este es uno de los papers más importantes, ya que per-
mite entender los beneficios de la retroalimentación negativa, y provee herramientas para el
análisis y diseño de sistemas de control sin que se requiriesen ecuaciones diferenciales (la sola
respuesta en frecuencia, combinada con los datos calculados permitı́an establecer el grado de
estabilidad del sistema, y también ayudaba a estimar los cambios necesarios para mejorar el
desempeño).
Uno de los trabajos que se hicieron a la par del de Black, fue el de Clesson Mason en
Foxboro. Mason utilizó retroalimentación negativa, e hizo que por primera vez en 1928 una
compañı́a tuviese controladores con amplificación lineal o integral.

1.3.3. Perı́odo Clásico


En diversos paı́ses se comenzó a entender y analizar los sistemas de control desde un
punto de vista más matemático. Los esfuerzos en los Estados Unidos se debieron más al
esfuerzo que “Bell Telephone Laboratories”puso en aras de obtener más ancho de banda.
8 CAPÍTULO 1. INTRODUCCIÓN

En 1940, Hendrik Bode, demostró que existe una relación una atenuación caracterı́stica y el
mı́nimo cambio de fase asociado con ella. A su vez, utilizó el punto (-1,0), en vez del (1,0)
que originalmente utilizó Nyquist para introducir los conceptos de margen de ganancia y de
fase (además de las limitaciones de ganancia de ancho de banda).
En 1942 Ziegler y Nichols publicaron un paper describiendo cómo encontrar los paráme-
tros adecuados para un controlador PI y PID. Coon en los 50s, extendió dicha teorı́a que
hoy se conoce como el método de sintonización de Ziegler-Nichols.
Un tercer grupo en MIT encabezado por Hazen y Brown, desarrolló por primera vez el
estudio de diagramas en bloques, además de crear el primer simulador de sistemas de control
por intermedio de un analizador diferencial.
La segunda guerra mundial hizo que el área de control se centrara en temas especı́ficos,
entre los cuales se tiene la detección de posición de una aeronave, además de calcular su
posición futura, y el movimiento de un arma de alto calibre para poder dispararle. De acá se
generaron varios temas de investigación teórica, los cuales dieron pie al análisis de sistemas
discretos (e.g., el trabajo de Tustin), y el estudio de sistemas estocásticos de Norbert Wiener.
Al finalizar la guerra, casi todas las técnicas de control clásico se habı́an desarrollado
(la única excepción era el trabajo del lugar de las raı́ces de Walter Evans en 1948). Las
metodologı́as de diseño realizadas eran para sistemas lineales y de una sola entrada, con
coeficientes constantes (lo que generaba problemas, ya que los sistemas son no lineales y de
múltiples entradas). Si bien las técnicas de respuesta en frecuencia eran bastante utilizadas,
algunos preferı́an la solución mediante ecuaciones diferenciales utilizando transformadas de
Laplace, ya que según los ingenieros de la época, ésta era más ajustada a la realidad. También
se comenzó a estudiar optimización, área en la que intervinieron personas de la talla de
Bellman, y LaSalle.

1.3.4. Control Moderno

Los misiles guiados, la conquista del espacio, y el desarrollo de los computadores mar-
caron el inicio de esta nueva etapa de conocimiento del control. Ası́ pues, gracias a las ideas
expuestas por Henri Poincaré en torno a ecuaciones diferenciales de primer y segundo orden,
se comenzó a estudiar todo desde el punto de vista de “state-space”.
Richard Bellman entre 1948 y 1952, trabajando para la corporación RAND, estudió el
problema de asignar un misil a un objetivo determinado para que éste causara la mayor
cantidad de daño posible. Esto lo llevó a formular el principio de optimalidad y generó lo
que se conoce como programación dinámica (cuya máxima dificultad radica en la cantidad
de memoria de cómputo que se requiere para resolver estos problemas). Bellman utilizó for-
mulaciones mecánicas como las expuestas por Lagrange y Hamilton para poder resolver los
problemas óptimos que se planteaban. A la par de Bellman, Pontryagin (1956) planteaba el
“maximum principle”, el cual sentó las bases de la teorı́a de control óptimo. Estas dos teorı́as
permitieron que se empezara a profundizar en problemas matemáticos del área de control.
Lógicamente, el desarrollo de los computadores incidieron en que muchos de los problemas
pudiesen resolverse más rápido de lo que se esperaba.
Kalman en los años cincuenta presentó un paper en el cual mostraba cómo problemas
1.4. EJEMPLOS DE SISTEMAS DE CONTROL RETROALIMENTADO Y FUTURE DIRECTIONS9

de control multivariable estaban ligados a aquellos de filtros, lo cual abrı́a una nueva área
de investigación dentro del control (también se encuentra dentro de todo este desarrollo
los aportes que hiciera Bucy tiempo después para generar el famoso filtro Kalman-Bucy).
Ası́ pues, se generaron conceptos tales como observabilidad y controlabilidad, hoy utilizados
extensamente en el desarrollo de controladores bajo el uso de sistemas modelados a partir
de variables de estado.
Después de estos primeros pasos, se empezaron a abrir otras áreas de investigación:
control adaptativo; control no lineal (con técnicas que van desde phase plane, describing
functions, hasta teorı́a de estabilidad de Lyapunov); técnicas dentro de las cuales se comienza
a ver una influencia de varias áreas de la ciencia: algoritmos genéticos, fuzzy logic, redes
neuronales, y otras nuevas tales como foraging theory.

1.4. Ejemplos de Sistemas de Control Retroalimentado


y Future Directions
Un sistema retroalimentado tiene propiedades buenas y malas. Un sistema que era
inestable puede volverse estable, o se pueden reducir los problemas que se pueden producir
por un incremento de las perturbaciones o del ruido. A continuación se presentan ciertos
ejemplos de sistemas de control retroalimentado.
Como se vio en el contexto histórico, los primeros controladores retroalimentados se
dedicaban más al control de temperatura. Un ejemplo es el termostato. Este dispositivo mide
la temperatura en algún lugar, compara la temperatura con aquella que se desea, y utiliza
retroalimentación para saber si se tiene que aumentar la temperatura en un determinado
lugar o no. Si bien la explicación parece sencilla, ésta ilustra el concepto básico de control
retroalimentado. En la vida real, hoy en dı́a, los termostatos tienen elementos que permiten
evitar los problemas que se pueden producir por los retardos de transporte que existen a la
hora de medir y actuar.
Otro de los ejemplos donde se ve el progreso de los sistemas de control retroalimentado
es en el área de la aeronáutica y la industria automotriz. En el caso vehicular, uno de los
ejemplos está en el cruise control. En 1958 se introdujo por primera vez esta tecnologı́a que
hace que el vehı́culo por intermedio de un sistema retroalimentado controle la velocidad.
Ası́ pues, la velocidad se mantiene constante independientemente de si se está subiendo una
cuesta, o si se está conduciendo en bajada. Hoy en dı́a, este tipo de sistemas han mejorado
de tal forma que entre otras caracterı́sticas novedosas, se puede optimizar el consumo de
combustible y reducir la polución.
Más ejemplos incluyen redes, robots, máquinas inteligentes, e instrumentación. En estas
áreas, la retroalimentación juega un papel muy importante, tanto que sin ella no se podrı́an
tener redes rápidas y estables, o robots que realicen tareas tan complicadas como jugar
fútbol, o diseñar equipos para el control de la insulina en pacientes diabéticos.
Finalmente, cabe mencionar una de las áreas que más interés está presentando en estos
momentos: systems biology. Es bien sabido que la naturaleza ha aportado un sin número de
ideas para el desarrollo de tecnologı́a. Sin embargo, su estudio ha sido más desde el punto de
10 CAPÍTULO 1. INTRODUCCIÓN

vista biológico que matemático y tecnológico. Actualmente, se tienen más herramientas para
comprender y modelar de una forma más completa los sistemas naturales, lo cual nos puede
llevar a explorar soluciones en ámbitos de la ciencia como lo son la medicina, la biologı́a,
y los ecosistemas. En biologı́a por ejemplo, uno de los temas más recurrentes es el tratar
de tratar de entender lo que pasa con sistemas complejos en ingenierı́a como las redes, para
poder entender cómo funcionan ciertos aspectos moleculares (e.g., scale-free networks). Desde
el punto de vista de los ecosistemas, es claro que éstos son sistemas complejos, los cuales
podrı́an verse como de múltiples entradas y salidas. En un ecosistema pueden haber varias
capas de retroalimentación, y aún se necesitan elementos teóricos que puedan explicar el
funcionamiento de los mismos. Sin embargo, el traer estas ideas al área de control, permite
que se vayan desmenuzando paulatinamente dichos problemas, y porque no, llegar a una
solución futura de ciertos problemas básicos (e.g., redes bacteriales).
Capı́tulo 2

Modelamiento de Sistemas

Entusiasmo es una palabra griega que significa “rozado por el ala de Dios”. El
entusiasmo es eso. Un roce, un instante
Historia Argentina, Rodrigo Fresán

En este capı́tulo se pretende entender cómo se modelan los sistemas dinámicos. Para
ello, se empieza con una reseña filosófica, para luego definir las ideas para el modelado
matemático de un sistema. Se presentan ejemplos y simulaciones para que el estudiante
comience a familiarizarse con herramientas tales como Matlab y Simulink. Las siguientes
notas han sido adaptadas a partir de varios textos de control (e.g., [26, 21, 15, 11, 30, 27, 6]).

2.1. Filosofı́a
Cuando uno se enfrenta a un problema de control, por lo general se siguen ciertos
procedimientos. La Figura 2.1 nos da una primera idea de cómo modelar un sistema.
El modelamiento es la base para diseñar un buen sistema de control. Sin un buen
modelo no podrı́amos diseñar un sistema de control que cumpla ciertas caracterı́sticas. Sin
embargo, ningún modelo es perfecto, lo cual ciertas veces dificulta el diseño. Lo bueno es que
cualquier tipo de incertidumbre puede llegar a ser modelada de tal forma que se incluya en
el proceso de diseño. De esta forma, se estarı́a frente a un modelo más completo, y por ende,
se tendrı́an más herramientas a la hora del diseño de un controlador. En este curso, sólo se
utilizarán sistemas lineales e invariantes en el tiempo (LTI por sus siglas en inglés), ya que
estos nos dan una primera aproximación del modelo de un sistema. Otro tipo metodologı́a
que se sigue por lo general está descrito por la Figura 2.2.

2.2. Principios de Modelamiento Matemático


Una de las razones fundamentales para el uso de modelos matemáticos es que las
expresiones analı́ticas que se encuentran proveen una visión importante entre lo que son las
caracterı́sticas del sistema fı́sico (e.g., temperatura, flujo, etc.), y sus dinámicas. En lo que

11
12 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

PROCESO

Ganar intuición y
entender la planta

Especificar los objetivos


de diseño

MODELAR

Figura 2.1: Primeros pasos en el diseño de un sistema de control [26].

PROCESO

Modelamiento físico
SYSID, APPROX

Modelo Verdadero Modelo Diseñado

Approx (reducción,
linealización)

Figura 2.2: Otra metodologı́a en el modelamiento de procesos [26].

sigue se presenta un procedimiento para modelar sistemas, que en un principio cualquier


inexperto deberı́a seguir. Sin embargo, con el paso del tiempo, el estudiante irá adquiriendo
intuición e ideas de cómo se podrı́a desarrollar un modelo matemático de un sistema fı́sico.

2.2.1. Esquema
Un esquema básico que deberı́a seguirse se define a continuación. En la siguiente sección
se presenta un ejemplo que nos lleva paso a paso con el fin de entender cada uno de los puntos
expuestos en el siguiente esquema.

1. Definir Objetivos
2.2. PRINCIPIOS DE MODELAMIENTO MATEMÁTICO 13

a) Especificar las decisiones que se deben tomar para el diseño.


b) Valores numéricos.
c) Relaciones funcionales.
d ) Requisitos de precisión.

2. Preparar Información

a) Hacer un bosquejo del proceso e identificar el sistema.


b) Identificar las variables de interés.
c) Hacer suposiciones y toma de datos.

3. Formular el Modelo

a) Balances de conservación
b) Plantear las ecuaciones.
c) Combinar las ecuaciones y los términos que se han ido obteniendo.
d ) Verificar los grados de libertad para saber si el número de ecuaciones es el ade-
cuado.

4. Determinar la Solución

a) Analı́ticamente.
b) Numéricamente.

5. Analizar los Resultados

a) Verificar resultados para saber qué tan acertados están.


1) Limitar y aproximar las respuestas.
2) Precisión de los métodos numéricos.
b) Interpretar resultados.
1) Graficar la solución.
2) Relacionar suposiciones y resultados de los datos.
3) Evaluar sensitividad.
4) Responder a preguntas del tipo “y si?”

6. Validar el Modelo

a) Seleccionar valores claves para validar.


b) Comparar con resultados experimentales.
c) Comparar con resultados de modelos más complejos.
14 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Figura 2.3: Tanque de flujo continuo perfectamente agitado.

2.2.2. Ejemplo
Para poder entender el procedimiento de modelado previamente descrito, tomemos el
ejemplo de un tanque de flujo continuo perfectamente agitado (continuous-flow stirred tank
de la Figura 2.3).
Objetivo: Determinar la respuesta dinámica del tanque a un cambio tipo escalón en
la CA0 , ası́ como la velocidad y forma de respuesta. Todo esto depende del volumen y del
flujo. Una de las suposiciones que se tienen es que la salida no puede ser utilizada a no ser
que el 90 % del cambio de concentración haya ocurrido. Por lo tanto, otro de los objetivos es
determinar cuánto tiempo se necesita para llegar a este valor.
Información: Para poder preparar la información, primero se identifica el sistema, y
la manera más sencilla de hacerlo es mediante un diagrama. Con ello se pueden identificar
las variables y tener una idea de los balances a formular. Para este caso, el sistema es el
lı́quido en el tanque. El tanque ha sido bien diseñado tal que la concentración sea uniforme
en el lı́quido. Se asumirá luego que,

Es un well-stirred vessel, i.e., permite el uso de ODEs en lugar de PDEs.

Se tiene un flujo constante de entrada.

La densidad es la misma para A y el solvente.

A nivel de datos, se asume que,

F0 = 0,086m3 /min.

V = 2,1m3 .

CAIN IT = 0,925mole/m3 .

Después de aplicar una entrada ‘paso, se tiene que CA0 = 1,85mole/m3 .

El sistema está en estado estable al principio, i.e., CA0 = CA = CAIN IT , cuando t = 0.


2.2. PRINCIPIOS DE MODELAMIENTO MATEMÁTICO 15

Formulación: Primero, para poder formular el modelo, tenemos que seleccionar las variables
de cuyo comportamiento queremos predecir. Una vez se tengan estas variables, las ecuaciones
pueden ser deducidas basados en principios fundamentales, como lo es la conservación. Estos
balances de conservación son relaciones que obedecen ciertos supuestos en sistemas fı́sicos.
Estos balances de conservación se pueden ver por lo general como,

ACC = IN - OUT + GENERA

donde si ACC 6= 0 para un well-mixed system, se tendrá una ODE, mientras que si ACC = 0
para un well-mixed system, se tendrá una ecuación algebraica. Los más utilizados son los
balances de masa y energı́a.

Balance de masa total: Acumulación de masa = Masa IN - Masa OUT

Balance de masa por componente: Acumulación del componente de masa = Comp


Masa IN - Comp Masa OUT + Generación del Componente de Masa.

Balance de energı́a: Acumulación de U+PE+KE = (U+PE+KE IN por convex) -


(U+PE+KE OUT por convex) + Q - W
donde U es la energı́a interna, PE la energı́a potencial, KE la cinética, Q la temperatura
transferida al sistema por el ambiente, y W el trabajo (si el volumen es constante,
W=Ws).

Hay casos especı́ficos en los que se utiliza cada uno de los balances previamente descritos. A
continuación se da un ejemplo de los más utilizados.

Si la variable es el total de masa del lı́quido en un tanque o la presión en un recipiente,


el balance de materia total es el más apropiado.

Si la variable es la concentración de un componente, el balance de masa por componente


es el apropiado.

Si la variable es temperatura, el balance de energı́a es el apropiado.

Lógicamente, si se tienen varias variables, es claro que se pueden utilizar varios balances para
poder obtener el modelo matemático. En ciertos casos los balances no son suficientes, por lo
que se utilizan ecuaciones que pueden relacionar varias variables. Por ejemplo,

Transferencia de calor: Q = hA(∆T ).

Tasa Reacción Quı́mica: rA = k0 e−E/RT CA .

Flujo: F = CV (∆P/ρ)1/2 .

Ecuación de estado: P V = nRT .


16 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Estas relaciones dependen del problema en cuestión, ya que por lo general no son univer-
salmente aplicables. Finalmente, la formulación del modelo queda completa cuando se tiene
el número adecuado de ecuaciones. Para ello, existe un elemento conocido como grado de
libertad (degree of freedom, DOF), el cual viene dado por DOF = N V − N E, donde N V
es el número de variables dependientes (i.e., variables que dependen del comportamiento
del sistema y deberán ser evaluadas por medio de las ecuaciones del modelo), y N E es el
número de ecuaciones independientes. Si DOF = 0, el sistema está exactamente especifica-
do; si DOF < 0, el sistema está sobreespecificado, i.e., no existe una solución del modelo; si
DOF > 0, el sistema está subespecificado, i.e., existe un número infinito de soluciones.
Para el ejemplo en cuestión, como se tienen concentraciones, los balances de mas son
adecuados. El balance total de masa para un incremento de tiempo ∆t viene dado por,

(ρV )(t+∆t) − (ρV )t = F0 ρ∆t − F1 ρ∆t

donde ρ es la densidad. Dividiendo por ∆t, y tomando el lı́mite cuando tiende a 0, se tiene
que la acumulación de masa es igual a la masa de entrada menos la masa de salida, i.e.,

(ρV )(t+∆t) − (ρV )t


lı́m = F0 ρ − F1 ρ
∆t→0 ∆t
d(ρV )
= F0 ρ − F1 ρ
dt
dρ dV
V +ρ = F0 ρ − F1 ρ
dt dt

Como la densidad es constante, dt
= 0, por lo que se tendrı́a que

dV
(2.1) = F0 − F1
dt
Es claro que F0 es una variables externa que no depende del comportamiento del sistema.
Como el lı́quido sale al rebosarse el lı́quido, entonces el flujo de salida F1 está correlacionado
con el nivel del lı́quido. Para ello se utiliza una ecuación de presa que viene dada por,
p
F1 = kF L − Lw , para L > Lw

donde kF es una constante, L = V /A es el nivel del lı́quido en el tanque, y Lw es el nivel en


el cual se desborda la presa. En este caso, L > Lw por lo que el nivel nunca está por debajo
del overflow, y la altura por encima del desborde L − Lw es pequeña comparada con el nivel
del lı́quido en el tanque L. Por lo tanto, se asumirá que el nivel del lı́quido en el tanque es
aproximadamente constante, y que F0 = F1 = F , por lo que (2.1) se convierte en

dV
(2.2) = F0 − F1 = 0 ⇒ V = constante
dt
Ahora se necesita formular el balance de masa del componente A. Como es un tanque well-
mixed, las concentraciones del tanque y las de salida son las mismas, por lo que,

(M WA V CA )(t+∆t) − (M WA V CA )t = (M WA F CA0 − M WA F CA )(∆t) + 0


2.2. PRINCIPIOS DE MODELAMIENTO MATEMÁTICO 17

donde M WA corresponde al peso molecular del componente A, CA está en moles/volumen del


componente A, y como no hay reacción quı́mica, la generación es igual a 0. Esto implicarı́a
finalmente que,

dCA
(2.3) M WA V = M WA F (CA0 − CA )
dt
Por lo tanto, las Ecuaciones (2.2) y (2.3) describen nuestro sistema. Se tiene entonces que
las variables son CA y F1 , y las variables externas son F0 y CA0 , entonces el DOF = 0. Se
tiene que tener en cuenta que los parámetros no cambian con el tiempo, lo cual no es real,
pero es válido siempre y cuando los cambios sean lentos.
Solución Matemática: Una de las ventajas de una solución analı́tica es que se pue-
de calcular valores especı́ficos de la solución, ası́ como determinar las relaciones entre las
variables y el comportamiento del sistema.
El modelo en (2.3) es una ODE lineal de primer orden, que puede ser escrita como

dCA 1 1
(2.4) + C A = C A0
dt τ τ
donde τ = V /F = 24,7min, y se conoce como la constante de tiempo del sistema.
Para resolver este tipo de ecuaciones, se recurre a lo visto en ecuaciones diferenciales.
Se sabe que
Rt1
(2.5) e 0 τ dt = et/τ

Multiplicando por este factor a ambos lados de (2.4) se obtiene que


 
t/τ dCA 1 1
e + CA = CA0 et/τ
dt τ τ

Pero por (2.5),


dCA det/τ 1
et/τ + CA = CA0 et/τ
dt dt τ
d(et/τ CA ) 1
= CA0 et/τ
dt τ
1
d(et/τ CA ) = CA0 et/τ dt
τ
Como se asumió que CA0 es constante incluso después de hacer el cambio a entrada escalón,
entonces Z Z
1
t/τ
d(e CA ) = CA0 et/τ dt
τ
1
CA τ et/τ + I
et/τ CA (t) =
τ 0
donde I es una constante. Originalmente se ha asumido que si t = 0, y CA (0) = CAIN IT , por
lo que
I = CAIN IT − CA0
18 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Escrito de otra forma serı́a,


CA = CA0 + (CAIN IT − CA0 )e−t/τ
Se sabe que CAIN IT = CA0IN IT , por lo que

CA − CAIN IT = CA0 + (CAIN IT − CA0 )e−t/τ − CAIN IT


CA − CAIN IT = (CA0 − CAIN IT )(1 − e−t/τ )
Escrito de otra forma, esto podrı́a verse como

y(t) = u(t) 1 − e−t/τ

Si la entrada u(t) es un escalón unitario, la salida serı́a y(t) = 1 − e−t/τ para t ≥ 0, lo que
gráficamente serı́a equivalente a lo que se ve en la Figura 2.4).

Figura 2.4: Respuesta a entrada paso de un sistema de primer orden.

Como se puede ver, una de las caracterı́sticas primordiales de un sistema de primer


orden es que si t = τ , el valor de y(t) serı́a igual al 63.2 % del valor final, i.e.,
y(t = τ ) = 1 − e−1 = 0,632
Se puede observar también que entre más pequeña sea la constante de tiempo τ , más rápida
es la respuesta del sistema. Otra caracterı́stica importante de este tipo de sistemas es que la
lı́nea tangente en t = 0 es 1/τ , ya que
dy(t) 1 1
= e−t/τ t=0 =
dt τ τ
Es claro también que si no se tuviese una entrada escalón unitario sino x(t) = Ku(t), entonces
la salida serı́a
y(t) = K(1 − e−t/τ )
donde el valor final vendrı́a dado por
lı́m y(t) = lı́m K − lı́m Ke−t/τ = K
t→∞ t→∞ t→∞

Para el caso del ejemplo en cuestión, CAIN IT = 0,925 y τ = 24,7min, lo cual nos brinda la
rapidez con la que responde el sistema. Todo esto depende del equipo (i.e., por el volumen
V ), y la operación del proceso (i.e., F ).
2.3. SISTEMAS DE PRIMER ORDEN Y CONTROLADOR ON-OFF 19

2.3. Sistemas de Primer Orden y Controlador ON-OFF


Otro ejemplo interesante a modelar es el de un sistema simple de calentamiento como
el que se muestra en la Figura 2.5)

Figura 2.5: Sistema térmico.

En un clima frı́o, la temperatura de una casa puede mantenerse a una temperatura


deseada haciendo circular agua caliente a través de un intercambiador de calor. Un termóstato
determina la temperatura en un cuarto, y se desea mantener dicha temperatura en un rango
determinado.
Objetivo: Determinar la respuesta dinámica de la temperatura en un cuarto. Además,
se quiere garantizar que el horno conmute sólo cada 3 min, lo cual ayudarı́a a que los gases
sean purgados antes de volver a ser encendido.
Información: Variables importantes: Temperatura del cuarto; Estados ON/OFF del
horno.
Suposiciones: El aire en el cuarto es well-mixed; No existe intercambio de material
desde/hacia cuarto; El calor transmitido sólo depende de la ∆T = Troom − Tout ; No hay
transferencia de calor del suelo o del techo; Efectos de energı́a cinética y potencial son
despreciables.
Datos: La capacidad del aire CV = 0,17 cal/(g ◦ C); Densidad es ρ = 1190g/m3 ;
El coeficiente de transferencia total de calor UA = 45 × 103 cal/(◦ Ch); Tamaño del cuarto
5m×5m×3m; Switcheo entre 17◦ C ON y 23◦ C OFF; TINroom = 20◦ C, y el horno está apagado
originalmente; La temperatura ambiente es TA = 10◦ C.
Formulación: El sistema se define como el aire dentro de la casa. Para determinar la
temperatura, un balance de energı́a es necesario (como no hay material que se transmite, no
se necesita hacer balance de materia). La aplicación del balance de energı́a darı́a:

dY
(2.6) = 0 − 0 + Q − Ws
dt
20 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Sin embargo, Ws = 0. Utilizando los principios de termodinámica y transferencia de calor, y


sabiendo que la acumulación de energı́a cinética y potencial son despreciables,
dU
dt
= ρCV V dT
dt
(2.7)
Q = −U A(T − TA ) + Qh
donde 
 0 T > 23
Qh = 1,5 × 106 T < 17

sin cambio 17 ≤ T ≤ 23
Por lo tanto las Ecuaciones (2.6) y (2.7) describen totalmente el sistema. El DOF es 0 ya
que además se tienen dos variables (i.e., T y Qh ), cuatro parámetros (i.e., U A, CV , V , y ρ),
y una variable externa TA . La ecuación que describirı́a finalmente todo el sistema es
dT
(2.8) ρCV V = −U A(T − TA ) + Qh
dt
Solución: Ordenando (2.8) se tiene que
dT 1 U ATA + Qh
(2.9) + T =
dt τ ρCV V
La solución de (2.9) depende claramente del valor de Qh , por lo que
(2.10) T − TIN IT = (TF IN AL − TIN IT )(1 − e−t/τ )
donde t es el tiempo desde el paso en Qh y τ = 0,34h de acuerdo a los valores asignados
originalmente. El valor de TF IN AL viene dado por
 ◦
Qh 10 C cuando Qh = 0
TF IN AL = TA + =
UA 43,3◦ C cuando Qh = 1,5 × 106
El valor de TIN IT es el valor de temperatura cuando un paso en Qh ocurre.
En la Figura 2.6) se muestra un ejemplo de cómo serı́a la respuesta de un controlador
ON-OFF.

2.4. Transformada de Laplace


Buena parte del material de esta sección fue tomado de [5, 10, 12, 24].

2.4.1. Transformada Unilateral de Laplace


La transformada unilateral de Laplace de una señal x(t), X(s), se define como
Z∞
(2.11) L {x(t)} = X(s) = x(t)e−st dt
0

donde s = σ + jw es una variable compleja. El término e−st es una exponencial decreciente


que ayuda a la convergencia del sistema. Existen ciertas limitantes en x(t) para que exista
transformada de Laplace:
2.4. TRANSFORMADA DE LAPLACE 21

Figura 2.6: Ejemplo de un sistema de control on-off.

1. x(t) debe ser piecewise continuous en cualquier intervalo finito 0 ≤ t1 ≤ t ≤ t2 .


2. x(t) debe ser de orden exponencial.

Definition 2 Una función x(t) es piecewise continuous en un intervalo finito si este inter-
valo puede ser dividido en un número finito de subintervalos sobre los cuales la función es
continuo y se tienen lı́mites por izquierda y derecha de x(t).

Definition 3 Una función x(t) es de orden exponencial si existe una constante a tal que
e−at |x(t)| esté acotada para todo valor de t mayor que un valor finito T .

Esta última limitante impone la restricción de que σ, i.e., la parte real de s tiene que ser
mayor a un lı́mite inferior σa , para el cual el producto e−σa t |x(t)| es de orden exponencial.
Esto es lo que se conoce como el concepto de region of convergence (ROC).

Ejemplo 2.4.1 Sea x(t) = e−at u(t), con a ∈ R+ . Cuál es L {x(t)}?

Utilizando (2.11),
R∞
X(s) = x(t)e−st dt
0
R∞
= e−at e−st dt
0
R∞
= e−(s+a)t dt
0
1 1
= − s+a lı́mt→∞ e−((σ+a)+jw)t + s+a
z }| {
0 if σ + a > 0
22 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

1
X(s) =
s+a
esto es válido para Re{s} > −a.

Ejemplo 2.4.2 Sea x(t) = cos(wt)u(t), con w ∈ R+ . Cuál es L {x(t)}?

Utilizando (2.11),
Z∞
X(s) = cos(wt)e−st dt
0

Por Euler cos(wt) se convierte en


 
Z∞ Z∞
1
X(s) = e(jw−s)t dt + e(−jw−s)t dt
2
0 0
   
1 1 1 1 1 1
X(s) = lı́m e(jw−s)t − lı́m e(−jw−s)t − −
2 jw − s t→∞ jw + s t→∞ 2 jw − s jw + s
Sin embargo,
lı́m e(jw−σ−jw)t = 0 if σ > 0
t→∞

lı́m e(−jw−σ−jw)t = 0 if σ > 0


t→∞
Por ende,

s
L {cos(wt)u(t)} = s2 +w2

Ejemplo 2.4.3 Sea x(t) = tu(t). Cuál es L {x(t)}?

Utilizando (2.11),
Z∞
X(s) = te−st dt
0
Integrando por partes, y utilizando
Zb Zb
udv = [uv]ba − vdu
a a

Sea u = t y dv = e−st dt. Entonces,


h −st
i∞ R∞ −e−st
X(s) = − te s − s
dt
0 0
1 −st ∞
= 0− s 2 [e ] 0

Por ende,

1
L {tu(t)} = s2
if Re{s} > 0
2.4. TRANSFORMADA DE LAPLACE 23

2.4.2. Propiedades de la Transformada de Laplace


Linearidad

Si
L
x1 (t) ←→ X1 (s)
L
x2 (t) ←→ X2 (s)
Entonces,
L
a1 x1 (t) + a2 x2 (t) ←→ a1 X1 (s) + a2 X2 (s)

Corrimiento en tiempo

Si
L
x(t) ←→ X(s)
Entonces,
L
x(t − t0 ) ←→ X(s)e−st0
Proof: Por (2.11)
Z∞
L {x(t − t0 )} = x(t − t0 )e−st dt
0

Cambiando de variables τ = t − t0 , dτ = dt,


R∞
L {x(t − t0 )} = x(τ )e−s(τ +t0 ) dτ
0
R∞
= e−st0 x(τ )e−sτ dτ
0
= e−st0 X(s)

Shifting in the s-Domain

Si
L
x(t) ←→ X(s)
Entonces,
L
es0 t x(t) ←→ X(s − s0 )

Ejemplo 2.4.4
L
e3t x(t) ←→ X(s − 3)
24 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

L {cos(w0 t)x(t)} = L { 12 x(t) (ejw0 t + e−jw0 t )}}

= L { 12 x(t)ejw0 t } + L { 12 x(t)e−jw0 t }

1
= 2
X(s − jw0 ) + 21 X(s + jw0 )

Time Scaling

Si
L
x(t) ←→ X(s)
Entonces,
L 1 s
x(at) ←→ X
|a| a
Proof: Por (2.11)
Z∞
L {x(at)} = x(at)e−st dt
0

Cambiando de variables y definiendo τ = at, a1 dτ = dt, entonces si a > 0

1
R∞ τ
L {x(at)} = a
x(τ )e−s( a ) dτ
(2.12) 0 
1 s
= a
X a

Si a < 0, se tiene
Z∞
L {x(at)} = x(at)e−st dt
0

Cambiando de variables y definiendo τ = at, a1 dτ = dt,

1
R0 τ
L {x(at)} = a
x(τ )e−s( a ) dτ

(2.13) R∞ τ
= − a1 x(τ )e−s( a ) dτ
0 
= − a1 X s
a

Combinando los resultados de (2.12) y (2.13) para a > 0 y a < 0, se tiene

1 s
L {x(at)} = X
|a| a

Time Reversal
2.4. TRANSFORMADA DE LAPLACE 25

Si
L
x(t) ←→ X(s)
Entonces,
L
x(−t) ←→ X(−s)

Differentiation

Si
L
x(t) ←→ X(s)
Entonces,
dx(t) L
←→ sX(s) − x(0)
dt
Proof: Por (2.11)
  Z∞
dx(t) dx(t) −st
L = e dt
dt dt
0
dx(t)
Integrando por partes con u = e−st y dv = dt
dt, se tiene
n
dx(t)
o
∞ R∞
L dt
= [e−st x(t)]0 − x(t)(−s)e−st dt
0
−st
R∞
= lı́mt→∞ e x(t) − e−s0 x(0) + s x(t)e−st dt
0
= lı́mt→∞ e−st x(t) − x(0) + sX(s)

Por hipótesis x(t) es de orden exponencial, lo que implica que

e−at |x(t)| < c ⇒ |x(t)| < ceat

Esto implica que para cualquier s tal que Re{s} > a,

lı́m e−st x(t) = 0


t→∞

Entonces,  
dx(t)
L = sX(s) − x(0)
dt


NOTA: Si x(t) es discontinua en t = 0 o si x(t) contiene un impulso o derivada de un


impulso en t = 0, es necesario tomar el tiempo inicial como 0− . Entonces,
dx(t) L
←→ sX(s) − x(0− )
dt
Note que si x(t) = 0 para t < 0, entonces x(0− ) = 0.
26 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

La definición general serı́a

Si
L
x(t) ←→ X(s)
Entonces,

dn x(t) L n
←→ s X(s) − sn−1 x(0) − sn−2 ẋ(0) − . . . − sxn−2 (0) − xn−1 (0)
dtn
donde xn−1 (0) corresponde a la derivada n − 1 de x evaluada en t = 0.

n o
dx(t)
Ejemplo 2.4.5 Sea x(t) = e−t u(t). Encuentre L dt
.

Utilizando tablas o definiciones se tiene que

dx(t)
= −e−t u(t) + δ(t)e−t = −e−t u(t) + 1.δ(t)
dt
Por tablas, se sabe que
L
δ(t) ←→ 1
L 1
e−at u(t) ←→
s+a
Entonces  
dx(t) s
L =
dt s+1
Si se utilizan las propiedades,
 
dx(t)
L = sX(s) − x(0− )
dt

Pero x(0− ) = 0. Entonces  


dx(t) 1
L =s
dt s+1

Differentiation in the s-Domain

Si
L
x(t) ←→ X(s)
Entonces,
L dN
tN x(t) ←→ (−1)N X(s)
dsN

Integration
2.4. TRANSFORMADA DE LAPLACE 27

Si
L
x(t) ←→ X(s)
Entonces,
Zt
L 1
x(λ)dλ ←→ X(s)
s
0

Convolución

Si
L
x1 (t) ←→ X1 (s)
L
x2 (t) ←→ X2 (s)
Entonces,
L
x1 (t) ∗ x2 (t) ←→ X1 (s)X2 (s)

En la Figura 2.7 tomada de [30] se pueden ver algunas de las transformadas tradicio-
nales de Laplace.

Figura 2.7: Transformadas tı́picas de Laplace [30]

2.4.3. Solución de ODEs


Ejemplo 2.4.6 [28] Un calibrador óptico utilizado por la Chrysler Corporation, el cual se
utiliza para verificar el perfecto alineamiento de todos los componentes metálicos de varias
28 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

clases de Sedan de cuatro puertas, tiene unas dinámicas en lazo cerrado dadas por

ÿ + 5ẏ + 6y = f (t)

Asumiendo que f (t) = 0, y que y(0) = 1, ẏ(0) = 0, halle y(t).

Primero tendrı́amos que colocar el sistema en términos de la transformada de Laplace como


sigue
s2 Y (s) − sy(0) − ẏ(0) + 5sY (s) − 5y(0) + 6Y (s) = 0

Y (s)(s2 + 5s + 6) = sy(0) + 5y(0)

Esto es equivalente a
s+5 −2 3
Y (s) = = +
(s + 3)(s + 2) s+3 s+2
Tomando la transformada inversa de Laplace se obtiene finalmente que

y(t) = 3e−2t − 2e−3t

Un ejemplo de cómo se obtendrı́an los residuos en Matlab viene dado por:

[r,p,k] = residue([1 5],[1 5 6])

r =

-2.0000
3.0000

p =

-3.0000
-2.0000

k =

[]

Para poder obtener la transformada inversa de Laplace se utilizan por lo general fracciones
parciales.
2.4. TRANSFORMADA DE LAPLACE 29

Polos Sencillos

Sea n
N (s) X ki
P (s) = =
D(s) i=1
(s − pi )
donde
ki = [(s − pi )P (s)]|s=pi
siempre y cuando el grado del numerador sea menor a la del denominador.

Polos Múltiples

Sea
N (s) k11 k1r k21 k2m
P (s) = = + ... + r
+ + ... + + ...
D(s) (s − p1 ) (s − p1 ) (s − p2 ) (s − p2 )m
donde
k1r = [(s − p1 )r P (s)]|s=p1

1 di [(s − p1 )r P (s)]
k1i = i = 1, . . . , r − 1
i! dsi
s=pi

y ası́ sucesivamente para todos los polos.

Ejemplo 2.4.7 Sea


1
P (s) =
s2 (s + 1)2
k11 k12 k21 k22
P (s) = + 2 + +
s s (s + 1) (s + 1)2
−2 1 2 1
P (s) = + 2+ +
s s (s + 1) (s + 1)2

>> [r,p,k]=residue([1],conv([1 0 0],[1 2 1]))

r =

2
1
-2
1

p =

-1
-1
30 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

0
0

k =

[]

Polos Complejos Conjugados

ki ki+1 ∗
P (s) = + ki = ki+1
(s − (−α + jβ)) (s − (−α − jβ))
donde
ki = [(s + (α − jβ))P (s)]|s=−α+jβ
Por lo tanto,
p(t) = ki e(−α−jβ)t + ki∗ e(−α+jβ)t
p(t) = 2|ki |e−αt cos (βt + ]ki )

Ejemplo 2.4.8 Sea


3ÿ + 2ẏ + y = 0
4 − 3s
P (s) = 2
3s + 2s + 1

1 2
s=− ±
3 3

Ejemplo 2.4.9 [6] Se tiene un sistema simple de masa resorte como se ve en la Figura 2.8.
Este sistema representa, por ejemplo, un amortiguador de choques para un vehı́culo. En él
se puede ver el diagrama de cuerpo libre de la masa M , donde b es el amortiguamiento
viscoso (i.e., la fuerza de fricción es linealmente proporcional a la velocidad de la masa), y
la constante de un resorte ideal k.
.
La ecuación diferencial vendrı́a dada por la suma de fuerzas actuando sobre M , i.e.,
utilizando la segunda ley de Newton,
X
Ma = F

En otras palabras serı́a,


M ÿ + bẏ + ky = r(t)
− −
Si y(0 ) = y0 y ẏ(0 ) = 0, y r(t) = 0, por lo que tendrı́amos que la representación en
Laplace serı́a,
M (s2 − sy(0− ) − ẏ(0− )) + b(sY (s) − y(0− )) + kY (s) = 0
2.4. TRANSFORMADA DE LAPLACE 31

Figura 2.8: Sistema Masa-Resorte-Amortiguador [6]

(M s + b)y0 n(s)
(2.14) Y (s) = 2
=
M s + bs + k d(s)
Si d(s) = 0, estamos hablando de la ecuación caracterı́stica, porque las raı́ces de esta
ecuación determinan la caracterı́stica de la respuesta en tiempo. Las raı́ces de la ecuación
caracterı́stica se conocen como polos o singularidades del sistema. Las raı́ces de n(s) se
denominan ceros.
Consideremos el caso cuando k/m = 2 y b/m = 3, por lo que
(s + 3)y0
Y (s) =
(s + 1)(s + 2)
La Figura 2.9 [6] muestra como se graficarı́a este sistema en el plano-s.

Figura 2.9: Representación del sistema en el plano-s [6]

.
Utilizando expansión en fracciones parciales se tiene
2 1
Y (s) = −
s+1 s+2
Tomando la transformada inversa de Laplace se obtiene finalmente que
32 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

y(t) = 2e−t − e−2t

Usualmente también se desea obtener el valor final o valor en estado estacionario.


Para ello se utiliza una de las propiedades más útiles de la transformada de Laplace, i.e., el
teorema del valor final. Este se puede ver como

lı́m y(t) = lı́m sY (s)


t→∞ s→0

Cabe aclarar que esto sólo es válido si lı́mt→∞ y(t) existe. Para el ejemplo en cuestión, es
claro que lı́mt→∞ y(t) = 0, lo que implica que la posición final de la masa es la posición
y = 0.
Podrı́amos ilustrar los puntos principales de la transformada de Laplace hasta ahora
enunciados por métodos gráficos. Para ello, tomemos la Ecuación (2.14) nuevamente, i.e.,

(s + Mb )y0
Y (s) = 2
s + ( Mb )s + Mk

Esto podrı́a escribirse como


(s + 2ζωn )y0
Y (s) =
s2+ 2ζωn s + ωw2
donde ζ es la tasa de amortiguamiento (no tiene dimensiones), y ωn es la frecuencia natural
del sistema. El polinomio caracterı́stico serı́a

d(s) = s2 + 2ζωn s + ωw2 = 0

Por lo que las raı́ces vendrı́an dadas por


p
(2.15) s1,2 = −ζωn ± ωw ζ2 − 1
q
Para este caso especı́fico, ωn = Mk , y ζ = 2√bkM .
Si analizáramos la Ecuación (2.15) es claro que

Cuando ζ > 1, las raı́ces son reales.

Cuando ζ < 1, las raı́ces son complejas conjugadas.

Cuando ζ = 1, las raı́ces son repetidas y reales. Esta última condición se conoce como
amortiguamiento crı́tico.

Para el caso cuando ζ > 1, la respuesta es subamortiguada, y las raı́ces de (2.15) se podrı́an
escribir como p
s1,2 = −ζωn ± jωw 1 − ζ 2
Si graficáramos en el plano-s los polos y ceros de Y (s) obtendrı́amos lo que se ve en la
Figura 4.8 [6].
donde θ = cos−1 ζ. Si asumimos que ωn es constante, las raı́ces complejas conjugadas
variarı́an dependiendo del valor de ζ como se ve en la Figura 2.11 [6].
2.4. TRANSFORMADA DE LAPLACE 33

Figura 2.10: Representación del sistema en el plano-s [6].

Figura 2.11: Representación cómo varı́a ζ en el plano-s cuando ωn se mantiene constante


[6].

Es claro que la respuesta transitoria aumentará sus oscilaciones a medida que las raı́ces
tiendan al eje jω, i.e., cuando ζ tiende a cero.
Si calculáramos la transformada inversa utilizando la expansión en fracciones parciales
para el caso en que ζ < 1, tendrı́amos que
k1 k1∗
Y (s) = +
s − s1 s − s2
donde p
s1 = −ζωn + jωw 1 − ζ2
p
s2 = −ζωn − jωw 1 − ζ 2
Utilizando las ideas vistas previamente, obtenemos que
1 1 ζ
k 1 = − y0 − j y0 p
2 2 1 − ζ2
34 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Por lo tanto,
1 1
|k1 | = y0 p
2 1 − ζ2
y
ζ
∠k1 = tan−1 p
1 − ζ2
Finalmente, la respuesta en tiempo serı́a igual a
!
1 p ζ
y(t) = y0 p e−ζωn t cos ωn t 1 − ζ 2 + tan−1 p
1 − ζ2 1 − ζ2

Gráficamente, esto se verı́a como se observa en la Figura 2.12 [6].

Figura 2.12: Respuesta en tiempo del sistema masa-resorte-amortiguador [6]

.
Mı́rese ahora la relación entre la respuesta en tiempo y la ubicación de los polos y ceros
en el plano-s. Si ζωn varı́a, entonces la envolvente e−ζωn t también, por lo que la respuesta
cambiarı́a. Entre más grande sea el valor de ζωn , más rápido será el amortiguamiento de la
respuesta. Esto implicarı́a desplazar bastante los polos hacia la izquierda del plano-s.
Es claro que en aplicaciones de control se tendrán más polos, por lo que la respues-
ta transitoria dependerá de la contribución de todos ellos. Estas ideas se analizarán más
adelante.

2.5. Funciones de Transferencia


Definition 4 La función de transferencia de un sistema lineal e invariante en el tiempo,
es la relación en frecuencia que existe entre la entrada y la salida cuando las condiciones
iniciales son iguales a cero.

En esta definición, válida para sistemas lineales e invariantes en el tiempo, se tiene que para
un sistema como (7.18), la relación entre la entrada u y la salida y estará dado por una
2.5. FUNCIONES DE TRANSFERENCIA 35

transformación en frecuencia de las señales, siempre y cuando las condiciones iniciales sean
nulas.

(2.16) y n + a1 y n−1 + . . . + an−1 ẏ + an y = b0 um + b1 um−1 + . . . + bm−1 u̇ + bm u n≥m

Esto serı́a,
L [salida]
H(s) =
L [entrada] CI=0
dónde L [·] es la transformada de Laplace. Aplicando esto a (7.18), se obtiene que

Y (s) b0 sm + b1 sm−1 + . . . + bm−1 s + bm


(2.17) H(s) = = n
U (s) s + a1 sn−1 + . . . + an−1 s + an

Cabe aclarar que en realidad la respuesta de un sistema está dada por dos componentes:

n(s) p(s)
Y (s) = R(s) +
d(s) d(s)
| {z } |{z}
Respuesta a Estado Cero Respuesta a Entrada Cero
Respuesta Forzada Respuesta Natural
Función de Transferencia

Ejemplo 2.5.1 [6] Se tiene el sistema que se ve en la Figura 2.13 [6]. Obtener la función
de transferencia que relaciona la velocidad v1 (t) y la fuerza r(t).

Figura 2.13: Sistema masa-resorte-amortiguador [6]

. Al modelar el sistema, se tiene el siguiente conjunto de ecuaciones,

M1 v̇1 + (b1 + b2 )v1 − b1 v2 = r(t)


M2 v̇2 + (v2 (t) − v1 (t))b1 + kx2 (t) = 0
donde x2 (t) corresponde a la posición asociada a la velocidad v 2 (t). Si las condiciones iniciales
son iguales a 0, tendrı́amos en frecuencia que
36 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

M1 sV1 (s) + (b1 + b2 )V1 (s) − b1 V2 (s) = R(s)


M2 sV2 (s) + (V2 (s) − V1 (s))b1 + k V2s(s) = 0
Despejando en términos de V1 (s) se tiene que la función de transferencia serı́a
M2 s + b1 + ks
V1 (s) = R(s)
(M1 s + b1 + b2 )(M2 s + b1 + ks ) − b21

2.6. Linealización
Las aproximaciones de un sistema no lineal a uno lineal se realiza para estudiar el com-
portamiento local de un sistema, donde los efectos no lineales son pequeños y prácticamente
despreciables. Para que una ecuación sea lineal, cada uno de los términos no debe contener
variables cuya potencia sea mayor que uno. Existe una técnica de linealización mediante
la cual es posible aproximar las ecuaciones no lineales que se pueden analizar mediante la
transformada de Laplace. La suposición básica es que la respuesta de la aproximación lineal
representa la respuesta del proceso en la región cercana a un punto de operación, al rededor
del cual se realiza la linealización [30, 6].
El manejo de las ecuaciones linealizadas se facilita en gran medida con la utilización
de las variables desviación, las que se definen como la diferencia entre el valor de la variable
y su valor en un punto de operación dado. Esto se podrı́a escribir como
(2.18) x̂(t) = x(t) − x̄
En (2.18) se tiene que x(t) es la variable que se está analizando, y x̄ es el punto de operación
al rededor del que deseamos trabajar. En otras palabras, la variable desviación mide la
diferencia entre el valor de la variable y un valor de operación sobre el que deseamos trabajar
(ver Figura 2.14 [30]).

Figura 2.14: Representación del sistema en términos de la variable desviación [30]

.
La transformación del valor absoluto de una variable al de desviación equivale a mover
el cero sobre el eje de esa variable hasta el valor base, i.e., x̄. Se tiene que
dn x̂(t) dn x(t)
=
dtn dtn
2.6. LINEALIZACIÓN 37

Supongamos que se tiene la ecuación diferencial

ẋ(t) = f (x(t))

La expansión por series de Taylor de la función no lineal f (x(t)) alrededor de un punto de


operación x̄ está dada por

df (x(t)) 1 d2 f (x(t)) 2 1 d3 f (x(t))
f (x(t)) = f (x̄)+ (x−x̄)+ 2
(x−x̄) + 3
(x−x̄)3 +. . .
dx
x=x̄ 2! dx
x=x̄ 3! dx
x=x̄

La aproximación lineal consiste en tomar únicamente los primeros elementos de la serie, i.e.,
aquellos que no están elevados a ninguna potencia. Por lo tanto,

df (x(t))
(2.19) f (x(t)) ' f (x̄) + (x − x̄)
dx x=x̄

Si se plantea en términos de las variables desviación se tiene que



df (x(t))
f (x(t)) ' f (x̄) + x̂
dx x=x̄

Ejemplo 2.6.1 [30] Linealizar la ecuación de Arrhenius para la dependencia de las tasas
de reacción quı́mica de la temperatura,

k(T ) = k0 e−E/RT

Supongamos que T̄ es el punto de operación alrededor del cual queremos linealizar. Tomando
(2.19) se tiene que
dk
k(T ) = k(T̄ ) + T̂
dt T =T̄
Es decir que
E
k(T ) = k(T̄ ) + k(T̄ ) T̂
RT̄ 2

Ejemplo 2.6.2 Analicemos el problema de un tanque acoplado con una válvula que se ob-
serva en la Figura...
ANADIR FIGURA
Primero, antes de plantear las ecuaciones diferenciales que nos ayudarı́an a entender
el sistema, recordemos cómo se modela un sistema hidráulico.
El flujo de lı́quido a través de una válvula que está totalmente abierta está dado por
r
∆P
q(t) = CV
G
donde q(t) corresponde al flujo, CV es el coeficiente de la válvula en gpm/(psi)1/2 y G es la
gravedad especı́fica del lı́quido que fluye a través de la válvula. Esta ecuación se puede reducir
a √
q(t) = K ∆P
38 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Donde la válvula se modela como se muestra en la Figura...


ANADIR FIGURA
La resistencia al flujo del lı́quido se define como la variación de diferencia de nivel
necesaria para producir una variación unitaria en el gasto.
Se sabe que
Z h
(2.20) V = A(λ)dλ
0

(2.21) P = ρgh + Pa

donde A es el área del tanque, h la altura, ρ la densidad, g la gravedad, y P a es la presión


atmosférica. La presión P y el volumen V de un tanque están relacionados por dV
dP
= C como
se observa en la Figura...
ANADIR FIGURA
Utilizando la regla de la cadena, se tiene que

dV dV dh
=
dP dh dP
Reemplazando (2.20) y (2.21) se obtiene que

dV 1
= A(h)
dP ρg
1
Por lo tanto C = A(h) ρg .
Por otra parte, el volumen en función del tiempo está dado por
Z h
V (t) = V (0) + (qi (α) − qo (α))dα
0

donde qi es el flujo de entrada y qo es el flujo de salida.


Lo que implica que V̇ = qi − qo , y por ende

dP 1
= (qi − qo )
dt C
√ √
Retomando el problema original, tenemos que ∆P1 = P1 − Pa , qo = K1 ∆P1 , y por lo
tanto
1 p
Ṗ1 = (qi − K1 ∆P1 )
C1
¯ 1 , se obtiene que
Si linealizamos el sistema alrededor de los puntos de operación q̄ o y ∆P

K1 ¯ 1)
qo = q̄o + p (∆P1 − ∆P
¯
2 ∆P 1
2.6. LINEALIZACIÓN 39

¯ 1 = P̄1 − Pa , por lo que


Pero, ∆P
1
qo = q̄o + (P1 − P̄1 )
R1
Reemplazando en la ecuación diferencial, obtenemos que
 
ˆ 1 1
Ṗ1 = q̂i − P̂1
C1 R1
Si se tomaran las funciones de transferencia de las variables desviación (asumiendo que los
puntos de operación son las mismas condiciones iniciales para simplificar el problema), se
obtendrı́an dos sistemas de primer orden, i.e.,
P̂1 R1
=
q̂i 1 + sC1 R1
q̂o 1
=
q̂i 1 + sC1 R1
Para ver el comportamiento de este sistema, serı́a útil utilizar Simulink para ver el compor-
tamiento tanto del sistema no lineal y el lineal asumiendo que Pa = 3, P1 = 6, C1 = 5, y
K1 = 2.

Un sistema de una entrada y una salida se puede ver como


dx
dt
= f (x, u)
(2.22)
y = h(x, u)
con x ∈ Rn , u, y ∈ R.
Asumamos que los puntos de operación son x = xe y u = ue . Para estudiar compor-
tamientos locales del sistema al rededor del punto de operación, se asume que las variables
desviación x̂ = x − xe y û = u − ue son señales pequeñas, tal que las perturbaciones
no lineales al rededor del punto de operación pueden ser despreciadas con respecto a los
términos lineales. Utilizando el cambio de variables por las variables desviación, y tomando
w = y − h(xe , ue ), además del hecho que por series de Taylor, y despreciando los términos
de orden superior, se tiene que
∂f ∂f
(xe , ue )x̂ +
f (x, u) = f (xe , ue ) + (xe , ue )û + . . .
∂x ∂u
Más formalmente, se puede definir la linealización Jacobiana del sistema no lineal (2.22)
como
x̂˙ = Ax̂ + B û
w = C x̂ + Dû
donde A = ∂f |
∂x xe ,ue
, B = ∂f |
∂u xe ,ue
, C = ∂h |
∂x xe ,ue
∂h
, y D = ∂u |xe ,ue . Es importante recalcar que
sólo se puede definir la linealización de un sistema con respecto a un punto de operación.
Es decir, si uno generalizara para una función con n variables xi , i = 1, . . . , n tendrı́amos
que ésta se linealiza como
n
X ∂f
(2.23) f (x1 , . . . , xn ) = f (x̄1 , . . . , x̄n ) + (xk − x̄k )
k=1
∂x
k (x̄1 ,...,x̄n )
40 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Ejemplo 2.6.3 [30] Sea la función

y
f (x, y, z) = 2x2 + xy 2 − 3
z

Demuestre que la aproximación lineal de f (·) en x̄ = 1, ȳ = 2, y z̄ = 3 es fˆ = 8x̂ + 3ŷ + 23 ẑ.

2.7. Diagramas en Bloques


Previamente, se habı́an utilizado sumadores, integradores, y bloques de ganancia úni-
camente para hacer una representación en diagramas en bloques. Ahora, tendremos bloques
que representarán directamente la función de transferencia, por lo cual si quisiéramos re-
presentar las condiciones iniciales de un determinado sistema, tendrı́amos que tener bloques
adicionales que representaran dicha energı́a inicial [4, 27, 6, 21].
En la Figura 2.15 [30, 21] se muestran algunas de las reglas de diagramas en bloques
que se utilizarán. Sin embargo, a continuación se describen de manera más profunda algunas
de ellas.

Figura 2.15: Algunas reglas útiles cuando se manejan diagramas en bloques [30, 21].

2.7.1. Combinación en Serie

Se dice que se tiene una combinación en serie cuando se tienen dos funciones de transfe-
rencia conectadas una después de otra. En la Figura 2.16 [6] se muestra un sistema cuya salida
X3 (s) = X2 (s)G2 (s) está conectada con un sistema que tiene una salida X2 (s) = X1 (s)G1 (s).
Reemplazando W (s) en la primera ecuación, se tiene que X3 (s) = X1 (s)G1 (s)G2 (s), lo que
es equivalente al diagrama en bloques que también se puede ver en la Figura 2.16 [6].
2.7. DIAGRAMAS EN BLOQUES 41

Figura 2.16: Combinación Serie [6].

2.7.2. Combinación en Paralelo


Cuando dos sistemas tienen una entrada en común, y sus salidas están “atadas” a
un sumador, se tiene una combinación en paralelo. Analı́ticamente, se tendrı́a que X1 (s) =
X(s)F1 (s), X2 (s) = X(s)F2 (s), y Y (s) = X1 (s) + X2 (s). Ası́ pues, el diagrama en bloques
se puede reducir tal que Y (s) = X(s)(F1 (s) + F2 (s)).

2.7.3. Puntos de Partida


Un pick-off point es un punto donde llega una variable y de ahı́ se divide en más de un
bloque. Las Figuras 2.17 y 2.18 [6] muestran un par de ejemplos.

Figura 2.17: Ejemplo de puntos de partida [6].

Figura 2.18: Ejemplo de puntos de partida [6].

2.7.4. Bloques con Sumadores


Las Figuras 2.19 y 2.20 [6] muestran un par de ejemplos.

2.7.5. Sistemas Retroalimentados


En la Figura 2.21, G(s) se conoce como la forward transfer function, mientras que
H(s) se conoce como la feedback transfer function. El conjunto G(s)H(s) se conoce como la
42 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS

Figura 2.19: Ejemplo del álgebra de bloques [6].

Figura 2.20: Ejemplo del álgebra de bloques [6].

open-loop transfer function. La función de transferencia que relaciona la entrada y la salida


de un sistema retroalimentado como el que se ve en la Figura 2.21 serı́a,
G(s)
T (s) =
1 ∓ G(s)H(s)

Figura 2.21: Ejemplo del álgebra de bloques para sistemas retroalimentados [6].

2.7.6. Ejemplos

2.8. Ley de Mason


En [17, 16] S. Mason definió las ideas para resolver ecuaciones lineales utilizando grafos
o diagramas de flujo, pero teniendo en cuenta aquello que Tustin omitió en un artı́culo previo.
Esto dio origen a lo que se conoce como Mason´s gain formula.
Los diagramas de flujo son una forma alternativa de representar gráficamente los sis-
temas dinámicos. Las señales se representan en estos casos por medio de nodos que están
conectados entre si por ramas. Cada nodo representa una variable del sistema, y cada rama
que conecta dos nodos representa una función de transferencia o ganancia. El flujo va en una
única dirección, la cual se indica mediante una flecha. Sobre ésta, se coloca el valor de la
ganancia entre dos nodos, lo que indica una relación entre dos señales determinadas. La idea
es poder utilizar este tipo de ideas para poder obtener relaciones entrada salida sin tener
que utilizar el álgebra de bloques descrito previamente.
2.8. LEY DE MASON 43

A continuación se explicará la terminologı́a utilizada, y luego se definirá dicha fórmula.


Estas definiciones fueron sacadas del [21].

Definition 5 Un nodo es un punto que representa una variable o señal.

Definition 6 Una rama es un segmento lineal dirigido que une dos nodos.

Definition 7 Un nodo de entrada (source) es un nodo que sólo tiene una rama saliente. Un
nodo de salida (sink) es un nodo que sólo tiene ramas entrantes. Un nodo mixto es aquel
que tiene tanto ramas de entrada y de salida. Un nodo suma las señales de todas las ramas
entrantes y transmite esta suma a todas las ramas salientes.

Definition 8 Un trayecto es una conexión entre ramas de un nodo a otro con las flechas en
la misma dirección. Es decir, todas las señales van en la misma dirección de un nodo a otro.
Un trayecto directo es aquel que conecta un nodo de entrada con un nodo de salida
donde ningún nodo se encuentra más de una vez.

Definition 9 Un lazo es una trayectoria cerrada (loop) en la cual ningún nodo se repite.
Nótese que ningún nodo de entrada puede ser parte de una trayectoria cerrada ya que cada
nodo en un lazo debe tener al menos una rama que llegue al nodo y al menos otra rama
saliendo.
Se dice que un lazo es disyunto cuando no se tiene un nodo en común.

Definition 10 La ganancia del trayecto es el producto de las funciones de transferencia de


todas las ramas del trayecto.

Es claro que para un sistema dado pueden existir varias formas de realizar el diagrama
de flujo. Para determinar la relación entrada salida, se puede reducir el diagrama de flujo
utilizando álgebra (similar a lo que vimos previamente), o se puede utilizar le ley de Mason
que definimos a continuación. La función de transferencia entre un nodo de salida y uno de
entrada, está dada por
n
1 X
(2.24) F (s) = P k ∆k
∆ k=1

donde n es el número de trayectos directos, Pk es la ganancia del trayecto directo k, ∆ es el


determinante del diagrama, y ∆k es el cofactor del determinante de la k-ésima trayectoria
directa del diagrama eliminando los lazos que se tocan en el k-ésimo camino directo; esto es,
se eliminan los lazos que tocan el camino directo Pk . ∆ se define a continuación.
X X X
∆ =1 − La + Lb Lc − Ld Le Lf +...
| a{z } b,c
| {z } |
d,e,f
{z }
Suma de todas las Suma de los productos Suma de los productos
ganancias de ganancias de ganancias de
lazos individuales lazos disyuntos (dos) lazos disyuntos (tres)
44 CAPÍTULO 2. MODELAMIENTO DE SISTEMAS
Capı́tulo 3

Caracterı́sticas de los Sistemas

Pero las lenguas son sustancias radioactivas que hunden sus raı́ces en nuestro
corazón más primitivo, en la oscura e irracional memoria de la horda. Rosa Montero

3.1. Introducción
Como se ha visto previamente, un sistema de control se compone de una serie de
elementos que están interconectados de tal forma que se obtiene una respuesta deseada del
sistema. Ya que lo que uno desea es conocido, una señal proporcional al error producido entre
la señal deseada y la actual se puede generar (ver Figura 4.1p213). Para ello, algún tipo de
retroalimentación es necesaria, la cual redundará en un mejor comportamiento del sistema.
Es claro que este tipo de retroalimentación aparece en varios sistemas en la naturaleza, como
lo son los sistemas biológicos y fisiológicos.
ANADIR FIGURA
Para poder entender las ventajas y caracterı́sticas a la hora de introducir la retroali-
mentación, comparemos con un sistema en malla abierta como el de la Figura...
ANADIR FIGURA
En este caso, es claro que la perturbación TD (s) influye directamente Y (s), por lo que en
ausencia de retroalimentación, el sistema de control es bastante sensible a las perturbaciones
y a los cambios en los parámetros de G(s).
Por otro lado, un sistema retroalimentado negativamente serı́a como el que se observa
en la Figura...
ANADIR FIGURA
A pesar de la complejidad, se tiene una serie de ventajas como:

1. Decremento de la sensitividad del sistema a variaciones en los parámetros del proceso.

2. Mejora el rechazo a perturbaciones.

3. Mejora la atenuación de la medición del ruido.

45
46 CAPÍTULO 3. CARACTERÍSTICAS DE LOS SISTEMAS

4. Reduce el valor del error en estado estacionario del sistema.

5. Más fácil de controlar y ajustar la respuesta transitoria del sistema.

3.2. Señal de Error


El sistema de la Figura... tiene tres entradas (i.e., R(s), D(s), N (s)), y una salida
Y (s). El error de seguimiento estarı́a dado por

E(s) = R(s) − Y (s)

Si asumimos que H(s) = 1 por simplicidad, se tiene que

Gc (s)Gp (s) Gp (s) Gc (s)Gp (s)


(3.1) Y (s) = R(s) + D(s) − N (s)
1 + Gc (s)Gp (s) 1 + Gc (s)Gp (s) 1 + Gc (s)Gp (s)

Por lo que el error vendrı́a dado por

1 Gp (s) Gc (s)Gp (s)


(3.2) E(s) = R(s) − D(s) + N (s)
1 + Gc (s)Gp (s) 1 + Gc (s)Gp (s) 1 + Gc (s)Gp (s)

Definamos la función
L(s) = Gc (s)Gp (s)
como la ganancia de lazo, lo cual darı́a

1 Gp (s) Gc (s)Gp (s)


E(s) = R(s) − D(s) + N (s)
1 + L(s) 1 + L(s) 1 + L(s)

Por otro lado, se define


F (s) = 1 + L(s)
con lo que la función de sensitividad serı́a
1
(3.3) S(s) =
F (s)

y la función de sensitividad complementaria serı́a

L(s)
C(s) =
1 + L(s)

Por lo tanto (3.2) se convertirı́a en

(3.4) E(s) = S(s)R(s) − S(s)Gp (s)D(s) + C(s)N (s)

Analizando (3.4) se puede ver que para un Gp (s) dado, si queremos minimizar el error,
se necesita que S(s) y C(s) sean lo más pequeños posibles. Sin embargo, ambas funciones
dependen de Gc (s), y además
S(s) + C(s) = 1
3.3. SENSITIVIDAD DE SISTEMAS DE CONTROL PARA VARIACIONES DE PAR ÁMETROS47

Por lo que no podrı́an minimizarse ambas funciones al tiempo. Para poder entender qué sig-
nifica que una función sea grande o no, analicemos la magnitud de L(s), i.e., |L(jω)| a
lo largo de un rango de frecuencias ω de interés. Para reducir la influencia de D(s) en
E(s) se quiere que L(s) sea grande en el rango de frecuencias que caracterizan la perturba-
Gp (s)
ción. Por ende, 1+L(s) será pequeño, haciendo que la influencia de D(s) disminuya. Al tener
L(s) = Gc (s)Gp (s) se requiere que la magnitud de Gc (s) sea alta. Para atenuar la influencia
del ruido N (s) en E(s), se requiere que L(s) sea pequeño en el rango de frecuencias que
L(s)
caracterizan el ruido. Por ende, 1+L(s) será pequeño, haciendo que Gc (s) tenga que tener una
magnitud pequeña en ese mismo rango de frecuencias.

3.3. Sensitividad de Sistemas de Control para Varia-


ciones de Parámetros
Un proceso Gp (s) está sujeto a una gran cantidad de variaciones en sus parámetros que
afectan el proceso de control. En un sistema de malla abierta esta redundarı́a en bastantes
errores en la salida, mientras que en un sistema de malla cerrada esto podrı́a reducirse gracias
al sensado de la salida en la entrada. Para ello, la sensitivdad es de vital importancia.
Por ejemplo, si Gc Gp >> 1 para toda frecuencia, la salida serı́a Y (s) ≈ R(s) cuando
D(s) = N (s) = 0. Esto implicarı́a que la salida y la entrada serı́an similares, pero G c Gp >> 1
causarı́a oscilaciones y se podrı́a llegar a la inestabilidad del sistema.
El hecho de que aumente la magnitud de la ganancia de lazo, disminuye el efecto de
Gp (s) en la salida, es de mucha utilidad. Por lo tanto, la primera ventaja de un sistema
retroalimentado es que el efecto en las variaciones de los parámetros del proceso Gp (s) se ve
reducida.
Supongamos que la planta se ve sujeta a una serie de cambios en los parámetros (e.g.,
cambios del ambiente, envejecimiento) de tal forma que la verdadera función de transferencia
del proceso es
Gp (s) + ∆Gp (s)
Consideremos los efectos que se producen en el error E(s) debidos a ∆Gp (s), asumiendo que
D(s) = N (s) = 0, y que sólo tenemos como entrada la referencia.

1
E(s) + ∆E(s) = R(s)
1 + Gc (s)(Gp (s) + ∆Gp (s))

Sabiendo la relación que existe entre E(s) y R(s), se tiene que

Gc (s)∆Gp (s)
∆E(s) = − R(s)
(1 + Gc (s)(Gp (s) + ∆Gp (s)))(1 + Gc (s)Gp (s))

Por lo general, Gc (s)Gp (s) >> Gc (s)∆Gp (s), i.e.,

Gc (s)∆Gp (s)
∆E(s) ≈ − R(s)
(1 + L(s))2
48 CAPÍTULO 3. CARACTERÍSTICAS DE LOS SISTEMAS

Esto quiere decir que el error se ve reducido por un factor 1 + L(s), el cual por lo general
se hace mucho más grande que 1 en el rango de frecuencias de interés. Es decir que por lo
general, 1 + L(s) ≈ L(s), haciendo que

1 ∆Gp (s)
∆E(s) ≈ − R(s)
L(s) Gp (s)

La sensitividad se verá reducida para cambios en el proceso siempre y cuando L(s) sea grande,
i.e., sensitividad S(s) menor. Para este caso, la sensitividad del sistema se define como la
proporción de cambio en la función de transferencia del sistema a cambios en el Gp (s) para
pequeños cambios incrementales. Es decir, si la función de transferencia del sistema es

Y (s)
T (s) =
R(s)

∆T (s)/T (s)
S(s) =
∆Gp (s)/Gp (s)
En el lı́mite, para pequeños cambios, esta ecuación se convierte en

∂T (s) Gp (s) ∂ ln T (s)


SGT p (s) = =
∂Gp (s) T (s) ∂ ln Gp (s)

La sensitividad en malla abierta a cambios de la planta Gp (s) es igual a 1. Demostremos que


en malla cerrada, se tiene lo mismo obtenido previamente.

Gc (s)Gp (s)
T (s) =
1 + Gc (s)Gp (s)

∂T (s) Gp (s) Gc (s) Gp (s) 1


SGT p (s) = = Gc (s)Gp (s)
=
∂Gp (s) T (s) (1 + Gc (s)Gp (s))2 1 + Gc (s)Gp (s)
1+Gc (s)Gp (s)

En muchos casos, lo que se busca obtener es la sensitividad a variaciones de un parámetro


α de la función de transferencia del proceso Gp (s), i.e., SαT . Utilizando la regla de la cadena,
se tiene que
SαT (s) = SGT p (s)SαGp (s)
Cuando la función de transferencia del sistema depende de un parámetro α que está sujeto
a variaciones del estado, i.e.,
N (s, α)
T (s) =
D(s, α)
Su función de sensitividad estarı́a dada por

T ∂ ln T (s) ∂ ln N (s, α) ∂ ln D(s, α)
Sα (s) = = − = SαN (s) − SαD (s)
∂ ln α ∂ ln α α0 ∂ ln α α0

donde α0 es el valor nominal del parámetro.


3.3. SENSITIVIDAD DE SISTEMAS DE CONTROL PARA VARIACIONES DE PAR ÁMETROS49

Ejemplo 3.3.1 Se tiene el sistema en malla cerrada con retroalimentación negativa unitaria
y ganancia de lazo 1+K−K a
a (β+1)
como se ve en la Figura...
ANADIR FIGURA
La función de transferencia está dada por
−Ka
1+Ka (β+1) −Ka
T (s) = =
1 − 1+KKa (β+1)
a
1 + Ka β

La sensitividad a variaciones de Ka serı́a


T
SK a
(s) = SGT SKG
a
∂T (s) G(s) ∂G(s) Ka
= ∂G(s) T (s) ∂Ka G(s)
∂T (s) Ka
= ∂G(s) T (s)
1
= 1+K aβ
50 CAPÍTULO 3. CARACTERÍSTICAS DE LOS SISTEMAS
Capı́tulo 4

Respuesta de los Sistemas

Hemos renunciado a buscar un mundo perfecto quizá porque sabemos que la


perfección es imposible y a lo mejor indeseable. Todos aspiramos con las justas a ser
sobrevivientes dignos y nos resignamos con humor a las injusticias, la corrupción y
la violencia que vemos a diario. Alonso Cueto

Antes de iniciar con el diseño de los controladores, necesitamos entender cómo se com-
portan los sistemas con respecto a diversas entradas. Los sistemas que analizaremos son
sistemas lineales e invariantes en el tiempo (LTI), por lo cual se utilizará la transformada
de Laplace para poder analizar el comportamiento de sistemas de primero y segundo orden.
Luego, se muestra que los sistemas de orden superior son una combinación de las respuestas
de primer y segundo orden. Las entradas más comunes en los sistemas de control, de las
cuales cuatro se ilustran en la Figura 4.1. Estas serı́an:

Entrada paso (escalón unitario): Este tipo de entrada se encuentra en varios sistemas
como lo son sistemas de temperatura donde se quiere conservar la misma temperatura
en algún lugar determinado.

Entrada rampa: En el aterrizaje automático de un avión, la aeronave sigue una entrada


rampa que le indicará la pendiente de planeación a seguir (por lo general es igual a 3).
Otro ejemplo que se encuentra en la industria es el del tratamiento del calentamiento
del acero. La temperatura se incrementa de forma gradual a lo largo del tiempo.

Entrada sinusoidal: Su utilidad no parece evidente a simple vista, ya que por lo general
no se requiere que un sistema “siga” este tipo de señales. Sin embargo, si se conoce
la respuesta de este tipo de entradas en sistemas LTI para todas las frecuencias, se
podrá tener una descripción más completa del sistema. De esta forma, se podrán diseñar
compensadores o controladores para un sistema.

Hay otro tipo de entradas que se pueden utilizar como son las parabólicas, o aquellas
que podrı́an ser descritas de forma general como

r(t) = tn

51
52 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

Es claro que como su transformada de Laplace es


n!
R(s) =
sn+1
su respuesta estará relacionada con otras señales de prueba.

Entrada paso Entrada rampa


2 10

8
1.5

6
1
4

0.5
2

0 0
0 2 4 6 8 10 0 2 4 6 8 10
tiempo tiempo

Entrada senoidal Entrada parabólica


1 100

80
0.5

60
0
40

−0.5
20

−1 0
0 2 4 6 8 10 0 2 4 6 8 10
tiempo tiempo

Figura 4.1: Diversos tipos de entradas comunes en el análisis de sistemas de control.

En el siguiente análisis se verá que la respuesta en tiempo de un sistema está compues-


to de dos elementos: (i) la respuesta transitoria (o respuesta natural), que es aquella que
representa la forma como se va desde el estado inicial hasta el estado final, y (ii) la respuesta
en estado estacionario (o entrada forzada), que representa el comportamiento del sistema
cuando el tiempo tiende a infinito.
Para el siguiente análisis, se presentan ejemplos y simulaciones en Matlab y Simulink.
Las siguientes notas han sido adaptadas a partir de varios textos de control (e.g., [21, 30,
27, 6]).

4.1. Sistemas de Primer Orden


Asumamos que se tiene un diagrama en bloques como el que se muestra en la Figura...
Utilizando lo visto en el capı́tulo anterior, se tiene que la función de transferencia viene dada
por
K
(4.1) H(s) =
τs + 1
K
La salida de este sistema es igual a C(s) = R(s) τ s+1 , donde R(s) puede ser una entrada
paso, rampa, o sinusoidal. Algunas veces vale la pena estudiar la entrada impulso.
4.1. SISTEMAS DE PRIMER ORDEN 53

4.1.1. Entrada paso


1
Si se tiene una entrada paso, entonces R(s) = s
por lo que, utilizando fracciones
parciales, C(s) se vuelve igual a

K K
C(s) = −
s s + τ1

Tomando la transformada inversa de Laplace, se obtiene que


 t

(4.2) c(t) = K 1 − e− τ

En lı́neas generales, la salida c(t) se puede escribir como

c(t) = css (t) + ctr (t)

donde ctr (t) corresponde a la respuesta que va del estado inicial al estado final, y css (t)
corresponde a la manera como se comporta la salida del sistema conforme t → ∞.
La Figura 4.2 ilustra el resultado de (4.2) cuando K = 1, y τ = 10. En (4.2) la primera
parte de la respuesta corresponde a la respuesta en estado estacionario, mientras que la
t
segunda parte, i.e., Ke− τ corresponde a la respuesta transitoria del sistema. Esto se debe a
que si tomamos el lı́mite cuando t tiende a infinito de (4.2) , obtenemos que

lı́m c(t) = lı́m sC(s) = K


t→∞ s→0

Por lo cual K corresponde al valor final o el valor en estado estable. La constante τ se conoce
como la constante de tiempo, y como se puede observar en la figura, después de 4τ o 5τ el
sistema ya está cerca del valor final. Por lo general, para t ≥ 4τ la respuesta permanece
dentro del 2 % del valor final.
Otro punto interesante a analizar es lo que puede verse en la Figura 4.2. Cuando t = τ ,
el valor final es igual al 63.2 % del valor final, ya que c(τ ) = K − Ke−1 = 0,632K. Cuando
t = 2τ se llega al 86.5 % del valor final. Estos dos puntos se representan en la Figura 4.2.
Ası́ pues, cuando la constante de tiempo τ es pequeña, la respuesta es más rápida, y esto se
puede ver porque la pendiente de la curva en t = 0 es igual a Kτ .

4.1.2. Entrada rampa


En este caso, la función de transferencia expandida viene dada por

K Kτ Kτ
C(s) = − +
s 2 s s + τ1

Por lo tanto, en tiempo esto viene siendo equivalente a


t
c(t) = Kt − Kτ + Kτ e− τ para t ≥ 0
54 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

Step Response

0.9

0.8

0.7

0.6

Amplitude
0.5

0.4

0.3

0.2

0.1

0
0 10 20 30 40 50 60 70 80
Time (sec)

Figura 4.2: Respuesta a entrada paso del sistema de primer orden (4.1) cuando K = 1, y
τ = 10. La lı́nea punteada roja representa el valor final cuando se ha cumplido el primer τ ,
mientras que la punteada negra representa el valor final cuando se han cumplido 2τ .

La Figura 4.3 muestra un par de ejemplos de este tipo de respuesta. Para este caso, Kt − Kτ
t
corresponde al estado estacionario, mientras que Kτ e− τ corresponde a la respuesta natural.
El error en este caso vendrı́a dado por e(t) = Kr(t) − c(t), por lo que
t
e(t) = Kτ + Kτ e− τ

Tomando el lı́mite de esta señal, tendremos que lı́mt→∞ e(t) = Kτ . Por lo tanto, entre más
pequeño Kτ menor será la diferencia entre la entrada y la salida en estado estacionario. Esto
se puede apreciar más claramente si comparamos las dos gráficas en la Figura 4.3. En el
panel superior el valor del error es 10, mientras que en el segundo caso es igual a 1. De esta
forma, se puede observar claramente como el error disminuye.

4.2. Sistemas de Segundo Orden


Consideremos el diagrama en bloques que se ve en la Figura 4.4, el cual podrı́a ser
equivalente a un sistema que representa un servosistema con una función de transferencia
dada por C(s)
R(s)
K
= Js2 +Bs+K , donde K es una constante de proporcionalidad, B es una constan-
te de fricción y J es una constante de inercia. Manipulando algebráicamente esta ecuación,
obtendremos
K
C(s)
= 2 BJ
R(s) s + J s + KJ
Una forma conveniente y estándar de escribir dicha expresión es

C(s) wn2
(4.3) = 2
R(s) s + 2ζwn s + wn2
4.2. SISTEMAS DE SEGUNDO ORDEN 55

Respuesta rampa de un sistema de primer orden con τ = 10

80

70

60

50

Amplitude
40

30

20

10

0
0 10 20 30 40 50 60 70 80
Time (sec)

Respuesta rampa de un sistema de primer orden con τ = 1

80

70

60

50
Amplitude

40

30

20

10

0
0 10 20 30 40 50 60 70 80
Time (sec)

Figura 4.3: Respuesta a entrada rampa del sistema de primer orden (4.1) cuando K = 1, y
τ = 10 para el panel superior, y τ = 1 para el panel inferior.

Esta forma se conoce como la forma estándar del sistema de segundo orden. Para el caso
especı́fico del servosistema descrito previamente, wn2 = KJ , y 2ζwn = 2σ = BJ . El término
wn se conoce como la frecuencia natural no amortiguada, ζ es el factor de amortiguamiento
relativo del sistema, y σ es la atenuación. El factor
√ de amortiguamiento relativo ζ es el
cociente real B y el amortiguamiento crı́tico Bc = 2 JK.

Figura 4.4: Sistema de segundo orden [6]. En a) se tiene el grafo, mientras que en b) el
diagrama en bloques.

El comportamiento dinámico del sistema se describe en términos de wn y ζ. Como se vio


previamente, si 0 < ζ < 1 los polos del sistema son complejos conjugados y se encuentran
ubicados en el semi-plano izquierdo del plano-s. En este caso, se dice que el sistema es
subamortiguado y su respuesta transitoria es oscilatoria. Si ζ = 0, la respuesta transitoria no
es amortiguada, y si ζ = 1 el sistema se denomina crı́ticamente amortiguado; finalmente, si
ζ > 1 el sistema es sobreamortiguado. A continuación se analizarán algunos de estos casos.
56 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

4.2.1. Respuesta a Entrada Paso


Caso Subamortiguado (0 < ζ < 1)

La Ecuación (4.3) se puede escribir en este caso como


C(s) wn2
=
R(s) (s + ζwn + jwd )(s + ζwn − jwd )
p
donde la frecuencia natural amortiguada del sistema wd es igual a wd = wn 1 − ζ 2 . Si R(s)
es una entrada paso, se tiene que
wn 2
C(s) = s(s+ζwn +jwd )(s+ζwn −jwd )
1 s+2ζwn
= s
− s2 +2ζw n +wn
2

= 1
s
− (s+ζwn )2 +w2 − (s+ζwζwn )n2 +w2
s+ζwn
d d

Recordando la transformada inversa de Laplace para este caso, se tiene que


 
−1 s + ζwn
L = e−ζwn t cos(wd t)
(s + ζwn )2 + wd2
 
−1 wd
L = e−ζwn t sin(wd t)
(s + ζwn )2 + wd2
Esta última ecuación podrı́a asociarse a la que tenı́amos previamente de la siguiente forma
 wd  !
ζw n w ζ
L −1 d
= p e−ζwn t sin(wd t)
(s + ζwn )2 + wd2 (1 − ζ 2 )
Por lo tanto,
!
ζ
c(t) = 1 − e−ζwn t cos(wd t) − p e−ζwn t sin(wd t)
(1 − ζ 2 )
√ C

Si se utiliza la identidad trigonométrica C cos β + D sin β = C 2 + D2 sin β + tan−1 D
, se
obtiene
p !
1 −ζwn t −1 (1 − ζ 2 )
(4.4) c(t) = 1 − p e sin wd t + tan
(1 − ζ 2 ) ζ

De (4.4) se puede deducir que la frecuencia de oscilación por parte de la respuesta transitoria
es igual a wd , i.e., depende directamente de ζ. Si analizáramos la señal de error para este
caso, obtendrı́amos que
e(t) = r(t) − 
c(t) 
−ζwn t ζ
= e cos(wd t) + √ sin(wd t)
(1−ζ 2 )

Como se puede ver, la señal de error presenta una oscilación amortiguada, por lo que si t →
∞, entonces no existe error. El único caso crı́tico serı́a si ζ = 0, donde se tiene una oscilación
permanente, con una frecuencia wn (porqué?). Un ejemplo de cómo serı́a la respuesta en
tiempo para diversos casos se ilustra en la Figura 4.5.
4.2. SISTEMAS DE SEGUNDO ORDEN 57

Figura cuando ξ = 0 Figura cuando ξ = 0.2


2 1.6

1.8
1.4
1.6
1.2
1.4
1
1.2

1 0.8

0.8
0.6
0.6
0.4
0.4
0.2
0.2

0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20

Figura cuando ξ = 0.4 Figura cuando ξ = 0.8


1.4 1.4

1.2 1.2

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20

Figura 4.5: Respuesta a entrada paso del sistema de segundo orden descrito por (4.3). En
este caso, se tiene que ζ = 0 para el panel superior izquierdo, ζ = 0,2 para el panel superior
derecho, ζ = 0,4 para el panel inferior izquierdo, y ζ = 0,8 para el panel inferior derecho. En
todos los casos, wn = 24.

Caso Crı́ticamente Amortiguado (ζ = 1)

Si los dos polos de (4.3) son iguales, el sistema tendrı́a que ζ = 1, por lo que a entrada
paso se tiene que
wn2
C(s) =
s(s + wn )2
La transformada inversa de Laplace serı́a
(4.5) c(t) = 1 − e−wn t (1 + wn t)
Esto parte de la base que si ζ = 1, tocarı́a aproximar uno de los factores de (4.4) a
sin(wd t)
lı́m p = wn t
ζ→1 1 − ζ2
La Figura 4.6 muestra un ejemplo de como responderı́a el sistema para este caso.

Caso Sobreamortiguado (ζ > 1)

En este caso, los dos polos de la función de transferencia en (4.3) son reales negativos
y diferentes. Para una entrada paso, se tiene que
wn2
C(s) = p p
s(s + ζwn + wn ζ 2 − 1)(s + ζwn − wn ζ 2 − 1)
La transformada inversa de Laplace nos da
 
wn e−s1 t e−s2 t
(4.6) c(t) = 1 + p −
2 ζ2 − 1 s1 s2
58 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

Figura cuando ξ = 1
1

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
0 2 4 6 8 10 12 14 16 18 20

Figura 4.6: Respuesta a entrada paso del sistema de segundo orden descrito por (4.3) cuando
ζ = 1 y wn = 24.

p p
donde s1 = ζwn + wn ζ 2 − 1 y s2 = ζwn − wn ζ 2 − 1. Si se analiza (4.6) se puede ver
que se tienen dos factores exponenciales que decaen. Entre más grande es el valor de ζ, uno
de las exponenciales decae más rápidamente (s2 serı́a considerablemente menor a s1 , por lo
que la exponencial asociada a este polo podrı́a “despreciarse”). El efecto que tiene s2 en el
sistema serı́a muchı́simo más relevante, por lo cual (4.6) se aproxima mediante

C(s) s2
=
R(s) s + s2

Esta respuesta es similar a la respuesta de un sistema de primer orden. La Figura 4.7 muestra
un ejemplo de esta situación.

Entrada Impulso

Para este caso, se tendrı́a que

wn2
C(s) =
s2 + 2ζwn s + wn2

Por lo tanto, la respuesta en tiempo del sistema estarı́a dada por

wn  p 
−ζwn t 2
c(t) p e sin wn 1 − ζ t
1 − ζ2

Es claro que este factor es la derivada del término que se obtuvo en la sección anterior para
entrada paso. En la Figura... se observa el comportamiento para diferentes ζs.
4.2. SISTEMAS DE SEGUNDO ORDEN 59

Figura cuando ξ = 2
1

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
0 2 4 6 8 10 12 14 16 18 20

Figura 4.7: Respuesta a entrada paso del sistema de segundo orden descrito por (4.3) cuando
ζ = 2 y wn = 24.

4.2.2. Caracterı́sticas Temporales del Sistema Subamortiguado


Para este caso, se asumirá que se tiene una función de transferencia de la forma
k
H(s) =
s2 + 2ζwn s + wn2
Esto puede ser escrito como

wn2
(4.7) H(s) = K1 = K1 H1 (s)
s2 + 2ζwn s + wn2
Por lo general, al diseñar un sistema de control se especifican ciertas caracterı́sticas que se
definen en el ámbito del tiempo. Estas caracterı́sticas están ligadas a la respuesta transitoria,
la cual depende de la entrada o la perturbación que se le aplique al sistema. La entrada
clásica que se utiliza para ver dicho comportamiento es el escalón unitario, ya que es fácil
de generar y es lo suficientemente drástico para observar el comportamiento del sistema
(además, al conocer su respuesta en tiempo, se pueden obtener todas las demás respuestas).
Como esta respuesta depende de las condiciones iniciales, se asumirá que éstas son cero, i.e.,
el sistema está en reposo al inicio.
Asumiendo que se tiene una entrada paso y el sistema es subamortiguado, se vio pre-
viamente que esto puede ser escrito como

wn2
C(s) = K1
s(s2 + 2ζwn s + wn2 )
 
s+2ζwn
C(s) = K1 1s − s2 +2ζw n s+wn
2
 
= K1 s − (s+ζwn )2 +w2 − (s+ζwζwn )n2 +w2
1 s+ζwn
d d
60 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

Utilizando lo visto previamente, se obtiene finalmente que


p !!
1 (1 − ζ 2 )
(4.8) c(t) = K1 1− p e−ζwn t sin wd t + tan−1
2
(1 − ζ ) ζ
Para simplificar nuestro análisis, se asumirá que K1 = 1.
La Figura 4.10 muestra un ejemplo de la señal c(t) en (4.3). En esta figura, se pueden
identificar cinco puntos importantes:

tr : tiempo de subida. Es el tiempo que se necesita para subir del 10 al 90 por ciento
del valor final (como se muestra en la Figura 4.10). Sin embargo, esta definición aplica
más para el caso sobreamortiguado. La definición que se utilizará acá es el tiempo que
toma la señal de pasar del 0 al 100 % del valor final.
Utilizando (4.4), tenemos que el tiempo de subida viene dado cuando c(tr ) = 1. Esto
quiere decir que
p !
1 −ζwn tr −1 (1 − ζ 2 )
1 = c(t) = 1 − p e sin wd tr + tan
(1 − ζ 2 ) ζ

Como e−ζwn tr 6= 0, esta ecuación se puede escribir como


1
tan(wd tr ) = − p
(1 − ζ 2 )
En la Figura 4.8 se muestra una solución gráfica para poder despejar la tangente en la
ecuación anterior. Eso serı́a igual a
 
1 −1 wd
tr = tan
wd −σ
Entonces,
π−β
tr = wd

tp : tiempo de pico. Es el tiempo que se requiere para que la respuesta alcance el primer
pico del overshoot.
Para esto, se tiene que hallar la derivada de c(t) evaluada en tp , ya que esta será igual
a 0.
dc
=0
dt t=tp
Esto serı́a equivalente a
! !
−ζwn tp ζ −ζwn tp ζwd
ζwn e cos wd tp + p sin wd tp +e wd sin wd tp − p cos wd tp =0
1 − ζ2 1 − ζ2
Esto es equivalente a
w
p n e−ζwn tp sin wd tp = 0
1 − ζ2
Lo que darı́a que sin wd tp = 0, por lo que wd tp = 0, π, 2π, . . .. Como el tp corresponde
al primer pico,
4.2. SISTEMAS DE SEGUNDO ORDEN 61

Figura 4.8:
p Ubicación de los polos en el plano-s [6]. Para este caso β = θ, σ = ζwn , y
wd = w n 1 − ζ 2 .

π
tp = wd

Si el sistema es sobreamortiguado, el tiempo de pico no estarı́a definido, y en este caso


el diseño suele tener en cuenta tr .

M P : Máximo pico porcentual. Es el valor del máximo pico de la respuesta medido con
respecto al valor de estado estable. El valor se define por lo general como
c(tp ) − c(∞)
MP = × 100 %
c(∞)
Utilizando esta idea, se obtiene que
!
−ζwn wπ ζ
M P = −e d cos π − p sin π
1 − ζ2

Por lo tanto,

− √ ζπ
MP = e 1−ζ 2 × 100 %

ts : tiempo de asentamiento. Es el tiempo que se requiere para que la respuesta del


sistema llegue a un rango dentro del cual se considera que el sistema está en estado
estable. Por lo general se utilizan las reglas del 2 y el 5 % (i.e., estar dentro del 2 o el
5 % del valor final).
e −ζwn t
Si se analiza el sistema, se puede ver que las curvas 1± √ son las curvas envolventes
1−ζ 2
de la respuesta transitoria (ver Figura 4.9). Por lo tanto, la constante de tiempo de
estas curvas es τ = ζw1 n . Como bien se mencionaba previamente, el ts depende de la
62 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

tolerancia, i.e., ±2 % o ±5 % del valor final. Si es el 2 % del valor final, se tendrá que
esperar 4τ para que el sistema ingrese dentro de esta banda, mientras que si es el 5 %,
se tendrá que esperar 3τ para que el sistema llegue a este rango. En el primer caso,
4
ts = ζwn
, 2%

mientras que en el segundo caso,


3
ts = ζwn
, 5%

Figura 4.9: Curvas envolventes para la respuesta a entrada paso del sistema de segundo orden
[21].

Ganancia DC: Este es el valor en estado estable del sistema.

A partir de todo esto, es claro que si uno desea una respuesta rápida, wn debe ser
grande. Además, para limitar M P y reducir ts , ζ no debe ser demasiado pequeño. La Figura
4.11 ilustra cómo serı́a la relación en este caso.

Ejemplo 4.2.1 Halle los valores de K y Kh en la Figura 4.12 para que el M P = 20 % y


tp = 1.
La función de transferencia en este caso está dada por
C(s) K
= 2
R(s) s + s(1 + KKh ) + K
4.2. SISTEMAS DE SEGUNDO ORDEN 63

Step Response
1.4

1.2

MP
DC gain
1

0.8
Amplitude

0.6

0.4

0.2

tr
0
tp ts
Time (sec)

Figura 4.10: Respuesta a entrada paso del sistema de segundo orden descrito por (4.7). En
este caso, K1 = 1, wn = 23,53, and ζ = 0,46.

Figura 4.11: Relación entre M P y ζ. Además, se incluye la relación entre wn tp y el factor de


amortiguamiento [6].

Si comparamos con (4.3), se puede deducir que wn2 = K y que 2ζwn = 1 + KKh . Utilizando
las ecuaciones para M P y tp podemos obtener los valores de ζ y wn , para luego obtener las
variables deseadas. En este caso, se tiene que

− √ ζπ
e 1−ζ 2 = 0,2
64 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

K
1 1
s2+s
R(s) C(s)
Transfer Fcn
Subsystem

1+sKh

Figura 4.12: Diagrama en bloques.

Despejando, se obtiene que ζ = 0,456. Como


π
tp =
wd
Por lo que al despejar se obtiene que wn = 3,53. Con esto se tiene que K = 12,46 y Kh =
0,1781. La Figura 4.13 muestra el resultado de la simulación utilizando estos valores. Es
claro que los parámetros de diseño fueron cumplidos.

Step Response
1.4

System: untitled1
Peak amplitude: 1.2
Overshoot (%): 20
At time (sec): 0.988
1.2

System: untitled1
System: untitled1 Final Value: 1
Settling Time (sec): 2.36
1

System: untitled1
Rise Time (sec): 0.442

0.8
Amplitude

0.6

0.4

0.2

0
0 0.5 1 1.5 2 2.5 3 3.5 4
Time (sec)

Figura 4.13: Respuesta a entrada paso del sistema de segundo orden diseñado para obtener
los parámetros MP y tp definidos en el ejercicio.

4.3. Sistemas de Orden Superior


Por lo general, el análisis que se ha hecho de sistemas de segundo orden nos da una clara
visión del comportamiento de los sistemas. Un concepto que aparece en el análisis previo, es
el de raı́ces dominantes. Estas raı́ces, que para el caso anterior eran los polos del sistema,
4.3. SISTEMAS DE ORDEN SUPERIOR 65

son las que contienen la mayor cantidad de información sobre el comportamiento del mismo.
Para sistemas de orden superior a dos, la respuesta a entrada paso se puede asemejar a lo
visto previamente, haciendo algunas suposiciones (de esta forma, no es necesario obtener la
transformada inversa de Laplace para determinar el comportamiento del sistema).
Por ejemplo, tomemos el sistema de tercer orden,
1
T (s) =
(s2 + 2ζs + 1)(γs + 1)

Si se mostrara el comportamiento en el plano-s se obtendrı́a lo que se observa en la Figura


4.14, el cual serı́a un sistema normalizado con wn = 1. Clement en (falta ref...) demostró que
la performance del sistema calculada por M P y ts se podrı́a asemejar a un sistema de orden
dos cuando
1
≥ 10|ζwn |
γ
Es decir, que la respuesta de un sistema de tercer orden puede aproximarse a uno de segundo
orden por sus raı́ces dominantes siempre y cuando la parte real de dichas raı́ces sea menor
1
que 10 de la parte real de la tercer raı́z.

Figura 4.14: Ubicación de polos de un sistema de tercer orden en el plano-s [6].

Por otro lado cabe aclarar que el análisis de un sistema de segundo orden es válido si
la función de transferencia no tiene ceros finitos, ya que si estos están localizados relativa-
mente cerca de los polos complejos dominantes, la respuesta transitoria del sistema se verı́a
altamente afectada. Por ejemplo, si se tiene un sistema cuya función de transferencia es de
la forma  2
ωn
a
(s + a)
T (s) = 2
(s + 2ζωn s + ωn2 )
66 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

El porcentaje de overshoot a una respuesta escalón unitario será función del término a/ζ,
cuando ζ ≤ 1, como se puede ver en la Figura 4.15.

Figura 4.15: a) Porcentaje de overshoot como función de ζ y ωn cuando un sistema de segundo


orden posee un cero. b) Respuesta a entrada paso para diversos valores de a/(ζωn ). A=5,
B=2, C=1, D=0.5, cuando ζ = 0,45 [6].

Otro ejemplo de lo que puede suceder cuando se le añade un polo y un cero adicional
se tiene en el siguiente caso. Asuma que se tiene un sistema cuya función de transferencia es
de la forma  2
ωn
a
(s + a)
T (s) = 2
(s + 2ζωn s + ωn2 )(1 + τ s)
Cuyos polos y ceros pueden afectar la respuesta transitoria del sistema. Si a  ζω n y
τ  1/(ζωn ), entonces el polo y el cero no tendrán mucho efecto sobre la respuesta a
entrada paso. Sin embargo, si se tuviera un sistema donde

62,5(s + 2,5)
T (s) =
(s2 + 6s + 25)(s + 6,25)

Entonces, sı́ habrı́a inconvenientes. Por ejemplo, la ubicación de los polos en el plano-s serı́a
la que se observa en la Figura 4.16.
Nótese que la ganancia DC es igual a 1 (i.e., T (0) = 1), por lo que se espera tener un
error en estado estacionario nulo a entrada paso. A su vez, se tiene que ζωn = 3, τ = 0,16,
4.4. UBICACIÓN DE LAS RAÍCES EN EL PLANO-S Y LA RESPUESTA TRANSITORIA67

Figura 4.16: Ubicación de los polos y ceros en el plano-s para un sistema de tercer orden [6].

y a = 2,5. Si quisiéramos despreciar el polo real, la función de transferencia serı́a

10(s + 2,5)
T (s) =
(s2 + 6s + 25)

donde el factor de 62.5 cambió por el de 10 para preservar el valor DC de la función. Es


claro que en este caso se tendrı́a que ζ = 0,6, y ωn = 5, lo que implicarı́a que se tienen polos
dominantes acompañados de un cero con a/(ζωn ) = 0,833. Utilizando Matlab, se tiene que
el M P = 55 %, y el ts = 1,33 segundos. Sin embargo, si graficáramos la respuesta a entrada
paso del sistema, se ve que se obtiene un overshoot mucho menor (i.e., 38 %), y que el ts
aumenta a 1.6 segundos (ver Figura 4.17). Es decir que los efectos de un tercer polo en T (s)
hacen que se amortigüe el overshoot, pero que se aumente el tiempo de establecimiento. Por
lo tanto, no se puede despreciar el tercer polo en este caso.

4.4. Ubicación de las Raı́ces en el Plano-s y la Res-


puesta Transitoria
La respuesta transitoria de un sistema retroalimentado en malla cerrada puede ser
descrito en términos de la ubicación de los polos de la función de transferencia. En general
se vio que la función de transferencia está dada por
P
C(s) Pk (s)∆k (s)
T (s) = = k
R(s) ∆(s)

donde ∆(s) = 0 es la ecuación caracterı́stica del sistema. Para un sistema con ganancia de
lazo G(s) y retroalimentación negativa con ganancia H(s), la ecuación caracterı́stica serı́a
∆(s) = 1 + G(s)H(s).
Para unPsistema de malla cerrada, los polos de T (s) son las raı́ces de ∆(s) y a su vez
los polos de k Pk (s)∆k (s), por lo que la respuesta transitoria del sistema estarı́a descrita
por las raı́ces de ∆(s) (i.e., los polos y ceros de T (s) están incluidos en ∆(s)).
68 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS

Step Response

1.6

System: T2
Peak amplitude: 1.54
Overshoot (%): 54.4
1.4 At time (sec): 0.353
System: T1
Peak amplitude: 1.38
Overshoot (%): 37.9
At time (sec): 0.565
1.2

System: T2
Settling Time (sec): 1.47
1

System: T1
Settling Time (sec): 1.59
Amplitude

0.8

0.6

0.4

0.2

0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
Time (sec)

Figura 4.17: Respuesta a entrada paso para un sistema de tercer orden con un cero. Si se
desprecia el polo (-), el overshoot es mayor, pero su ts es menor. Si no se desprecia (–), se
tiene que el overshoot disminuye, haciendo que el tiempo de establecimiento aumente.

La salida de un sistema con ganancia 1 a entrada paso unitaria, donde no hay raı́ces
repetidas se puede expresar como
M N
1 X Ai X Bk + C k
C(s) = + +
s i=1 s + σi k=1 s2 + 2αk s + (αk2 + ωk2 )
donde Ai , Bk , Ck son constantes. Las raı́ces del sistema serı́an s = −σi y s = −αk ± jωk ,
por lo que al tomar la transformada inversa se tendrı́a una respuesta transitoria que serı́a la
suma de varios términos, i.e.,
M
X N
X
−σi t
c(t) = 1 + Ai e + Dk e−αk t sin ωk t + θk
i=1 k=1

donde Dk es una constante que depende de Bk y Ck , αk , ωk . La respuesta transitoria se


compone de la salida en estado estable, los términos exponenciales, y los términos senoidales
amortiguados. Para que el sistema sea estable, i.e., para que la salida sea acotada a una
entrada paso, la parte real de las raı́ces −σi y −αk debe estar ubicada en el semi-plano
izquierdo del plano-s. En la Figura 4.18 se ve la respuesta impulso para varias ubicaciones
de las raı́ces.
A medida que se vaya tomando experiencia, se va a ver que la ubicación de los ceros
también es fundamental en la respuesta del sistema. Los polos de T (s) determinan los modos
particulares que estarán presentes en la respuesta, mientras que los ceros establecerán un peso
relativo en cada uno de los modos. Por ejemplo, mover un cero cerca de un polo reducirá la
contribución relativa del modo correspondiente al polo. El ejemplo siguiente ilustra mejor
estos detalles (ver ppt para el ejemplo...).
4.4. UBICACIÓN DE LAS RAÍCES EN EL PLANO-S Y LA RESPUESTA TRANSITORIA69

Figura 4.18: Respuesta impulso para varias ubicaciones de las raı́ces en el plano-s. El complejo
conjugado no se muestra [6].
70 CAPÍTULO 4. RESPUESTA DE LOS SISTEMAS
Capı́tulo 5

Estabilidad de los Sistemas

Me costaba entender que no tenı́a que caerle bien a todos para ser respetado, ni
tampoco que el agrado o desagrado que nos procura una persona es algo caprichoso,
incapaz de ser explicado sólo por la razón
La materia del deseo, Edmundo Paz Soldán

Uno de los problemas que se tiene a la hora de diseñar los controladores, es el de la


estabilidad. Un sistema puede ser estable o inestable, pero al interactuar con otros disposi-
tivos, las caracterı́sticas pueden cambiar. Existen varios métodos, que sirven de base para el
desarrollo de controladores.

Criterio de estabilidad Routh-Hurwitz: este criterio fue de los primeros métodos de


estabilidad desarrollados. Su importancia radicaba en la consecución del número de
raı́ces con parte real positiva, con lo que se podı́a determinar si un sistema era o
no estable. Se dice que un sistema es de fase mı́nima si todos los polos y ceros están
ubicados en el semiplano izquierdo del plano s (si al menos uno se ubica en el semiplano
derecho, se dicen de fase no mı́nima).

Criterio del lugar de las raı́ces: Evans desarrolló un método gráfico que permitı́a enten-
der más claramente cómo se desplazaban los polos y ceros de la ecuación caracterı́stica.
Durante muchos años su uso fue fundamental para el desarrollo de controladores, y en
la actualidad existen herramientas de computador que permiten graficar lugares de las
raı́ces complejos.

Diagramas de Bode y Nyquist: Estas dos herramientas también permiten observar el


comportamiento de un sistema desde un punto de vista práctico.

En el siguiente análisis se presentan ejemplos y simulaciones en Matlab y Simulink, además


de la teorı́a del criterio de estabilidad de Routh-Hurwitz, además de una extensión a la parte
robusta como lo es el método de Kharitonov. Las siguientes notas han sido adaptadas a
partir de varios artı́culos y textos de control (e.g., [9, 21, 8, 14, 30, 27, 6, 25]).

71
72 CAPÍTULO 5. ESTABILIDAD DE LOS SISTEMAS

5.1. Criterio de Estabilidad Routh-Hurwitz


La función de transferencia del sistema de la Figura 6.2 se puede escribir como
C(s) G(s)
=
R(s) 1 + G(s)H(s)
o
C(s) b0 sm + b1 sm−1 + . . . + bm−1 s + bm
(5.1) = m≤n
R(s) a0 sn + a1 sn−1 + . . . + an−1 s + an
donde el denominador se conoce como la ecuación caracterı́stica del sistema. Las raı́ces de
esta ecuación definen la estabilidad del sistema, por lo que éstas tienen que estar en el
semi-plano izquierdo del plano s. Las ventajas del método establecido paralelamente por E.
J. Routh y A. Hurwitz es que no se tienen que factorizar el denominador para encontrar
exactamente la ubicación de las raı́ces. El método original se desarrollo en términos de los
determinantes, pero para explicar de una manera más clara, se utilizará una forma más
sencilla que involucra un conjunto de elementos en forma de filas y columnas. En (5.1), se
elimina cualquier raı́z cero (i.e., an 6= 0), y se hace el análisis siempre y cuando todos los
coeficientes ai sean positivos, cuando uno está interesado en estabilidad absoluta del sistema
(esto se debe a que si se tienen ai ≤ 0 y al menos un aj > 0, entonces al menos existe una
raı́z imaginaria o con una parte real positiva, lo cual implica que el sistema es inestable).

1 G(s) 1
R(s) C(s)
G(s)

H(s)

H(s)

Figura 5.1: Sistema retroalimentado.

El criterio de estabilidad parte de organizar el polinomio de la ecuación caracterı́stica


como
a0 sn + a1 sn−1 + . . . + an−1 s + an = 0
donde todos los coeficientes ai > 0. Luego, se define la siguiente tabla
sn a0 a2 a4 a6
sn−1 a1 a3 a5 a7
sn−2 b1 b2 b3 ...
sn−3 c1 c2 c3 ...
.. .. .. .. ..
. . . . .
s2 e1 e2
s f1
s0 e2
5.1. CRITERIO DE ESTABILIDAD ROUTH-HURWITZ 73

donde b1 = a1 a2a−a 1
0 a3
, b2 = a1 a4a−a 1
0 a5
, b3 = a1 a6a−a 1
0 a7
, y ası́ sucesivamente. Por ejemplo,
b1 a3 −b2 a1 b1 a5 −b3 a1 b1 a7 −b4 a1
c1 = b1
, c2 = b1
, y c3 = b1
, entre otros.
El criterio de estabilidad de Routh-Hurwitz propone que el número de raı́ces con parte
real positiva en la ecuación caracterı́stica es equivalente al número de cambios de signo
en los coeficientes de la primera columna de la “matriz”formada previamente. Si todos los
coeficientes en esta primera columna son positivos, entonces el sistema es estable.

Ejemplo 5.1.1 Determine la estabilidad del sistema

a0 s 3 + a 1 s 2 + a 2 s + a 3 = 0

s3 a0 a2
s2 a1 a3
a1 a2 −a0 a3
s a1
s0 a3
Por lo tanto, para que el sistema sea estable, se requiere que a1 a2 > a0 a3 .

Ejemplo 5.1.2 Determine la estabilidad del sistema

s4 + 2s3 + 3s2 + 4s + 5 = 0

s4 1 3 5
s3 2 4 0
s2 1 5
s −6
s0 5
Por lo tanto, al haber dos cambios de signo, existen dos raı́ces con parte real positiva. Esto
puede ser comprobado directamente utilizando el comando roots en Matlab. En este caso, se
obtendrı́an las siguientes raı́ces: −1,28 ± j0,86 y 0,29 ± j1,41.

Existen un par de casos especiales que se tratarán a continuación.

1. Caso 1: Si un término en la primera columna es cero, pero el resto no, el cero se


sustituye por un valor pequeño que se denominará .

Ejemplo 5.1.3 La ecuación caracterı́stica está dada por

s3 + 2s2 + s + 2 = 0

s3 1 1
s2 2 2
s 0'
s0 2
Como no hay cambio de signo, pero el sistema presenta un , se puede decir que el
sistema es crı́ticamente (marginalmente) estable.
74 CAPÍTULO 5. ESTABILIDAD DE LOS SISTEMAS

Ejemplo 5.1.4 La ecuación caracterı́stica está dada por

s5 + 2s4 + 4s3 + 8s2 + 10s + 6 = 0

s5 1 4 10
s4 2 8 6
3
s 0' 7
s2 8−14

6
s 7
s0 6
8−14
Hay dos cambios de signo, ya que  > 0, por lo que el factor 
< 0. Por lo tanto,
el sistema es inestable.

2. Caso 2: Si toda una fila de elementos es igual a cero, ésta tiene que ser sustituida por
la derivada de la fila anterior.

Ejemplo 5.1.5 La ecuación caracterı́stica está dada por

s4 + 4 = 0

s4 1 0 4
s3 0 0
En este caso, se toma como polinomio auxiliar el que corresponde a la fila anterior a
la que se tiene llena de ceros. En este caso, P (s) = s4 + 4, y su derivada correspon-
derá ahora a la nueva fila de s3 . En este caso, se tendrı́a que

s4 1 0 4
s3 4 0
2
s 0' 4
s −16/
s0 4

Hay dos cambios de signo, ya que  > 0. Por lo tanto, el sistema es inestable.

Este criterio es bastante utilizado en el diseño de controladores.

Ejemplo 5.1.6 Hallar el rango de Kc en la Figura 5.2 para que el sistema sea estable.

0.016 50
1 Kc 1
3s+1 30s+1
R(s) C(s)
Kc Transfer Fcn1 Transfer Fcn2

Transfer Fcn
1
10s+1

Figura 5.2: Diseñar Kc para que el sistema sea estable


5.1. CRITERIO DE ESTABILIDAD ROUTH-HURWITZ 75

La ecuación caracterı́stica está dada por


0,016 50 1
1 + Kc =0
3s + 1 30s + 1 10s + 1
Esto se puede escribir como

900s3 + 420s2 + 43s + (1 + 0,8Kc ) = 0

Utilizando el criterio de estabilidad de Routh-Hurwitz, se tiene que

s3 900 43
s2 420 1 + 0,8Kc
17160−720Kc
s 420
s0 1 + 0,8Kc

Por lo tanto el rango de Kc tiene que ser −1,25 < Kc < 23,83.

Ejemplo 5.1.7 Se tiene un proceso inestable cuya función de transferencia viene dada por
1
P (s) =
(s − 1)(s2 + 2s + 2)

Lo que se desea en este caso es utilizar un compensador G(s) de la forma

K(s + 2)
G(s) =
s+3
tal que el sistema en malla cerrada unitaria con retroalimentación negativa sea estable. Halle
el rango de K para que esto se logre.

3 < K < 14

68 − K − K 2 > 0
Por lo que se tiene que √
68,25 − 0,5
3<K<
7,76

Ejemplo 5.1.8 Halle el rango de K en función de T para que el sistema sea estable para el
sistema de la Figura 5.3.

1 Ke^(Ts)/(s+1) 1
R(s) C(s)
Kc

Figura 5.3: Sistema con tiempo muerto


76 CAPÍTULO 5. ESTABILIDAD DE LOS SISTEMAS

La ecuación caracterı́stica, está dada por

s + 1 + Ke−T s = 0

Sistemas con Tiempo Muerto


Existen sistemas en los cuales la respuesta no es inmediata, con lo que se tiene un tiem-
po muerto o retardo de transporte. Por lo general, la salida viene siendo una señal desplazada
un determinado tiempo T . En frecuencia, un desplazamiento en tiempo, implica multiplicar
el sistema por una exponencial e−sT . Para poder hacer el análisis, se utilizan aproxima-
ciones, dentro de las cuales, la más conocida es la aproximación de Padé. En general, la
aproximación de Padé de orden n viene dada por
Pn
−T s (−1)k ck T k sk
Pd (s) = e = k=0
Pn k k
k=0 ck T s

donde
(2n − k)!n!
ck = k = 0, . . . , n
2n!k!(n − k)!
Por ejemplo, para n = 1, c0 = 1 y c1 = 1/2. Es decir que la aproximación de Padé de primer
orden viene dada por
−sT 1 − T2 s
e =
1 + T2 s
Para n = 2, se tiene que c0 = 1, c1 = 1/2 y c2 = 1/12, por lo que se tendrı́a que
(T s)2
−sT 1 − T2 s + 12
Pd (s) = e = (T s)2
1 + T2 s + 12

Utilizando la aproximación de Padé descrita previamente, se tiene que


 
T 2 T T
s +s 1−K + + (1 + K) = 0
2 2 2

Utilizando el criterio de Routh-Hurwitz, se tiene que


T
s2 2
1+K
s 1 − K T2 + T
2
s0 1+K

Esto implica finalmente que K > −1 y K < 1+ T2 . Se puede ver claramente que a medida que
T aumenta, el rango de ganancia disminuye, por lo cual el tiempo muerto influye bastante
en la estabilidad de los sistemas.

5.1.1. Robustez y Estabilidad


El criterio de estabilidad de Routh-Hurwitz determina la estabilidad de un polinomio
caracterı́stico con coeficientes fijos. Sin embargo, si algunos de los parámetros tienen ciertos
5.1. CRITERIO DE ESTABILIDAD ROUTH-HURWITZ 77

tipos de incertidumbres (debido a la planta), o parámetros libres como los del controlador
en los coeficientes de la ecuación caracterı́stica, se necesita hacer una variación al criterio de
Routh-Hurwitz. Para ello, se introduce a continuación el criterio de estabilidad de Kharita-
nov, el cual es útil en este tipo de problemas (sin embargo, si el número de parámetros es
grande, el análisis se vuelve un poco largo y tedioso) [25].
Asumamos que la función de transferencia de una planta está dada por

Kp
P (s) =
s2 + 2ζωn sωn2

A su vez, supongamos que de acuerdo al conocimiento que se tiene de la planta se sabe que
se tienen unos rangos para cada uno de los parámetros, i.e., Kp ∈ [0,8, 1,3], ζ ∈ [0,2, 0,3] y
ωn ∈ [10, 12].
La función de transferencia se puede escribir entonces como
q0
P (s) =
r0 s2 + r1 s + r 2

donde q0 ∈ [0,8, 1,3], r0 ∈ [1, 1], r1 ∈ [4, 7,2], y r2 ∈ [100, 144]. Es claro entonces que se
tendrı́an una gran cantidad de posibilidades para formar una única función de transferencia
del sistema.
Generalizando, se puede ver que cualquier función de transferencia que tenga incerti-
dumbre en sus parámetros se puede escribir de la forma

Np (s) q0 sm + q1 sm−1 + . . . + qm
Pq,r (s) = =
Dp (s) r0 sn + r1 sn−1 + . . . + rn

donde qk ∈ [qk− , qk+ ] para todo k = 0, . . . , m, y rl ∈ [rl− , rl+ ] para todo l = 0, . . . , n. Los − y
+ corresponden a los lı́mites inferiores y superiores de los parámetros, respectivamente. Las
plantas Pq,r (s) con esta clase de incertidumbres se conocen como interval plants. Si se tiene
Nc (s)
un sistema retroalimentado como el que se ve en la Figura..., con C(s) = D c (s)
, la función
de transferencia vendrı́a dada por

Nc (s)Np (s)
T (s) =
Dc (s)Dp (s) + Nc (s)Np (s)

Por lo que el sistema serı́a robustamente estable si todas las raı́ces de la ecuación carac-
terı́stica Dc (s)Dp (s) + Nc (s)Np (s) = 0 están ubicadas en el semi-plano izquierdo para todas
las posibles combinaciones de P (s) ∈ Pq,r (s).
ANADIR FIGURA

Ejemplo 5.1.9 Sean


s+2
C(s) =
s2
+ 2s + 2
q0
P (s) =
r0 s + r 1 s 2 + r 2 s + r 3
3
78 CAPÍTULO 5. ESTABILIDAD DE LOS SISTEMAS

con r0 ∈ [1, 1,1], r1 ∈ [4, 4,2], r2 ∈ [6, 8], r3 ∈ [10, 20], y q0 ∈ [3, 5]. Entonces, el polinomio
caracterı́stico estarı́a dado por

(s2 + 2s + 2)(r0 s3 + r1 s2 + r2 s + r3 ) + q0 (s + 2) = 0

Expandiendo este polinomio, se tendrı́a que

a0 s 5 + a 1 s 4 + a 2 s 3 + a 3 s 2 + a 4 s + a 5 = 0

donde a0 ∈ [1, 1,1], a1 ∈ [6, 6,4], a2 ∈ [16, 18,6], a3 ∈ [30, 44,4], y a5 ∈ [26, 50]. Nótese bien
que en este caso hay seis coeficientes, pero en realidad sólo cinco son variables caracterı́sticas
del sistema (i.e., sólo los ri s y q0 son variables).

Consideremos que el polinomio caracterı́stico es

χ = a0 sn + a1 sn−1 + . . . + an

donde los coeficientes ak pueden tomar cualquier valor en un intervalo dado [a− +
k , ak ], k =
0, . . . , n, cuyos valores son independientes de aj , j 6= k. El conjunto de todas las ecuaciones
caracterı́sticas está dado por

χa := a0 sn + . . . + an : [a−
k , a +
k ], k = 0, . . . , n

Theorem 5.1.1 Teorema de Kharitanov Todos los polinomios en χa son estables sı́ y
sólo sı́ los siguientes cuatro polinomios son estables
− + + − −
a1 (s) = a− 2 3 4 5
n + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s + . . .
+ − − + +
a2 (s) = a+ 2 3 4 5
n + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s + . . .
+ + − − +
a3 (s) = an + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s5 + . . .
− 2 3 4
− − + + −
a4 (s) = a+ 2 3 4 5
n + an−1 s + an−2 s + an−3 s + an−4 s + an−5 s + . . .

En la literatura, los polinomios a1 (s), . . . , a4 (s) se conocen como los polinomios de Kharita-
nov. Por medio del teorema de Kharitanov, la robustez en estabilidad puede ser obtenida al
aplicar el teorema de estabilidad de Routh-Hurwitz a cada uno de los cuatro polinomios. Si
se ve desde el punto de vista de complejidad, el hecho de haber reducido todo el espacio de
posibilidades a sólo tener que observar el comportamiento en estos cuatro polinomios es un
gran logro.
Capı́tulo 6

Sistemas de Control Retroalimentado

Dicen que la manera más limpia y sana de salir de un presente que agobia y que no
vislumbra ningún futuro es poner marcha atrás e internarse en el pasado. Sólo el
pasado, con sus hechos y recuerdos, podrá esclarecer lo que hoy nos parece tan
enredado y oscuro. Quizás. Pero entiendo a los que se niegan a rebobinar hacia
cualquier lado. Si algo tenı́amos en común todos nosotros era que no querı́amos ni
mirar ni sentir. Nuestra única convicción era no volver a tener ninguna.
Por favor, Rebobinar, Alberto Fuguet

La estrategia de control retroalimentado es tratar de mantener el valor de salida cerca


de un valor deseado o set-point por medio de:

1. “Medir”la salida utilizando un dispositivo determinado, independientemente que la


salida de un sensor/transmisor pueda llegar a alterarse.

2. “Comparar”la variable medida con el valor deseado o set-point para obtener la desvia-
ción (que serı́a la señal de error, o la señal de error retroalimentado).

3. Utilizando esta señal de error, el controlador procesará dicho valor y su salida será la
alimentación del proceso.

4. Esta salida, antes de ir al proceso pasa por un elemento final de control, el cual se
encarga de transmitir dicha señal en las unidades determinadas al proceso.

5. Nuevamente se mide la señal de salida, y se repite el proceso.

Un sistema de control tı́pico tiene la forma que se muestra en la Figura 6.1.


A continuación se analizará en primera instancia lo que sucede con la señal de error que
surge al comparar la variable medida con el valor deseado, para luego ver cómo funcionan
diversos tipos de controladores. Las notas de este capı́tulo han sido sacadas de varios libros,
dentro de los que se destacan [21, 30, 6, 10, 7, 23, 15, 31, 1, 22].

79
80 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

2
D(s)

Gp(s) 1
1 Gc(s) Gv(s)
R(s) C(s)
Proceso
Controlador Válvula
Elemento final de control

Gt(s) Gs(s)

Transmisor Sensor
Elemento Secundario Elemento Primario

Figura 6.1: Sistema de control tı́pico. La referencia o el set point viene siendo R(s), mientras
que la variable controlada es C(s). La perturbación es D(s).

6.1. Análisis de Error


Por lo general, este sistema se analiza como un sistema retroalimentado como el que se
muestra en la Figura 6.2, cuya función de transferencia viene dada por C(s)
R(s)
G(s)
= 1+G(s)H(s) . Es
bien sabido que los sistemas responden de manera diferente, dependiendo del tipo de entrada
que se aplica al mismo. En estado estacionario, existen sistemas que tienen errores iguales a
cero para una entrada paso, mientras que si la entrada es una rámpa o parábola, entonces
el sistema ya no tiene a cero de manera asintótica.

1 G(s) 1
R(s) C(s)
G(s)

H(s)

H(s)

Figura 6.2: Sistema retroalimentado.

La función de transferencia que relaciona el error E(s) en la Figura... con la entrada


está dado por
E(s) 1
=
R(s) 1 + G(s)H(s)
donde el término G(s)H(s) se conoce como la función de transferencia de lazo abierto. Por
lo general, esta función se puede escribir como
(Ta s + 1)(Tb s + 1) . . . (Tm s + 1)
G(s)H(s) = K
sN (T1 s + 1)(T2 s + 1) . . . (Tp s + 1)
El término sN representa la multiplicidad de un polo en el origen, y N representa el tipo
de sistema que se tiene. Entre más grande sea el valor de N , menor será la estabilidad del
6.2. CONTROLADORES PID 81

sistema como se verá luego. Cabe resaltar que el tipo del sistema es diferente del orden de
un sistema.
El error en estado estacionario viene dado por

ess = lı́m e(t) = lı́m sE(s)


t→∞ s→0

De acuerdo al sistema de la Figura.... este error se puede escribir como


1
ess = lı́m sR(s)
s→0 1 + G(s)H(s)
Definamos Kp = lı́ms→0 G(s)H(s), por lo que tendrı́amos varios casos dependiendo el tipo
de entrada del sistema.

1. R(s) = 1s . En este caso, si N = 0, Kp = K, por lo que ess = 1


1+K
. Si N ≥ 1, Kp = ∞,
con lo que ess = 0.

2. R(s) = s12 . En este caso, si N = 0, ess = ∞. Si N = 1, ess = 1


K
. Finalmente, N ≥ 2,
Kp = ∞, con lo que ess = 0.

3. R(s) = s13 . En este caso, si N ≤ 1, ess = ∞. Si N = 2, ess = 1


K
. Finalmente, si N ≥ 3,
ess = 0.

6.2. Controladores PID


El controlador de tres términos como se le conocı́a originalmente apareció por primera
vez en 1922 [18]. En este artı́culo, Minorsky aplicaba por primera vez ideas de control a
barcos, y se basaba en el hecho de que pequeñas desviaciones (producidas por la linealización
de los elementos) podrı́an ser utilizadas para entender las dinámicas de un sistema bajo
control. A continuación se estudiará el controlador Proporcional, Integral, y Derivativo (PID)
en cada una de sus diversas configuraciones.

6.2.1. Controlador Proporcional


El controlador proporcional es el más simple (sin contar con el controlador ON-OFF).
La ecuación tı́pica está dada por

(6.1) u(t) = ū + Kc (r(t) − y(t)) = ū + Kc e(t)

donde u(t) corresponde a la salida del controlador (por lo general estarı́a dada en unidades
de psi o mA); ū es el valor base (este valor es la salida del controlador cuando el error
es 0. Generalmente se fija durante la calibración del controlador); Kc es la ganancia del
controlador, y e(t) es la señal de error. Por lo general, asumiremos que ū = 0.
Como se puede ver, si y(t) se incrementa de tal forma que supere a r(t), el error se vuelve
negativo, y por ende u(t) decrece. Por otra parte, la salida del controlador es proporcional
al error, y esta ganancia determina cuánto se modifica la salida.
82 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

Es claro que como sólo tiene un valor que ajustar, se hace más sencillo. Pero como se
vio en la sección anterior, existe un error en estado estacionario, dependiendo de la entrada
que se tenga, y el proceso que se está controlando.
En algunos casos, los controladores reales no utilizan el término ganancia sino que
utilizan el concepto de Banda Proporcional (BP). Esta es inversamente proporcional a la
ganancia Kc , y se define como
100
BP =
Kc
En algunos textos se conoce también como porcentaje de banda proporcional. Por lo tanto,
la ecuación en este caso serı́a,
100
(6.2) u(t) = ū + e(t)
BP
Es claro que las Ecuaciones (6.1) y (6.2) son totalmente diferentes, por lo que se tiene que
tener saber muy bien qué tipo de controlador se está utilizando.
ANADIR EJEMPLO

6.2.2. Controlador Proporcional e Integral


Para evitar ese error en estado estable, se añade un elemento que tiene en cuenta lo
que sucede y ha sucedido en términos del error. Esta acción integral o de reajuste tiene como
consecuencia que la Ecuación (6.1) se convierta en
Z
Kc
(6.3) u(t) = ū + Kc e(t) + e(t)dt
τi
donde τi corresponde al tiempo de integración o reajuste (por lo general su valor se da en
minutos por repeticiones). Si se ve gráficamente, este valor serı́a la respuesta que le toma al
controlador en repetir la acción proporcional (ver Figura...).
ANADIR FIGURA
Tanto menor sea τi , más pronunciada es la curva de respuesta, lo que implica que la
respuesta del controlador es más rápida. Otra forma de verlo es que si τi es pequeño, mayor
será el término constante delante de la integral, por lo que se le dará más importancia al
controlador. Además, recuérdese que la integral es como una suma, por lo que a medida
que e(t) cambia, se van integrando todos los valores presentes y anteriores, por lo que el
controlador tiende a cambiar su respuesta. Cuando e(t) = 0, la integral no es necesariamente
cero, ya que tiene en cuenta los términos anteriores.
Algunos fabricantes utilizan un término conocido como la rapidez de reajuste, que
corresponde a τir = τ1i .
ANADIR TABLA FABRICANTES

6.2.3. Controlador Proporcional, Integral, y Derivativo


Al añadir un tercer término como lo es una acción derivativa, se está ajustando la
rapidez de derivación o de preactuación. Este nuevo término tiene como fin anticipar hacia
6.2. CONTROLADORES PID 83

donde va el proceso durante la observación de la rapidez para el cambio del error, i.e., su
derivada. En este caso, la Ecuación (6.3) se convierte en
Z
Kc de(t)
(6.4) u(t) = ū + Kc e(t) + e(t)dt + Kc τd
τi dt
donde el término τd corresponde a la rapidez de derivación, y está dado por lo general en
minutos.
Los controladores PID se utilizan en procesos donde las constantes de tiempo son muy
largas. En procesos en los que las constantes son cortas, existe una mayor susceptibilidad al
ruido, por lo que la derivada tenderı́a a amplificarlo. Esto se ve más claramente al obtener
una función de transferencia de (6.4) cuando ū =, i.e.,
 
U (s) 1
= Kc 1 + + τd s
E(s) τi s
En la práctica, esta función de transferencia no se suele implementar, sobre todo por lo
que se dijo sobre el término derivativo. Más adelante veremos otro tipo de funciones de
transferencias que sı́ se suelen implementar. En general, el uso de filtros y configuraciones
diferentes ayudan a la implementación de dichos controladores.

6.2.4. Controlador Proporcional y Derivativo


Este tipo de controlador se utiliza en procesos donde sólo es posible utilizar controla-
dores proporcionales, pero que cuentan con cierto tipo de anticipación. La ecuación carac-
terı́stica para este caso es
de(t)
(6.5) u(t) = ū + Kc e(t) + Kc τd
dt
Su mayor desventaja radica en el hecho de que únicamente opera con una desviación en la
variable que se controla. Esto sólo puede ser eliminado con la acción integral. Sin embargo,
un PD puede soportar mayor ganancia.

6.2.5. Implementación
Dentro de todas las acciones del controlador de tres términos, la acción derivativa es la
más complicada de implementar, y por eso muchos fabricantes no la utilizan. Los problemas
de implementación radican en:

El uso o no de un filtro. Esto con el fin de evitar daños en los actuadores y no am-
plificar ruidos de alta frecuencia. Estos filtros pueden ser de primero o segundo orden,
dependiendo del fabricante.
El punto en el cual la acción derivativa actúa, bien sea en la medida o en el error.
Si la acción derivativa actúa o no con la acción integral, lo cual depende del algoritmo
que se utilice.
84 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

El punto de acción depende de si se hace regulación o tracking. En el primer caso, se requiere


que el proceso esté en un estado fijo a pesar de las perturbaciones, por lo que el set point es
constante. En este caso, no importa si la parte derivativa se encuentra a la salida del error
o de la medida. Sin embargo, cuando se hace tracking los cambios son bruscos, ya que el set
point es variable, por lo que ubicar la parte derivativa con respecto a la medida es mucho
más útil. En estos casos, se suele recurrir también al uso del filtro, por lo que el término
derivativo vendrı́a siendo:
U (s) Kd τd s
=−
Y (s) 1 + s τNd
Este serı́a un filtro ideal utilizando un sistema de primer orden con constante de tiempo τNd .
Es claro en este caso que si las frecuencias son bajas, i.e., s pequeño, se tiene que el factor
que predomina es τd s, mientras que si las frecuencias son altas, i.e., s grande, el factor que
predomina es ττdd = N , lo cual lo hace constante a frecuencias altas (N se suele escoger entre
N
2 y 20). La salida del controlador en este caso serı́a para un PID igual a
 
1 Kd τd s
U (s) = Kc 1+ E(s) − Y (s)
τi s 1 + s τNd

6.2.6. Sintetizando
Hasta este punto se han visto los controladores P, PI, PD, PID, y los parámetros
asociados a ellos. Se conoce el concepto de Kc , BP , τi , τiR , τd . Cabe recordar que la forma
en la que se basan la mayorı́a de conceptos de sintonización está basada en la función de
transferencia ideal.
Si se tuviera un sistema de primer orden τK p
s+1
asociado a un controlador proporcional,
K ∗
se obtendrı́a en malla cerrada que T (s) = τ ∗ s+1 , donde

Kc Kp
K∗ =
1 + K c Kp

τ
τ∗ =
1 + K c Kp
Esto implicarı́a que el controlador proporcional modificarı́a el comportamiento dinámico del
sistema, conservando el orden del mismo, pero modificando los valores de los parámetros
asociados. Uno de los puntos importantes es ver la contribución de Kc en el τ ∗ . Si Kc Kp > 0,
entonces τ ∗ < τ , por lo que se harı́a más rápida la respuesta del proceso.
Si en lugar de un regulador proporcional se tuviera un PI, la función de transferencia
en lazo cerrado vendrı́a siendo

Kp Kc (τi s + 1)
T (s) =
τi τ s2 + (τi + Kp Kc τi )s + Kc Kp

Es claro que se tiene un cero y dos polos. En el caso anterior, el efecto de P sólo era cambiar
las caracterı́sticas del proceso, i.e., sus parámetros. En el caso de un PI, se añaden un polo y
6.3. SINTONIZACIÓN DE CONTROLADORES PID 85

un cero a la función de transferencia. Si la entrada fuera un escalón unitario, y se factorizara


el denominador. se tendrı́a algo de la forma

1 Kp Kc (τi s + 1)
C(s) =
s τ τi (s − r1 )(s − r2 )

Es decir que c(t) = A0 + A1 er1 t + A2 er2 t . Una serie de conclusiones se pueden obtener en este
caso:

El cero puede forzar la existencia de un overshoot.

Si r1 y r2 son reales y negativos, el valor se aproxima a su valor final de forma expo-


nencial.

Si r1 y r2 son complejos conjugados con parte real negativa, se tendrá una respuesta
amortiguada oscilatoria.

Si al menos uno de los valores r1 o r2 fuera positivo, se tiene un sistema inestable.

No hay offset en este caso.

En el caso de tener un PD en vez de un PI, T (s) tiene un cero y un polo, pero hace que
la respuesta transitoria exhiba error en estado estacionario como el proporcional. Este se
va si se tiene un PID, caso en el cual se tienen dos polos y dos ceros, y 0 error en estado
estacionario.
Por lo tanto, se podrı́a decir que las caracterı́sticas de los controladores clásicos serı́an:

Control P: Acelera la respuesta del sistema de control pero posee un offset para todos
los procesos, a excepción lógica de un proceso de capacidad constante.

Control PI: Elimina offsets pero el sistema se vuelve más oscilatorio. El añadir la acción
integral hace que se aumente la inestabilidad si Kc aumenta.

Control PD: Anticipa y estabiliza pero tiene offset como el controlador P.

Control PID: El término I elimina el offset y las oscilaciones son compensadas por el
término D. Sin embargo, éstas amplifican las componentes de ruido de las señales.

6.3. Sintonización de Controladores PID


A continuación se revisan diversas estrategias conocidas para la sintonización de los
controladores PID.
86 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

6.3.1. Sintonización de Controladores PID: Método Manual


Es básicamente de ensayo y error en el campo y puede ser tedioso y prolongado en
algunos casos. La acción derivativa es particularmente difı́cil de sintonizar adecuadamente,
por lo tanto, esta no es muy utilizada. La sintonización se inicia con valores lı́mites de los
parámetros del P.I.D, variándolos consecutivamente hasta lograr la respuesta deseada.
El método consta de los siguientes pasos:

Tomar valores lı́mites de los parámetros:

• Para Kc y τd valores pequeños


• El valor de τi debe ser grande.

Luego, se dobla el valor de Kc y se observa la respuesta. Se continua de esta misma


forma hasta obtener oscilaciones sostenidas (Kcu ). El valor final será Kc = Kcu /2.

Luego, se reduce el valor de τi a la mitad de su valor. Se observa su respuesta y se


continua de la misma forma hasta obtener oscilaciones sostenidas (τi∗ ). El valor final
será τi = 2τi∗ .

Se realiza el mismo procedimiento con τd . Primero, se aumenta τd hasta obtener una


respuesta oscilatoria (τd∗ ), con lo que el valor final será τd = τd∗ /3.

6.3.2. Sintonización de Controladores PID: Ziegler/Nichols


Hasta el momento se ha visto la forma tı́pica de un controlador de tres términos,
conocido como el PID. Estos tipos de controladores se diseñan para mantener un nivel, o
una temperatura, por ejemplo. En general, se requiere que estos controladores sean: estables
y robustos en lazo cerrado; que la influencia de las perturbaciones no sea crı́tica; que la
respuesta sea rápida y suave a cambios de set-point; y que no tenga error en estado estable,
entre otros. Sin embargo, aún no hemos dado detalles de cómo seleccionar cada una de las
constantes asociadas al controlador de tres términos. Lógicamente, estos valores van a estar
asociados directamente con las caracterı́sticas del proceso, y esto es lo que se conoce como
sintonización.
Para poder sintonizar controladores, existen métodos heurı́sticos (aquellos que están
asociados al conocimiento que tengan los operadores de la planta), métodos matemáticos (los
cuales requieren de un modelo matemático del proceso), y un tercer método que combina
las técnicas heurı́sticas y analı́ticas. Este último método surgió en el año de 1942 cuando
John G. Ziegler y Nathaniel B. Nichols propusieron unas técnicas experimentales simples
que permitiesen mejorar las caracterı́sticas de los controladores de la empresa en la que
ellos trabajaban (Taylor Instruments) [33]. Las técnicas desarrolladas tienen tres funciones
básicas:

1. Se realiza un estı́mulo en el proceso.

2. Se identifica el modelo matemático de acuerdo a los resultados experimentales.


6.3. SINTONIZACIÓN DE CONTROLADORES PID 87

Tipo De Regulador Kc τi τd
P 0,5Kcr - -
PI 0,45Kcr Pcr /1,2 -
PID 0,6Kcr 0,5Pcr 0,125Pcr

Tabla 6.1: Valores de los parámetros de los controladores para el método de malla cerrada.

3. Se determinan los parámetros del controlador a partir de lo obtenido en 2.

Dentro de estas técnicas están las que son de:

Malla abierta requieren la operación del controlador en la opción MANUAL. Esta


técnica no es la adecuada para sistemas que en lazo abierto puedan tener un compor-
tamiento inestable (e.g., reactores quı́micos, o controles de nivel de lı́quidos).

Malla cerrada, los cuales operan con el controlador en la opción AUTOMATICO.

Ziegler/Nichols de Malla Cerrada

La idea de este método es trabajar el lazo de control en modo automático con una
acción proporcional, i.e., τi = ∞, τd = 0, y utilizar el criterio de estabilidad de Routh-
Hurwitz asociado con el método de sustitución directa para caracterizar el proceso con dos
parámetros:

1. Ganancia última o crı́tica: Kcr .

2. Perı́odo último o crı́tico: Pcr .

En la Figura... se muestra el lazo tı́pico para la prueba en automático para este caso.
ANADIR FIGURA
La idea es entonces ir incrementando el valor de Kc desde 0 hasta un valor Kcr , el
cual corresponde al valor de ganancia en el cual la salida presenta oscilaciones sostenidas por
primera vez (ver Figura...). El perı́odo crı́tico corresponde al perı́odo de oscilación tal como
se ve en la Figura... Si éstas no se presentan, este método no deberı́a aplicarse. La Tabla
6.1 muestra los valores que se requieren para cada uno de los tres controladores tı́picos que
podrı́an sintonizarse bajo este método.

Ejemplo 6.3.1 Asumamos que


1
Gp (s) =
(s + 1)(0,5s + 1)(0,2s + 1)

Como bien se sabe, la estabilidad está definida por intermedio de la ecuación caracterı́stica
del sistema, i.e., 1 + Gp (s)Gc (s) = 0, lo que en este caso darı́a que

0,1s3 + 0,8s2 + 1,7s + 1 + Kc = 0


88 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

Tipo De Regulador Kc τi τd
P T /(L.K) - -
PI 0,9T /(L.K) 3,33L -
PID 1,2T /(L.K) 2L 0,5L

Tabla 6.2: Valores de los parámetros de los controladores para el método de malla abierta.

Si se utilizar el criterio de Routh-Hurwitz se ve que el sistema es estable si −1 < K c < 12,6


(aunque los valores negativos de Kc no tengan mucho sentido práctico). Es claro que cuando
la ganancia llega a su lı́mite superior, se tienen oscilaciones sostenidas, ya que el sistema se
volverı́a crı́ticamente estable. Para comprobar esto, utilicemos el método de sustitución para
hallar Kcr y Pcr . Para ello, se sustituye s = jω, i.e.,

−0,1jω 3 − 0,8ω 2 + 1,7jω + 1 + Kc = 0

Se tendrı́a entonces una ecuación para la parte real y otra para la parte imaginaria, i.e.,

−0,1ω 3 + 1,7jω = 0

y
−0,8ω 2 + 1 + Kc = 0
√ 2π
Esto nos da que ωcr = 17, por lo que el Pcr = ωcr
= 1,52 segundos, y Kcr = 12,6.

Este método suele utilizarse cuando el 10 % ≤ M P ≤ 60 % a entrada escalón unitario.

Ziegler/Nichols de Malla Abierta

El método de malla abierta pretende ajustar el controlador a partir del modelo del
proceso. Para ello, es necesario identificar el proceso utilizando una entrada paso en malla
abierta como se ve en la Figura....
ANADIR FIGURA
Ziegler y Nichols se refieren a una curva de reacción, i.e., una curva en forma de S luego
de aplicar la entrada escalón unitario. Esto suele darse si la planta no incluye integrador(es)
o polos dominantes complejos conjugados. Si la respuesta no está en esta forma, el método
no debe aplicarse. La respuesta del proceso en este caso serı́a

C(s) Ke−Ls
=
U (s) Ts + 1

donde L se conoce como el tiempo de atraso, y T es la constante de tiempo del sistema


medida como se puede ver en la Figura....
ANADIR FIGURA
La Tabla 6.2 muestra los valores que se requieren para cada uno de los tres controladores
tı́picos que podrı́an sintonizarse bajo este método.
6.3. SINTONIZACIÓN DE CONTROLADORES PID 89

Tipo De Regulador  Kc τi τd


1 T 3T +L
P K L 3T 
- -
1 T 10,8T +L 30+3(L/T )
PI KL 12T
L 9+20(L/T )
-
  h i
1 T 30T +4L 6−2(L/T )
PD KL 24T
- L 22+3(L/T )

1 T 16T +3L
 32+6(L/T ) 4L
PID KL 12T
L 13+8(L/T ) 11+2(L/T )

Tabla 6.3: Valores de los parámetros de los controladores para el método de Cohen y Coon.

rc Kc τi τd
5
0 a 0.1 K
T 0
0,5
0.1 a 0.2 Krc
T 0
0,5(1+0,5rc ) 0,5rc
0.2 a 0.5 Krc
T (1 + 0,5rc ) T 0,5rc +1

Tabla 6.4: Valores de los parámetros de los controladores para el método del coeficiente de
ajustabilidad .

6.3.3. Sintonización de Controladores PID: Cohen y Coon


Este método trabaja con la respuesta temporal del sistema a una entrada escalón, es
muy parecido al de Ziegler-Nichols y también utiliza el modelo de primer orden con tiempo
muerto para hallar los parámetros. Las reglas para la sintonı́a se encuentran matemática-
mente establecidas. Una de las grandes ventajas de este método es que se puede seleccionar
un controlador PD, cosa que no se logra en los otros métodos. Los valores de los parámetros
se calculan basados en las relaciones de la Tabla 6.3.

6.3.4. Sintonización de Controladores PID: Método del Coeficien-


te de Ajustabilidad
Los métodos de Ziegler - Nichols y de Cohen - Coon, son difı́ciles de aplicar en la
práctica, porque llevan a un comportamiento muy oscilatorio, por esto los instrumentistas
implementaron una versión derivada de estas reglas que también se basa en el modelo de
primer orden con retardo, para hallar los coeficientes del P.I.D se utiliza el coeficiente de
ajustabilidad rc , definido como:
L
rc =
T
Se recomienda que 0,1 < rc < 1, pero con los valores de este coeficiente se encuentran
relaciones especı́ficas para los parámetros del P.I.D. como se ve en la Tabla 6.4. Para un
valor más grande del coeficiente de ajustabilidad, el sistema es imposible de controlar con
un PID.

6.3.5. Sintonización de Controladores PID: Internal Model Con-


trol (IMC)
COMPLETAR
90 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

6.3.6. Sintonización de Controladores PID: Sı́ntesis Directa


Este método no parte de un algoritmo en particular para el controlador. Su objetivo es
encontrar una función de transferencia del controlador que cumpla con las especificaciones de
lazo cerrado dadas. Para ello, se utiliza el modelo de malla abierta del proceso. El problema
es que con este método no necesariamente se garantiza que el controlador va a existir en la
vida real, pero sirve para tener una idea de qué tipo de controlador podrı́a utilizarse. Para
este caso se tiene el sistema de la Figura...
ANADIR FIGURA
La función de transferencia de lazo cerrado serı́a
C(s) Gc (s)Gp (s)
T (s) = =
R(s) 1 + Gc (s)Gp (s)
En el método de Ziegler/Nichols se ajustan los parámetros del controlador y se observa la
respuesta para ası́ hacerle ajustes finos a dichas constantes. Sin embargo, en el método de
sı́ntesis directa lo que se hace es despejar Gc (s), por lo que
T (s)
(6.6) Gc (s) =
Gp (s)(1 − T (s))
La Ecuación (6.6) será la del controlador, ya que uno tiene caracterı́sticas propias de diseño
para T (s). La Ecuación (6.6) se conoce como la ecuación de sı́ntesis, y lo difı́cil en este caso es
la selección de T (s). Sin embargo, algunas caracterı́sticas básicas que se tienen que cumplir
son

El error en estado estable debe ser nulo.

La respuesta del sistema debe ser lo suficientemente rápida, pero el sobreimpulso debe
ser lo más pequeño posible.

T (s) tiene que ser una función simple matemáticamente hablando.

Las funciones de transferencia que generalmente se utilizan para cumplir estos objetivos son
1
(6.7) T1 (s) =
α1 s + 1

1
(6.8) T1 (s) =
(α2 s + 1)(α3 s + 1)
donde los αi s son las constantes de tiempo que determinan qué tan rápido responde el sistema.
Si estos parámetros son pequeños, el sistema no responde más rápido, aunque la ganancia del
controlador se incrementa. Por ende, de acuerdo al proceso que se tenga, la selección de estos
parámetros es bastante crı́tica. Los dos tipos de controladores que aparecen al reemplazar
(6.7) y (6.8) en (6.6) son
1 1
(6.9) Gc (s) =
Gp (s) α1 s
6.4. ALGORITMOS 91

1 1
(6.10) Gc (s) =
Gp (s) s(α2 α3 s + α3 + α2 )

Nótese bien que el hecho de que se tenga un controlador con un polo en cero, hace que para
una entrada escalón, el error en estado estable tienda a 0.
1
Si Gp (s) = Kp , Gc (s) = α1 K ps
, por lo que el controlador serı́a similar a uno con acción
integral, y α1 determina qué tan rápida serı́a la respuesta del sistema. Si,
Kp
Gp (s) =
τs + 1
y Gc (s) se selecciona de acuerdo a (6.9), se tiene un controlador PI, ya que
τ τs + 1
Gc (s) =
α1 Kp sτ
τ
Si lo comparamos con la ecuación ideal de un PI tendrı́amos que Kc = α1 K p
y τi = τ .
En los dos casos previamente expuestos se trató de buscar una relación directa entre la
forma del controlador que se obtiene a partir del proceso y un controlador clásico. Es claro
que en ocasiones se tienen que hacer suposiciones fuertes (e.g., despreciar ciertos parámetros)
para que el sistema se parezca a una de las ecuaciones ideales que conocemos.

6.4. Algoritmos
En general, los controladores comerciales utilizan algoritmos diferentes para imple-
mentar un PID. De este tipo de algoritmo dependen los valores de los parámetros obtenidos
mediante el método de sintonización que se utilice.
Los algoritmos clásicos son:

Ideal:
 
1
(6.11) Gc (s) = KcI 1 + I + τdI s
τi s

Paralelo o No Interactivo:
1
(6.12) Gc (s) = KcP + + τdP s
τiP s

Serie o Interactivo:
 
1 
(6.13) Gc (s) = KcS 1+ 1 + τdS s
τiS s

Es claro que los métodos de sintonización vistos hasta el momento se basan en (6.11). Por lo
tanto, se tendrı́an que expresar (6.12) y (6.13) en términos de (6.11) para ası́ poder utilizar
los parámetros que se obtienen en los métodos de sintonización vistos.
92 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

Para (6.13), se tiene que


  
τS 1
KcS 1 + Sd + S + τdS s
τi s τi

Este tipo de controladores se caracterizan porque las acciones derivativa e integral se apli-
can sucesivamente, lo que hace que exista una fuerte interacción entre ambas acciones. Al
comparar con un controlador ideal, se tiene que
 
I S τdS
Kc = K c 1 + S
τi

τiI = τdS + τiS


1
τdI = 1 1
τdS
+ τiS

Por otro lado, el algoritmo paralelo (utilizado por Modicon, Siemens, Allan Braedley, entre
otros) es similar al ideal ya que tiene las tres acciones están actuando en forma independiente,
pero su sintonización es diferente ya que

KcI = KcP

τiI = KcP τiP


τdP
τdI =
KcP

6.5. PID Digital


CAMBIAR!!!!!
Para poder implementar un controlador de lazo sencillo, se requieren tres acciones
básicas que un procesador realizarı́a de forma permanente para controlar la planta.

Se hace una conversión de las señales análogas que provienen de los sensores utilizando
un conversor ADC.

Se procesan los datos, i.e., se hace el cálculo del algoritmo de control.

Finalmente, se envı́a el resultado a los actuadores en forma análoga utilizando un


conversor DAC.

La secuencia de operación serı́a:

1. Esperar la interrupción de un reloj que serı́a el encargado de darle la orden al procesador


de cada cuánto se tienen que tomar datos. Esto serı́a el tiempo de muestreo Ts .

2. Leer los datos del sensor.


6.5. PID DIGITAL 93

3. Calcular la señal de control por medio de un algoritmo discretizado del PID.


4. Enviar el resultado a los actuadores.
5. Actualizar las variables del controlador modificadas por la discretización del algoritmo.
6. Repetir.

En la Figura 6.3 se puede observar un diagrama condensado de un sistema de control digital


de un solo lazo. Un ejemplo tı́pico más detallado es el que se muestra en la Figura...
u(t) y(t)

t
t

PROCESS

HOLD
SAMPLER

D/A COMPUTER A/D


u[n] y[n]

t t

Figura 6.3: Proceso de tomar una señal continua y(t) que es generada por el proceso, y
convertirla en una secuencia de números y[n]. El computador toma una decisión y la convierte
en otra secuencia de números u[n], los cuales se convierten luego en una señal continua u(t)
que actúa sobre el proceso. Figura adaptada de [1].

ANADIR FIGURA
Los computadores que se utilizan se conectan a los actuadores y al proceso por medio
de conversores de señal. La salida es procesada por un DAC durante un perı́odo fijo de
tiempo T el cual se conoce como el tiempo de muestreo (lo mismo sucede a la entrada). El
muestreador es básicamente un interruptor que se cierra cada T segundos por un instante
corto de tiempo. Por ejemplo, en la Figura... se tiene un ejemplo, que gráficamente darı́a
algo como se ve en la Figura...
ANADIR FIGURAS
El DAC es un dispositivo que convierte la señal muestreada r ∗ (t) en una señal continua
p(t). Por lo general, el DAC se representa como un circuito de zero-order hold (ZOH) como
se ve en la Figura...
ANADIR FIGURA
La función de transferencia del ZOH es
1 − e−sT
G0 (s) =
s
94 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

La idea de este retenedor de orden cero es tomar el valor de r[kT ] y “retenerloçonstante por
un tiempo kT ≤ t < (k + 1)T , como se ve en la Figura... para k = 0.
ANADIR FIGURA
El muestreador y el ZOH pueden seguir acertadamente la señal de entrada si T es pe-
queño comparado con los cambios transientes en la señal. Para una rampa y una exponencial
se tendrı́a lo que se observa en las Figuras...
ANADIR FIGURAS
Muy poco se pierde si se hace un muestreo entre instantes muy cercanos, mas sin
embargo, mucho se pierde si los puntos de muestreo se ubican demasiado lejos. Esto se
da sobre todo en la conversión de la señal muestreada a una continua. Si la frecuencia de
muestreo

ωs =
T
es lo suficientemente grande comparada con la componente de frecuencia más alta en una
señal continua, entonces se puede afirmar que las caracterı́sticas de amplitud de la señal se
preservan. Para evitar este tipo de inconvenientes, asumamos que ω1 es la frecuencia máxima
o ancho de banda de una señal x(t), i.e., no hay componentes de frecuencia por encima de ω1 .
El siguiente teorema conocido como el teorema de muestreo de Nyquist, ilustra la escogencia
de la frecuencia de muestreo de acuerdo al ancho de banda de la señal en cuestión.


Theorem 6.5.1 Si ωs = T
, i.e., la frecuencia de muestreo, cumple con

ωs > 2ω1

donde ω1 es la componente de frecuencia más alto en una señal continua x(t) (i.e., su ancho
de banda), entonces ésta puede ser reconstruida en su totalidad de la señal muestreada x ∗ (t).

Si esto se cumple, no habrá problemas de aliasing, fenómeno que se da cuando se crean


nuevos componentes de frecuencia debidos al muestreo. Si no, se pueden tener dos señales
diferentes cuya reconstrucción serı́a imposible (e.g., Figura 6.4).
Por lo general, se analiza el sistema en frecuencia utilizando la Transformada Z, la cual
es un equivalente de la transformada de Laplace en tiempo discreto, pero con

z = esT

En términos de estabilidad, esta transformación llevará a que un sistema muestreado es


estable si todos los polos de lazo cerrado de T (z) están ubicados dentro del cı́rculo unitario
en el plano z. Criterios de estabilidad como el de Jury se aplican en estos casos en lugar de
Routh-Hurwitz. En términos de diagramas en bloques, hay que tener mucho cuidado dónde
se ubican los muestreadores, ya que las funciones de transferencia no serı́an las mismas. En
las Figuras... se muestra un ejemplo donde G(z)H(z) 6= GH(z).
ANADIR FIGURAS
Para poder implementar un PID en un procesador, es menester discretizar cada una
de las funciones. Por ende, necesitamos expresar las ecuaciones continuas en términos de
6.5. PID DIGITAL 95

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

−1
0 1 2 3 4 5 6 7 8 9 10

Figura 6.4: Figura adaptada de [1]), la cual muestra el efecto de aliasing utilizando dos
diferentes señales x1 (t) = sin(2πf1 t) (punteada) and x2 (t) = − sin(2πf2 t) (sólida), con sus
respectivas frecuencias (f1 = 0,1 Hz, f2 = 0,9 Hz, y fs = 1 Hz). Este es un excelente ejemplo
de cómo el aliasing puede afectar la reconstrucción perfecta de las señales

ecuaciones de diferencias, lo cual se puede hacer utilizando algoritmos posicionales e incre-


mentales. Por simplicidad, veremos los primeros únicamente.
El algoritmo posicional recibe su nombre porque éste determina directamente la posi-
ción que debe tomar el actuador. Sea, la Ecuación (6.4) con ū = 0, y la integral de 0 a t.
La aproximación de la integral se da por medio de la regla rectangular o trapezoidal de una
señal, i.e.,
Z n
1 t ∼ Ts X
e(τ )dτ = e(hTs )
τi 0 τi h=1
o Z n
t
1 ∼ Ts X e(hTs − Ts ) + e(hTs )
e(τ )dτ =
τi 0 τi h=1 2
respectivamente. La Figura... muestra un ejemplo de cómo se calcuları́an dichas aproxima-
ciones a partir de un ejemplo gráfico.
ANADIR FIGURA
La acción derivativa tiene por aproximación
de(t) ∼ e(nTs ) − e(nTs − Ts )
τd = τd
dt Ts
Como se mencionó previamente, Ts corresponde al tiempo de muestreo. De esta forma, el
PID ideal discretizado se convertirı́a en
n
!
Ts X e[nTs ] − e[(n − 1)Ts ]
u[nTs ] = Kc e[nTs ] + e[hTs ] + τd
τi h=1 Ts
96 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

Observaciones:

Teniendo el controlador PID digital, para poderlo sintonizar utilizando alguno de los
métodos vistos previamente, se recurre a añadir T /2 al tiempo muerto del proceso, para
ası́ poder utilizar dichos criterios. Es decir, el nuevo tiempo muerto serı́a dependiente
del tiempo de muestreo, i.e.,
T
L̄ = L +
2
Con ello, se estarı́a incluyendo el tiempo de muestreo en la selección de cada uno de
los componentes.

En cuanto al desempeño, si el muestreo es muy lento/rápido, el PID puede no responder


adecuadamente.

Una guı́a útil se puede resumir como:

• Obtener un modelo empı́rico del sistema.


• Para lograr en un controlador digital un desempeño cercano al de su contraparte
continua, seleccione T ≤ 0,05(L + τ ), donde L y τ son el tiempo muerto y la
constante de tiempo del sistema de primer orden, respectivamente.
• Determinar las constantes de sintonización utilizando Ziegler y Nichols por ejem-
plo, con L̄ = L + T2 .
• Implementar y ajustar de forma más fina.

6.6. Criterios de Desempeño


Hasta este punto se han visto tres criterios fundamentales que uno suele buscar a la
hora de diseñar un controlador: estabilidad, criterios de estado estacionario, y respuesta
dinámica del sistema. Otro de los criterios que existen, aborda el desempeño de la integral
de tiempo que puede ser utilizado par la escogencia de los parámetros. Los más comunes
son aquellos que involucran minimizar una función que contenga la integral del error. Estos
métodos clásicos son:

1. Integral Absolute Error (IAE)


Z ∞
IAE = |e(t)|dt
0

En algunos casos se toma como lı́mite superior un tiempo t finito tal que se haya
alcanzado el valor en estado estacionario. Por lo general éste es igual al tiempo de
establecimiento ts .

2. Integral Squared Error (ISE) Z ∞


ISE = e2 (t)dt
0
La idea en este caso es penalizar errores grandes.
6.7. DISEÑO CON POLE PLACEMENT 97

3. Integral Time-weighted Absolute Error (ITAE)


Z ∞
IT AE = t|e(t)|dt
0

La idea en este caso es penalizar más los errores en tiempos grandes.

4. Integral Time-weighted Squared Error (ITSE)


Z ∞
IT SE = te2 (t)dt
0

La idea en este caso es penalizar errores grandes en tiempos largos.

ANADIR EJEMPLO
RT
En lı́neas generales, lo que se tiene es I = 0 f (e(t), r(t), y(t))dt, ya que no necesa-
riamente tendrı́a que ser el error, sino una combinación de cualquiera de las señales que se
tengan a disposición.

6.7. Diseño con Pole Placement


En esta forma de diseño, se desea que los polos de lazo cerrado se ubiquen en lugares
previamente estipulados por la respuesta del sistema. Para un sistema con retroalimentación
unitaria, controlador Gc (s) y proceso Gp (s), la ecuación caracterı́stica serı́a 1 + Gc Gp = 0. Si
tuviéramos un sistema de primer orden y un controlador PID ideal, la ecuación caracterı́stica
vendrı́a siendo
Kc Kp τd + τ 2 1 + K c Kp
τi s + τi s + 1 = 0
Kp Kc Kc Kp
Se tendrı́an entonces dos polos de lazo cerrado
s 2
−(1 + Kc Kp ) Kc Kp (1 + Kc Kp )τi τi (Kc Kp τd + τ )
r1,2 = ± −4
2(Kc Kp τd + τ ) 2(Kc Kp τd + τ ) Kc Kp Kc Kp

Como los valores de Kp y τ del proceso se conocen por lo general, la escogencia de Kc , τi , y


τd nos lleva a ubicar los polos donde se desee en el plano complejo.
Si se quisiera obtener una salida determinada, uno puede tener un polinomio carac-
terı́stico de base/guı́a para la ubicación de los polos. Por ejemplo, para una ecuación de
segundo orden, una función de transferencia serı́a
1
τr2 s2 + 2ζr τr s + 1

Si τr = 4 y ζr = 0,5, en este caso se necesitarı́a que

Kc Kp τd + τ
τi = 16
Kp Kc
98 CAPÍTULO 6. SISTEMAS DE CONTROL RETROALIMENTADO

1 + K c Kp
τi = 4
Kc Kp
Sin embargo, es claro que las respuestas no van a ser exactamente las mismas, ya que sólo
se están escogiendo los polos mientras que los ceros no se tienen en cuenta y estos pueden
afectar el desempeño.
Capı́tulo 7

Variables de Estado: Introducción

Es gracias a la muerte que podemos ser felices porque sabemos que en algún
momento todo va a terminar Mario Vargas Llosa

Hasta el momento hemos analizado los sistemas desde el punto de vista de funciones
de transferencia. Hemos visto cómo los modelos matemáticos obtenidos por medio de leyes
fı́sicas nos ayudan a modelar relaciones de toda ı́ndole, además de brindarnos la posibilidad
de estudiar dichos sistemas para obtener su estabilidad y buscar métodos de control. Sin
embargo, todo este estudio se ha basado en el hecho de que los sistemas estudiados son
lineales y están representados en el espacio s. Es sabido que cualquier sistema no lineal
se puede transformar en uno lineal por medio de métodos de linealización como los vistos
previamente. En este capı́tulo veremos otra forma de representar los sistemas por medio de
las variables de estado. El análisis que se hará en este y los subsiguientes capı́tulos se basa
en los sistemas lineales, y su representación por medio de ecuaciones diferenciales ordinarias.
Primero se repasan los conceptos de variables de estado y su relación con cualquier tipo de
sistema, y luego se ahonda en la representación de sistemas lineales. Las notas de este capı́tulo
han sido sacadas de varios libros, dentro de los que se destacan [21, 30, 6, 10, 31, 11, 13, 29, 32].

7.1. Definición de Variables de Estado


El propósito de un modelo de variables de estado es desarrollar una representación que
preserve la relación entrada-salida, pero expresada en términos de n ecuaciones de primer
orden. La principal ventaja de este modelo es que las caracterı́sticas internas del sistema son
representadas [27].
Un modelo de variables de estado es un conjunto de ecuaciones diferenciales de primer
orden que están acopladas, y usualmente se representa de forma vectorial. Supongamos que
se tienen n variables de estado y m entradas.
(7.1) ẋi = fi (x1 , x2 , . . . , xn , u1 , u2 , . . . , um ) i = 1, . . . , n
Si se transformase (7.1) en término de vectores, se tendrı́a que
ẋ = f (x, u, t)

99
100 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

donde x = [x1 , x2 , . . . , xn ]> , y u = [u1 , u2 , . . . , um ]> . En este caso f (·) es una función vectorial
con n + m + 1 argumentos, de dimensión n.

7.1.1. Definiciones
Existen dos tipos de sistemas dinámicos. Aquellos que están descritos por ecuaciones
diferenciales (i.e., aquellas que describen la evolución de los sistemas en tiempo continuo), y
aquellos descritos por ecuaciones de diferencias o iterated maps (i.e., aquellas dinámicas en
tiempo discreto). A lo largo del curso se utilizarán ecuaciones diferenciales, y más especı́fi-
camente las ordinarias (las parciales no serán utilizadas) de la forma
(7.2) ẋi = fi (x1 , x2 , . . . , xn , t), i = 1, . . . , n
Con ẋi ≡ dx
dt
i
, y f (·) una función determinada por el problema a tratar. El sistema descrito
por (7.25) puede ser lineal o no lineal y depende tanto de x como de t.

Definition 11 El sistema descrito por (7.25) se dice que es un sistema autónomo si f i (·)
no depende del tiempo. En caso contrario, decimos que (7.25) es un sistema no autónomo o
dependiente del tiempo.

Definition 12 El sistema
(7.3) ẋi = fi (x1 , x2 , . . . , xn , t, u(t))
se dice que es un sistema forzado o con entrada. Si f (·) no depende de u(t) se tiene un
sistema no forzado.

Definition 13 El vector x∗ ∈ Rn es un equilibrio del sistema no forzado (7.26) si


fi (t, x∗ ) = 0 ∀t ≥ 0, ∀i ∈ {1, . . . , n}
Si x∗ es un equilibrio de (7.26), y las condiciones inciales son xi (t0 ) = x∗i para todo t ≥ t0 ,
el sistema tiene una solución única xi (t) = x∗i .
Es decir que si el sistema está en equilibrio desde el principio, éste no se moverá de
ahı́.

Definition 14 El estado de un sistema dinámico es un conjunto de cantidades fı́sicas, cu-


yas especificaciones (en ausencia de otro tipo de excitación) determina completamente la
evolución del sistema [11].

Esto implicarı́a que el número de condiciones iniciales que deben ser especificadas constituye
el orden del sistema, y por ende el número de variables de estado necesarias para determinar
el mismo.

Ejemplo 7.1.1 Sea


ẋ1 = x2 + x1
(7.4)
ẋ2 = 4 + x2 x1
Los puntos de equilibrio del sistema estarı́an dados por (2, −2) y (−2, 2).
7.1. DEFINICIÓN DE VARIABLES DE ESTADO 101

7.1.2. ODEs Lineales


Si la ecuación diferencial en (7.1) es lineal, ésta se puede escribir como

ẋ1 (t) = a11 (t)x1 (t) + . . . + a1n (t)xn (t) + b11 (t)u1 (t) + . . . + b1m (t)um (t)
ẋ2 (t) = a21 (t)x1 (t) + . . . + a2n (t)xn (t) + b21 (t)u1 (t) + . . . + b2m (t)um (t)
(7.5) ..
.
ẋn (t) = an1 (t)x1 (t) + . . . + ann (t)xn (t) + bn1 (t)u1 (t) + . . . + bnm (t)um (t)

La Ecuación (7.5) se puede reducir a nivel vectorial de tal forma que

(7.6) ẋ(t) = A(t)x(t) + B(t)u(t)

donde A(t) y B(t) son matrices de n × n y n × m, respectivamente. La Ecuación (7.6) se


conoce como la Ecuación de Estado. En este caso, A(t) y B(t) dependen del tiempo. En
nuestro análisis, estas dos matrices no dependerán por lo general del tiempo. En algunos
casos se tienen también entradas exógenas (además de las entradas de control) las cuales
dependen del ambiente. En esos casos, la Ecuación (7.6) se transforma en

ẋ(t) = A(t)x(t) + B(t)u(t) + E(t)x0 (t)

donde x0 es un vector que reúne las entradas exógenas (e.g., perturbaciones, ruido), y E(t)
es una matriz de las ganancias que poseen dichas entradas.
Finalmente, lo que nos interesa es la salida en la mayorı́a de los casos, más no el estado.
Por ello, se define un vector de salida y = [y1 , y2 , . . . , yr ]> y estarı́a dado por

y(t) = h(x(t), u(t))

Si se linealizara el sistema, este vector serı́a el observation vector, y la ecuación de salida o


de observación vendrı́a dada por

(7.7) y(t) = C(t)x(t) + D(t)u(t)

donde C(t) y D(t) son matrices de r × n y r × m, respectivamente.

Ejemplo 7.1.2 [11, 27] En este caso se tiene un modelo que corresponde a una masa M
que está sujetada a un amortiguador cuya constante de amortiguación es b y a un resorte
cuya constante es k. La Figura7.1 muestra el sistema.

Por intermedio de las leyes de Newton, sabemos que

d2 y(t) X
M = f (t)
dt2

Asumiendo que el sistema es lineal en todos sus componentes, se tiene que

d2 y(t) dy(t)
(7.8) M + b + ky(t) = f0
dt2 dt
102 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

k b

fo y

Figura 7.1: Modelo mecánico que corresponde a una masa, sujetada por un amortiguador y
un resorte. La posición está dada por y, y se le aplica una fuerza inicial f0 .

La Ecuación (7.8) es una representación de un sistema de segundo orden por intermedio


de ecuaciones diferenciales. Para poder hacer una representación en variables de estado, se
necesita hacer un cambio de variables de la siguiente forma.
x1 (t) = y(t)
(7.9)
x2 (t) = dy(t)
dt

Por lo tanto
ẋ1 (t) = x2 (t)
(7.10) 2
ẋ2 (t) = d dty(t)
2

Utilizando (7.8) en (7.10), con el cambio de variables descrito en (7.9) se tiene que
ẋ1 (t) = x2 (t)
ẋ2 (t) = − Mb x2 (t) − k
x (t)
M 1
+ 1
f
M 0

Las Figuras 7.2 y 7.3 muestran la implementación del sistema utilizando Simulink. La
primera corresponde al modelo utilizando diagrama en bloques donde sólo se pueden utilizar
sumadores, integradores, y ganancias. La segunda corresponde a la simulación del sistema
para cuatro casos diferente. Como se puede observar, en los cuatro casos la posición final es
la misma ( fk0 , i.e., 0.3125m), pero lo que varı́a es la respuesta del sistema. Esto se debe a que
los puntos de equilibrio serı́an x2 = 0 y x1 = k1 f0 . Entre más grande sea el amortiguamiento,
menos oscilaciones tiene el sistema, pero su respuesta pareciera ser más lenta. Es el mismo
caso de la velocidad, ya que ésta siempre llega a 0, pero con más o menos oscilaciones. Cabe
aclarar que en estos cuatro casos las otras variables permanecieron exactamente iguales. Un
ejemplo de qué sucede cuando se deja de aplicar una fuerza constante f0 se puede ver en la
Figura 7.4. Claramente, en este caso, el sistema cambia su punto de equilibrio luego de 19
segundos, ya que en ese momento f0 = 0. Esto era de esperarse debido a la fı́sica del sistema
(i.e., se tiene un amortiguador).

Ejemplo 7.1.3 [11] Representar el sistema descrito en (7.11) por intermedio de diagramas
de bloques.
ẋ1 (t) = a11 x1 + a12 x2 (t) + b11 u1 + b12 u2 (t)
(7.11)
ẋ2 (t) = a21 x1 + a22 x2 (t) + b21 u1 + b22 u2 (t)
7.2. REPRESENTACIÓN Y SOLUCIÓN DE VARIABLES DE ESTADO 103

f0 x2 x1

To Workspace2 To Workspace1 To Workspace

1/M
1 1
Step s s
Gain1
Integrator Integrator1 Scope

Gain

b/M

Gain2

k/M



 

 




 


 

!#"$
% !#& 
'
 !#(
)$* +
, !#&
- .
- /- (
)$0  * +

Figura 7.2: Modelo en Simulink que corresponde a la Figura 7.1.

7.2. Representación y Solución de Variables de Estado

7.2.1. Representación
Consideremos el siguiente sistema de n-ésimo orden [21]

(7.12) y n + a1 y n−1 + . . . + an−1 ẏ + an y = u

En este caso, y n corresponde a la n-ésima derivada de y. Para poder hacer una representación
en término de ecuaciones de estado, se asume que se conocen las condiciones iniciales y(0),
ẏ(0), . . ., y n−1 (0), además de la entrada u(t). Por lo tanto, el conjunto de n variables de
estado será
x1 (t) = y(t)
x2 (t) = ẏ
..
.
dn−1 y(t)
xn (t) = dtn−1

Es decir que la Ecuación (7.12) se puede escribir como

ẋ1 = x2
ẋ2 = x3
..
.
ẋn−1 = xn
ẋn = −an x1 − an−1 x2 − . . . − a1 xn + u
104 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Simulación para b=2. Velocidad (−−) Simulación para b=4. Posición (−)
1 0.6

0.8 0.5

0.4
0.6
0.3
0.4
0.2
0.2
0.1
0
0
−0.2 −0.1

−0.4 −0.2
0 5 10 15 20 0 5 10 15 20

Simulación para b=8, Velocidad (−−) Simulación para b=16, Posición (−)
0.4 0.35

0.3
0.3
0.25
0.2 0.2

0.1 0.15

0.1
0
0.05

−0.1 0
0 5 10 15 20 0 5 10 15 20

Figura 7.3: Simulación en Simulink del sistema descrito en la Figura 7.1. Para este caso se
utilizaron los parámetros f0 = 5N, M = 2kg, k = 16N/m, y cuatro valores para b. En la parte
superior izquierda, se tiene b = 2N.s/m; en la parte superior derecha, se tiene b = 4N.s/m;
en la parte inferior izquierda, se tiene b = 8N.s/m; y en la parte inferior derecha, se tiene
b = 16N.s/m. En todos los casos se tiene que posición está dada por la lı́nea (-), mientras
que la velocidad es la lı́nea punteada (- -).

Lo que expresado en una forma matricial serı́a


      
ẋ1 0 1 0 ... 0 x1 0
 ẋ2   0 0 1 ...  0 x2   0 
      
 ..   .. .
.. ..  .. ..   .. 
 .  =  . .  . . + . u
      
 ẋn−1   0 0 0 . . . 1   xn−1   0 
ẋn −an −an−1 −an−2 . . . −a1 xn 1

La salida se obtiene mediante,


 
x1
 
 x2 

y = 1 0 ... 0  .. 
 . 
xn

De esta forma, el sistema de orden n se ve representado por un conjunto de ecuaciones de


estado y de salida como las que se describen en (7.6) y (7.7).
7.2. REPRESENTACIÓN Y SOLUCIÓN DE VARIABLES DE ESTADO 105

Entrada f =5, únicamente los primeros 19 segundos


0
0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8
0 5 10 15 20 25 30 35 40

Figura 7.4: Simulación en Simulink del sistema descrito en la Figura 7.1, cuando únicamente
se aplica una fuerza f0 durante un determinado tiempo. Para este caso se utilizaron los
parámetros f0 = 5N, M = 2kg, k = 16N/m, y b = 2N.s/m. La posición está dada por la
lı́nea (-), mientras que la velocidad es la lı́nea punteada (- -).

Otra representación más compleja es la que se describe en (7.13).


(7.13) y n + a1 y n−1 + . . . + an−1 ẏ + an y = b0 un + b1 un−1 + . . . + bn−1 u̇ + bn u
Como se puede observar, el problema en este caso es cómo definir las variables de estado
de tal forma que se eliminen las derivadas de u en (7.13). Para ello, se plantea la siguiente
solución
x1 = y − β 0 u
x2 = ẏ − β0 u̇ − β1 u = ẋ1 − β1 u
x3 = ÿ − β0 ü − β1 u̇ − β2 u = ẋ2 − β2 u
..
.
xn = y n−1 − β0 un−1 − β1 un−2 − . . . − βn−2 u̇ − βn−1 u = ẋn−1 − βn−1 u
Donde
β0 = b0
β1 = b 1 − a 1 β0
β2 = b 2 − a 1 β1 − a 2 β0
β3 = b 3 − a 1 β2 − a 2 β1 − a 3 β0
..
.
βn = bn − a1 βn−1 − . . . − an−1 β1 − an β0
Lo que expresado en una forma matricial serı́a
    
ẋ1 0 1 0 ... 0 x1  
 ẋ2   0 β1
0 1 . . . 0   x2
  

 .. 
 
 .. . . ..   ..
 
  β2 

 .  =  . .. .. .  + .. u
 .

 
 ẋn−1 

 0
  . 
0 0 . . . 1   xn−1 
βn
ẋn −an −an−1 −an−2 . . . −a1 xn
106 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

La salida se obtiene mediante,


 
x1
 
 x2 

y = 1 0 ... 0  ..  + β0 u
 . 
xn

Ejemplo 7.2.1 Transforme la siguiente ecuación en términos de variables de estado


ÿ + a1 ẏ + a2 y = b0 ü + b1 u̇ + b2 u
Para ello, se utilizan las transformaciones vistas previamente, por lo cual
x1 = y − β 0 u
x2 = ẏ − β0 u̇ − β1 u = ẋ1 − β1 u
donde
β0 = b 0
β 1 = b 1 − a 1 b0
β2 = b 2 − a 1 β1 − a 2 β0
Reemplazando, se obtiene que
ẋ1 = x2 − β1 u
x˙2 = ÿ − β0 ü − β1 u̇
= −a1 ẏ − a2 y + b0 ü + b1 u̇ + b2 u − b0 ü − b1 u̇ + a1 b0 u̇
= −a1 (x2 + b0 u̇ + β1 u) − a2 (x1 + b0 u) + b2 u + a1 b0 u̇
= −a1 x2 − a1 b0 u̇ − a1 β1 u − a2 x1 − a2 b0 u + b2 u + a1 b0 u̇
= −a1 x2 − a2 x1 − β2 u

7.2.2. Solución
Asumamos que se tiene la representación en el espacio de estado
ẋ(t) = Ax(t)
Esta ecuación se puede escribir como
ẋ1 (t) = a11 x1 (t) + . . . + a1n xn (t)
ẋ2 (t) = a21 x1 (t) + . . . + a2n xn (t)
..
.
ẋn (t) = an1 x1 (t) + . . . + ann xn (t)
Se asume que se conocen las condiciones iniciales del sistema (x(0)), por lo cual se podrı́a
integrar a ambos lados de la ecuación, para ası́ obtener
Rt
x1 (t) − x1 (0) = 0 (a11 x1 (τ ) + . . . + a1n xn (τ )) dτ
Rt
x2 (t) − x2 (0) = 0 (a21 x1 (τ ) + . . . + a2n xn (τ )) dτ
..
.
Rt
xn (t) − xn (0) = 0 (an1 (t)x1 (τ ) + . . . + ann xn (τ )) dτ
7.2. REPRESENTACIÓN Y SOLUCIÓN DE VARIABLES DE ESTADO 107

Esto, escrito de forma matricial, se convierte en


Z t 
(7.14) x(t) = Ax(τ )dτ + x(0)
0

Pero, qué es x(τ ) en (7.14)? Si observamos (7.14), x(τ ) viene siendo la solución de dicha
ecuación cuando x(t)|t=τ . En otras palabras,
Z τ 
0 0
(7.15) x(τ ) = Ax(τ )dτ + x(0)
0

Reemplazando (7.15) en (7.14),


Z t Z τ   
0 0
x(t) = A Ax(τ )dτ + x(0) dτ + x(0)
0 0

Si se hiciera esto repetidamente, se obtiene que


Z Z tZ Z tZ Z !
t τ τ τ0
x(t) = I+ Adτ + A2 dτ 0 dτ + A3 dτ 00 dτ 0 dτ + . . . x(0)
0 0 0 0 0 0

Como el sistema es lineal e invariante en el tiempo, la matriz A es constante, por lo que


 
A2 t2 A3 t3
x(t) = I + At + + + . . . x(0)
2! 3!

El término entre paréntesis es la aproximación en series de Taylor de una exponencial. Por


lo tanto,

(7.16) x(t) = eAt x(0) = Φ(t)x(0)

El término Φ(t) = eAt se conoce como matriz de transición de estado. Esta matriz se conoce
ası́ porque transfiere el estado del sistema en tiempo 0 a tiempo t. En el paper [19] se deducen
19 diferentes formas de computar dicha matriz.
Algunas propiedades de la matriz de transición de estado son

Φ(0) = I

Φ−1 (t) = Φ(−t)


Φk (t) = Φ(kt)
Φ(t1 + t2 ) = Φ(t1 )Φ(t2 )
Φ(t2 − t2 )Φ(t1 − t0 ) = eA(t2 −t0 )
Ahora, si se asume que el sistema tiene respuesta forzada, i.e.,

ẋ(t) = Ax(t) + Bu(t)

ẋ(t) − Ax(t) = Bu(t)


108 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Multiplicando a ambos costados por e−At ,

e−At (ẋ(t) − Ax(t)) = e−At Bu(t)

Pero,
d −At 
e−At (ẋ(t) − Ax(t)) = e x(t)
dt
Integrando a ambos lados,
Z t
−At
e x(t) = e−Aτ Bu(τ )dτ + x(0)
0

Por ende, la solución cuando se tiene respuesta forzada es


Z t
At
(7.17) x(t) = e e−Aτ Bu(τ )dτ + eAt x(0)
0

7.3. Funciones de Transferencia


Definition 15 La función de transferencia de un sistema lineal e invariante en el tiempo,
es la relación en frecuencia que existe entre la entrada y la salida cuando las condiciones
iniciales son iguales a cero.

En esta definición, válida para sistemas lineales e invariantes en el tiempo, se tiene que para
un sistema como (7.18), la relación entre la entrada u y la salida y estará dado por una
transformación en frecuencia de las señales, siempre y cuando las condiciones iniciales sean
nulas.

(7.18) y n + a1 y n−1 + . . . + an−1 ẏ + an y = b0 um + b1 um−1 + . . . + bm−1 u̇ + bm u n≥m

Esto serı́a,
L [salida]
H(s) =
L [entrada] CI=0
dónde L [·] es la transformada de Laplace. Aplicando esto a (7.18), se obtiene que
Y (s) b0 sm + b1 sm−1 + . . . + bm−1 s + bm
(7.19) H(s) = = n
U (s) s + a1 sn−1 + . . . + an−1 s + an
Cuál es la relación que existe entre la función de transferencia y la representación en variables
de estado? Tomemos la Ecuación (7.6), y aplicando la transformada de Laplace, se obtiene
que
sX(s) − x(0) = AX(s) + BU (s)
Como se sabe que las condiciones iniciales son cero, se tiene que

sX(s) − AX(s) = BU (s)

Se asume que (sI − A) es no singular (porqué?), por lo que se deduce que

(7.20) X(s) = (sI − A)−1 BU (s)


7.3. FUNCIONES DE TRANSFERENCIA 109

Por otra parte, la transformada de y(t) en (7.7) viene siendo Y (s) = CX(s) + DU (s), por
lo cual si reemplazamos X(s) en (7.20), se obtiene que la función de transferencia es
Y (s)
(7.21) = C(sI − A)−1 B + D
U (s)
Si se analiza la Ecuación (7.21) se puede observar que |sI − A| corresponde al polinomio
caracterı́stico del sistema, ya que el resto de términos podrı́an ser agrupados de tal forma
G(s)
que H(s) = |sI−A| , por lo que los valores propios de A son idénticos a los polos de H(s). Su
rol es vital ya que las raı́ces del polinomio son las raı́ces caracterı́sticas, o valores propios, o
polos del sistema, los que determinan las principales caracterı́sticas del comportamiento del
sistema no forzado.
Se sabe que
A2 t2 A3 t3
Φ(t) = eAt = I + At + + + ...
2! 3!
Por lo tanto, la transformada de Laplace serı́a igual a
I A A2 A3
Φ(s) = + 2 + 3 + 4 + ...
s s s s
 
I A A2 A3
[sI − A]Φ(s) = [sI − A] + + 3 + 4 + ...
s s2 s s
2
[sI − A]Φ(s) = I 2 + As + As2 + . . .
2 3
− As − As2 − As3 . . .
= I
Por lo tanto,
eAt = L −1 {(sI − A)−1 }
En la literatura, la matriz Φ(s) = (sI − A)−1 se conoce como el resolvent de A (o la matriz
caracterı́stica). Por lo tanto, los pasos a seguir a la hora de calcular la matriz de transición
de estado son:

1. Calcular (sI − A).


2. Obtener Φ(s) = (sI − A)−1 .
3. Tomar la transformada inversa de Laplace de Φ(s) elemento por elemento.

Recuerde que
adj(A) 1
A−1 = = (Cij )>
|A| |A|
dónde adj(A) es la matriz adjunta, o la matriz de cofactores, la cual tiene como coeficientes
(Cij ) = (−1)i+j Mij (Mij es la matriz que remueve la fila i y la columna j, para luego tomar
el determinante). El determinante de una matriz A de n × n se puede definir por medio de
la expansión de Laplace con respecto a una fila arbitraria i de la forma
n
X
detA = aij Cij
j=1
110 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Esto también se puede hacer con respecto a una columna arbitraria k de la forma,
n
X
detA = aik Cik
i=1

Ejemplo 7.3.1 [3] Sea


 
2 4 1
A= 3 0 2 
2 0 3
Se tiene entonces la siguiente serie de menores,

3 2
M12 = =5
2 3

2 1
M22 = =4
2 3

2 1
M32 = =1
3 2

Por lo tanto, los cofactores asociados serı́an C12 = (−1)3 5 = −5, C12 = (−1)4 4 = 4, y
C32 = (−1)5 1 = −1. Por lo tanto, usando la expansión de Laplace con respecto a la columna
2, se tiene que |A| = 4C12 = −20.

Ejemplo 7.3.2 Calcular la matriz adjunta cuando se tiene una matriz cuadrada de n = 2,
y n = 3.  
a11 a12
A=
a21 a22
 
b11 b12 b13
B =  b21 b22 b23 
b31 b32 b33
 
a22 −a12
adj(A) =
−a21 a11
 
b11 b12 b13
B =  b21 b22 b23 
b31 b32 b33
 
b22 b23 b12 b13 b12 b13
 b32 b33 − b32 b33 b22 b23 

 
 b21 b23 b11 b13 b11 b13 
adj(B) =  − b31 b33 b31 b33 − b21 b23 

 
 b21 b22
− b11 b12 b11 b12


b31 b32 b31 b32 b21 b22
7.3. FUNCIONES DE TRANSFERENCIA 111

Ejemplo 7.3.3 [11] Hallar la matriz de transición de estado si las dinámicas de un motor
DC con inercia están dadas por

θ̇ = w
ẇ = −αw + βu

dónde α y β son constantes del motor.


 
At 1 (1 − e−αt )/α
e =
0 e−αt

Ejemplo 7.3.4 Considérese la función de transferencia asociada al diagrama de la Figura


7.5.
Y (s) a2 s 2 + a 1 s + a 0
= 3
U (s) s + b 2 s2 + b 1 s + b 0

U (s) Y (s)
1 2
s3 +b2 s2 +b1 s+b0 a2s + a1s + a0
V (s)

Figura 7.5: Diagrama en bloques.

Halle la representación de la forma

ẋ = Ax + Bu
y = Cx + Du

Se tiene entonces que


dv 3
+ b2 v̈ + b1 v̇ + b0 v = u
dt3
Tomando x1 = v, x2 = v̇, y x3 = v̈, se tiene entonces que
   
0 1 0 0
ẋ =  0 0 1  x + 0 u

−b0 −b1 −b2 1

Por otro lado, se tiene que


a2 v̈ + a1 v̇ + a0 v = y
Por lo tanto, se obtendrı́a que
y = [a0 a1 a2 ]x

Ejemplo 7.3.5 [28] Un calibrador óptico utilizado por la Chrysler Corporation, el cual se
utiliza para verificar el perfecto alineamiento de todos los componentes metálicos de varias
clases de Sedan de cuatro puertas, tiene unas dinámicas en lazo cerrado dadas por

ÿ + 5ẏ + 6y = f (t)

Asumiendo que f (t) = 0, y que y(0) = 1, ẏ(0) = 0, halle y(t).


112 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Haciendo x1 (t) = y(t), y x2 (t) = ẋ1 (t), se tiene que


    
ẋ1 (t) 0 1 x1 (t)
=
ẋ2 (t) −6 −5 x2 (t)

y C = [1, 0]. Hallando la matriz de transición de estado


 
−1 1 s+5 1
(sI − A) = 2
s + 5s + 6 −6 s
" #
s+5 1
(s+2)(s+3) (s+2)(s+3)
Φ(s) = −6 s
(s+2)(s+3) (s+2)(s+3)
 
3e−2t − 2e−3t e−2t − e−3t
Φ(t) = −2t −3t
−6e + 6e −2e−2t + 3e−3t
Como sabemos,    
x1 (t) x1 (0)
= Φ(t)
x2 (t) x2 (0)
Entonces,

y(t) = 3e−2t − 2e−3t

7.4. Formas Canónicas


En el siguiente ejemplo se muestra como una misma ecuación diferencial puede tener
varias representaciones en el espacio de estado. Porqué? Porque existen varios métodos pa-
ra transformar las variables de estado. De ahı́ que surjan diversos tipos de formas que se
denominarán las formas canónicas.

Ejemplo 7.4.1 Encuentre la representación en el espacio de estado de

d3 y
+ 6ÿ + 11ẏ + 6y = 6u
dt3
Según lo visto en la sección anterior, se tiene que las matrices A, B, C, y D vienen dadas
por  
0 1 0
A= 0 0 1 
−6 −11 −6
 
0
B= 0 
6
 
C= 1 0 0
7.4. FORMAS CANÓNICAS 113

y D = 0. La matriz de transición de estado estarı́a dada en Laplace por


 2 
s + 6s + 11 s+6 1
1
(sI − A)−1 = 3  −6 s2 + 6s s 
s + 6s2 + 11s + 6
−6s −11s − 6 s2
Por lo que la función de transferencia serı́a
6
H(s) = C(sI − A)−1 B =
s3 + 6s2 + 11s + 6
Si partimos de la función de transferencia, se tiene que
3 6 3
Y (s) = s+1 U (s) − s+2 U (s) + s+3 U (s)
= X1 (s) + X2 (s) + X3 (s)
Por lo que se tendrı́a una representación en el espacio de estado igual a
ẋ1 = −x1 + 3u
ẋ2 = −2x2 − 6u
ẋ3 = −3x3 + 3u
y = x1 + x2 + x3
Por ende, se tendrı́an otro tipo de matrices A, B, C, y D.

El resultado del ejemplo anterior nos muestra claramente que una función de transferencia
puede tener muchas representaciones en el espacio de estado. A continuación se explicarán los
métodos estándares conocidos como representaciones CANÓNICAS, las cuales tienen varias
propiedades que serán explotadas a lo largo del curso.

7.4.1. First Companion Form: Forma Canónica Controlable


Arranquemos por definir las variables de estado para la siguiente función de transfe-
rencia
1
(7.22) H(s) = n n−1
s + a1 s + . . . + an−1 s + an
Esto es equivalente a
y n + a1 y n−1 + . . . + an−1 y + an = u
Esta ecuación se puede ver como una serie de n integradores, donde la salida del último
corresponderı́a a la salida y, la salida del penúltimo seria ẏ, y ası́ sucesivamente. La Figura
7.6 muestra como serı́a el diagrama en bloques para este caso.
La representación en el espacio de estado viene dada por
ẋ1 = x2
ẋ2 = x3
..
.
ẋn−1 = xn
ẋn = −an x1 − an−1 x2 − . . . − a1 xn + u
y = x1
114 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Figura 7.6: Representación en diagramas en bloques de la Ecuación (7.22). Figura tomada


de [11].

Si formásemos la matriz A, se puede ver que tiene una estructura especial: los coeficientes
del denominador de H(s) están en la última fila precedidos de un signo menos; el resto de
valores son 0, excepto la “superdiagonal” cuyos términos son 1. Este tipo de matrices se
conocen como matrices que tienen una companion form.
La función de transferencia en (7.22) se modifica de tal forma que ahora, la función de
transferencia es
b0 sn + b1 sn−1 + . . . + bn−1 s + bn
(7.23) H(s) =
sn + a1 sn−1 + . . . + an−1 s + an
donde si el grado del numerador fuera menor o igual al grado del denominador, i.e., deg(num)
≤ deg(den), entonces se dice que es una función de transferencia propia; si es estrictamente
menor, entonces se dice que es una función de transferencia estrictamente propia; y si es
mayor, entonces se dice que la función de transferencia es impropia.
Pero esta ecuación es equivalente a
Y (s) Z(s)
H(s) =
Z(s) U (s)
Z(s)
Por linealidad, U (s)
serı́a equivalente a (7.22), mientras que se puede decir que

Y (s)
= b0 sn + b1 sn−1 + . . . + bn−1 s + bn
Z(s)
Ası́ pues, se tiene una parte que es idéntica a lo expuesto anteriormente, mientras que la
segunda serı́a la suma escalizada de las salidas de los integradores que se forman de acuerdo
a lo visto previamente. Un diagrama en bloques se puede ver en la Figura 7.7.
Las matrices A y B son las mismas que se definieron previamente, mientras que las
matrices C y D estarı́an dadas en este caso por el hecho de que

y = (bn − an b0 )x1 + (bn−1 − an−1 b0 )x2 + . . . + (b1 − a1 b0 )xn + b0 u

Esta ecuación se obtiene por los dos caminos directos que existen, i.e.,

a Uno que multiplica cada uno de los elementos.

b Otro que llega al sumador/restador y se ve multiplicado por b0 .


7.4. FORMAS CANÓNICAS 115

Figura 7.7: Representación en diagramas en bloques de la Ecuación (7.23). Figura tomada


de [11].

La estructura en este caso se conoce como la first canonical form. En control se le da el


nombre de forma canónica controlable.

Ejemplo 7.4.2 EJEMPLO

La forma canónica tiene las siguientes propiedades:

El polinomio caracterı́stico se puede determinar por la última lı́nea de Ac , i.e.,

|λI − A| = 0 ⇒ an + an−1 λ + . . . + a1 λn = 0

Un sistema con esta estructura siempre es controlable, y su matriz de controlabilidad


es full rank.

7.4.2. Second Companion Form: Forma Canónica Observable


En la first companion form los coeficientes del denominador de H(s) aparecı́an en
alguna fila de la matriz A. Existe otra forma en la que los coeficientes aparecen en alguna
columna de dicha matriz. Tomando (7.23), y factorizando, se obtiene que

sn (Y (s) − b0 U (s)) + sn−1 (a1 Y (s) − b1 U (s)) + . . . + (an Y (s) − bn U (s)) = 0

Dividiendo por sn y despejando Y (s), se tiene que

1 1
Y (s) = bo U (s) + (b1 U (s) − a1 Y (s)) + . . . + n (bn U (s) − an Y (s))
s s

El término s1i corresponde a la función de transferencia de una cadena de i integradores. La


Figura 7.8 ilustra este hecho.
116 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Figura 7.8: Representación en diagramas en bloques de la forma canónica controlable. Figura


tomada de [11].

ẋ1 = x2 − a1 (x1 + b0 u) + b1 u
ẋ2 = x3 − a2 (x1 + b0 u) + b2 u
..
.
ẋn−1 = xn − an (x1 + b0 u) + bn−1 u
ẋn = −an (x1 + b0 u) + bn u
y = x1 + b0 u

Si en la Figura 7.8 se numeran las variables de estado de izquierda a derecha (i.e.,


términos dentro de cı́rculos en la figura?) se obtiene la forma
 
0 0 . . . −an
 1 0 . . . −an−1 
 
Ao =   0 1 . . . −a n−2


 ... ... ... ... 
0 0 . . . −a1
 
bn − a n b0
 bn−1 − an−1 b0 
 
Bo =  .. 
 . 
b1 − a 1 b0
 
Co = 0 0 . . . 1
y Do = b0 . Esta es la que se conoce como la forma canónica observable. Si se comparan las
matrices de la sección anterior con estas, se tiene que Ac = A> > >
o , Bc = Co , y C c = Bo .

7.4.3. Jordan Form


Polos de H(s) Diferentes

La función de transferencia en (7.23) se convierte en


r1 r2 rn
b0 + + + ... +
s − s1 s − s2 s − sn
7.4. FORMAS CANÓNICAS 117

En algunos casos, para hallar los residuos de una función de transferencia, se puede recurrir
a programas como Matlab. A continuación se presenta cómo se deberı́a hacer para obtener
dichos residuos de la expansión en fracciones parciales.

RESIDUE Partial-fraction expansion (residues).


[R,P,K] = RESIDUE(B,A) finds the residues, poles and direct term of
a partial fraction expansion of the ratio of two polynomials B(s)/A(s).
If there are no multiple roots,
B(s) R(1) R(2) R(n)
---- = -------- + -------- + ... + -------- + K(s)
A(s) s - P(1) s - P(2) s - P(n)
Vectors B and A specify the coefficients of the numerator and
denominator polynomials in descending powers of s. The residues
are returned in the column vector R, the pole locations in column
vector P, and the direct terms in row vector K. The number of
poles is n = length(A)-1 = length(R) = length(P). The direct term
coefficient vector is empty if length(B) < length(A), otherwise
length(K) = length(B)-length(A)+1.

If P(j) = ... = P(j+m-1) is a pole of multplicity m, then the


expansion includes terms of the form
R(j) R(j+1) R(j+m-1)
-------- + ------------ + ... + ------------
s - P(j) (s - P(j))^2 (s - P(j))^m

[B,A] = RESIDUE(R,P,K), with 3 input arguments and 2 output arguments,


converts the partial fraction expansion back to the polynomials with
coefficients in B and A.

Una forma de ver esta ecuación es utilizar diagramas en bloques como se puede ver en
la Figura 7.9.

ẋ1 = s1 x1 + u
ẋ2 = s2 xs + u
..
.
ẋn = sn xn + u
y = r 1 x1 + r 2 x2 + . . . + r n xn + b 0 u

En este caso
 
s1 0 . . . 0
 0 s2 . . . 0 
A= 
 ... ... ... ... 
0 0 . . . sn
118 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Figura 7.9: Representación en diagramas en bloques de la forma canónica de Jordan cuando


las raı́ces son diferentes. Figura tomada de [11].

 
1

 1 

B= .. 
 . 
1

 
C= r1 r2 . . . r n

y D = b0 . Si las raı́ces son reales, se podrı́a implementar en hardware. En cualquier otro caso
sólo servirı́a desde un punto de vista teórico.
7.4. FORMAS CANÓNICAS 119

Polos de H(s) con Raı́ces Repetidas

Cuando el sistema tiene raı́ces repetidas, la expansión en términos de fracciones par-


ciales no es tan simple. En este caso, lo que se tiene es algo de la forma
(7.24) H(s) = bo + H1 (s) + . . . + Hn̄ (s)
donde n̄ < n es el número de polos diferentes de H(s), y
r1,i r2,i rki ,i
Hi (s) = + 2
+ ... +
s − si (s − si ) (s − si )ki
con ki como la multiplicidad del polo i (i = 1, . . . , n̄). El último término se puede ver como
1
una cadena de ki bloques idénticos con una función de transferencia del tipo s−s i
. En la
Figura 7.10 se ilustra este hecho.

Figura 7.10: Representación en diagramas en bloques de la forma canónica de Jordan cuando


las raı́ces son repetidas. Figura tomada de [11].

La representación serı́a
ẋ1,i = si x1,i + u
ẋ2,i = x1,i + si x2,i
..
.
ẋki ,i = xki −1,i + si xki ,i
yi = r1,i x1,i + r2,i x2,i + . . . + rki ,i xki ,i
En este caso si definimos xi = [x1,i , x2,i , . . . , xki ,i ]> , se tiene la siguiente representación

ẋi = Ai xi + bi u
yi = C i xi
donde  
si 0 ... 0

 1 si ... 0 

Ai = 
 0 1 ... 0 

 ... ... ... ... 
0 0 . . . si
120 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN
 
1

 0 

Bi =  .. 
 . 
0
 
C= r1,i r2,i . . . rki ,i
La matriz Ai consiste en dos diagonales: la diagonal principal con los polos más una subdiago-
nal de unos. En álgebra esto se conoce como la Jordan form (si se tomara otra nomenclatura,
los unos irı́an en la parte superior).
Por (7.24) se tienen n̄ subsistemas de este mismo calibre. Por lo tanto, el sistema general
consistirı́a en concatenar cada uno de ellos, definiendo x = [x1 , x2 , . . . , xn̄ ]> , con
 
A1 0 . . . 0
 0 A2 . . . 0 
A= ... ... ... ... 

0 0 . . . An̄
 
B1

 B2 

B= .. 
 . 
Bn̄
 
C= C1 C2 . . . Cn̄
y D = b0 .
EJEMPLOS MATLAB/SIMULINK

7.5. Equilibrio
Asumamos que se tiene un sistema que puede ser descrito mediante la siguiente ecuación
diferencial

(7.25) ẋ = f (t, x)

dónde x ∈ Rn es el estado del sistema, t ≥ 0, con una condición inicial x(t0 ) = x0 , siendo t0
el valor inicial del tiempo. Por lo general, no existen reglas generales que permitan encontrar
de manera explı́cita las soluciones del sistema descrito mediante la Ecuación (7.25). En este
caso, el análisis de este tipo de problemas se realiza de dos formas: i) un análisis cuantita-
tivo mediante el cual se haya de manera explı́cita la solución de (7.25) utilizando métodos
numéricos y aproximaciones; o ii) un análisis cualitativo, en el cual no se busca una solución
explı́cita de la solución de (7.25), sino que el sistema es estudiado gracias al comportamiento
de la familia de soluciones del problema en cuestión. Nosotros enfocaremos este tutorial en
este segundo ı́tem, ya que los resultados principales de este análisis incluyen las propieda-
des de estabilidad de un punto de equilibrio (o posición de reposo), y el acotamiento de las
soluciones de ecuaciones diferenciales de la forma definida en (7.25).
7.5. EQUILIBRIO 121

Empecemos nuestro análisis por definir ciertas propiedades básicas en nuestro proble-
ma. La ecuación diferencial que nos atañe está definida por intermedio de la Ecuación (7.25),
dónde x ∈ Rn . Para definir el dominio de f tenemos que considerar dos opciones:

1. Si hablamos de resultados globales debemos asumir que f : R+ × Rn 7→ Rn , dónde


R+ = [0, +∞) es el dominio del tiempo.

2. Si estamos considerando resultados locales debemos asumir que f : R+ ×B(h) 7→ Rn ,


para un cierto h tal que B(h) = {x ∈ Rn : |x| < h}, y | · | es cualquiera de las normas
en Rn . Esto quiere decir que estamos limitando nuestro análisis a una cierta bola de
radio h donde está definido nuestro estado x.

Algunas veces se asume que t ∈ R, pero nosotros asumiremos en lo que resta que t ∈
[t0 , +∞), dónde t0 ≥ 0. En el siguiente análisis asumiremos que para un determinado t0 ,
y una condición inicial x(t0 ) = x0 , el sistema de la Ecuación (7.25) posee una solución
única que llamaremos φ(t, t0 , x0 ). Esta solución está definida para todo t ≥ t0 y depende de
manera continua de los datos iniciales, i.e., (t0 , x0 ). Uno de los casos particulares en los que
esta aseveración es cierta es cuando f satisface la condición de Lipschitz que definimos a
continuación.

Definition 16 Condición de Lipschitz: Sea D un conjunto tal que D ⊂ R n . Llamemos


C(D) al conjunto donde todos los elementos de f son continuos, i.e., f ∈ C(D). Decimos
que f ∈ C(D) satisface la condición de Lipschitz en D (con respecto a x) con constante
Lipschitz L si

(7.26) |f (t, x) − f (t, y)| ≤ L|x − y|

para todo (t, x), (t, y) que pertenezcan a D. En este caso, la función f es continua según
Lipschitz en x.

La Definición 16 es importante porque nos permite establecer el siguiente teorema.

Theorem 7.5.1 Existencia Local y única: Sea f (t, x) una función continua en todo t
que satisface (7.26) para todo x, y ∈ B = {x ∈ Rn : ||x − x0 || ≤ r} y para todo t ∈ [t0 , t1 ].
Existe pues un determinado δ > 0 tal que la ecuación

ẋ = f (t, x) con x(t0 ) = x0

tiene una solución única sobre [t0 , t0 + δ].

Lo que nos quiere decir el Teorema 7.5.1 es que si para cierto xm → x0 , entonces la trayectoria
φ(t, t0 , xm ) → φ(t, t0 , x0 ) de manera uniforme en t en |t − t0 | ≤ δ para cierto δ > 0.
Una vez establecidas estas condiciones, podemos definir el punto de equilibrio.

Definition 17 Un punto xe ∈ Rn se dice que es un punto de equilibrio de la Ecuación (7.25)


(en un tiempo t∗ ∈ R+ ) si,
f (t∗ , xe ) = 0 ∀t ≥ t∗
122 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Nótese que para sistemas autónomos (aquellos en los cuales la Ecuación (7.25) no depende
del tiempo), un punto xe ∈ Rn es un punto de equilibrio en un determinado tiempo t∗ si y
sólo si es un punto de equilibrio para todo tiempo. Nótese también que si xe es un punto de
equilibrio en t∗ , entonces la transformación τ = t − t∗ reduce la Ecuación (7.25) a

dx
= f (τ + t∗ , x)

y por ende, xe es un punto de equilibrio en τ = 0. Es por ello que se asumirá que t∗ = 0, y
omitiremos su uso en lo que resta del documento. Además, si x(t0 ) = xe , el sistema está en
reposo desde el inicio, por lo cual no tiene porque desplazarse de su punto de equilibrio.
Ejemplo [13]: Consideremos el sistema descrito por

ẋ1 = x2
ẋ2 = − gl sin(x1 ) − k
x
m 2

dónde g, l, m, k > 0. Este sistema describe de forma simple el péndulo sin fricción, y como
se puede ver tiene infinitos puntos de equilibrio localizados en (πn, 0), n = 0, ±1, ±2, . . ..
Fı́sicamente sólo tiene dos puntos de equilibrio, y los demás son la repetición de los dos
primeros.
Para poder definir ciertas caracterı́sticas de un punto de equilibrio, introducimos la
siguiente definición.

Definition 18 Un punto xe de (7.25) se dice que es un punto de equilibrio aislado si existe


una constante r > 0 tal que B(xe , r) ⊂ Rn no contiene más puntos de equilibrio de (7.25)
que xe . En este caso, la bola de radio r y centro xe se define como B(xe , r) = {xe ∈ Rn :
|x − xe | ≤ r}.

Como podemos observar, todos los puntos de equilibrio de la Ecuación (7.27) son aislados
en R2 . Sin embargo, existen sistemas en los cuales los puntos de equilibro no son aislados.
Ejemplo [?]: Consideremos el sistema

ẋ1 = −ax1 + bx1 x2


ẋ2 = −bx1 x2

dónde a > 0 y b > 0 son constantes. Queda claro que x1e = 0, por lo cual cualquier punto
en el eje positivo de x2 es un punto de equilibrio de (7.27). Ası́ pues, el punto de equilibrio
no es aislado.
Es claro que existen casos en los cuales no existen puntos de equilibrio. Por ejemplo,
tomemos el siguiente ejemplo

ẋ1 = 2 + sin(x1 + x2 ) + x1
ẋ2 = 2 + sin(x1 + x2 ) − x1

En lo que nos resta, asumiremos que los puntos de equilibrio son aislados. También asumi-
remos que el punto aislado de equilibrio que analizaremos es xe = 0. Por qué? Asumamos
7.6. ESTABILIDAD Y ACOTAMIENTO 123

que xe 6= 0 es un punto de equilibrio de (7.25). Si definimos e = x − xe , entonces e = 0 es un


punto de equilibrio de

(7.27) ė = f (t, e + xe )

Como las propiedades de (7.27) y (7.25) son las mismas, podemos asumir que el punto de
equilibrio está localizado en xe = 0, el cual es conocido como el punto de equilibrio trivial
de (7.25).

7.6. Estabilidad y Acotamiento

7.6.1. Conceptos Locales


El siguiente análisis definirá la estabilidad de un punto de equilibrio xe = 0 de (7.25),
mas no de un conjunto de puntos de equilibrio. La razón primordial de ello es que si qui-
siéramos hacer lo último, tendrı́amos que introducir el concepto de distancia, el cual puede
llegar a confundir inicialmente al lector. En una versión más detallada de este tutorial, es
menester incluir este tipo de definiciones.

Definition 19 Se dice que el punto de equilibrio xe de (7.25) es estable en el sentido


de Lyapunov (SISL) si para cualquier  > 0 y cualquier t0 ∈ R+ existe un δ(, t0 ) > 0 tal
que

(7.28) |φ(t, t0 , x0 )| <  ∀t > t0

cuando

(7.29) |x0 | < δ(, t0 )

Gráficamente esto podrı́a verse como en la Figura 7.11, para el caso de n = 2.


Cabe reafirmar que es el punto de equilibrio el que es estable, mas no el sistema.
Además, como en la definición se tienen que cumplir las Ecuaciones (7.28) y (7.29) para
cualquier  > 0 y cualquier t0 ∈ R+ , no es lógico tratar de probar que un punto de equilibrio
es estable por medio de simulaciones. La simulación sólo ayudarı́a para dar una intuición
sobre lo que podrı́a suceder, mas no es en ningún caso una prueba matemática.
En la Definición 19, δ(, t0 ) depende de  y t0 . Si δ es independiente de t0 , i.e., δ = δ(),
entonces se dice que el punto de equilibrio xe = 0 de (7.25) es uniformemente estable.

Definition 20 Se dice que el punto de equilibrio xe de (7.25) es asintóticamente


estable (AS) si:

1. Es SISL.
2. Para cualquier t0 ≥ 0, existe un η(t0 ) > 0, tal que

lı́m φ(t, t0 , x0 ) = 0 si |x0 | < η(t0 )


t→∞
124 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

x2

φ(t,t0,x 0)

x1
δ(ε,t0)

Figura 7.11: SISL de un punto de equilibrio.

El dominio de atracción del punto de equilibrio xe de (7.25) es el conjunto de todas las


condiciones iniciales x0 ∈ Rn tales que φ(t, t0 , x0 ) → 0 cuando t → ∞ para un cierto t0 ≥ 0.
Si la segunda condición es válida, se dice que el punto de equilibrio x e de (7.25) es atraı́do.
Si η en la segunda condición no depende de t0 , y además el punto de equilibrio xe de
(7.25) es uniformemente estable, se dice que el punto de equilibrio xe de (7.25) es unifor-
memente asintóticamente estable (UAS).

Cuál es la diferencia entre un punto de equilibrio que es SISL y uno que es AS? Cuando ha-
blamos de SISL se dice que el sistema tiene unas condiciones iniciales tales que si el sistema
está cerca de su punto de equilibrio, entonces al final el sistema se mantendrá cerca del punto
de equilibrio. Sin embargo, en la definición de AS lo que se tiene es que si el sistema arranca
cercano al punto de equilibrio, entonces además de que la trayectoria se mantendrá cerca,
ésta convergerá al punto de equilibrio.

Ejemplos:

ẋ = 0: Este sistema tiene un punto de equilibrio que es SISL, más en ningún momento
es AS ya que las trayectorias no convergen al punto de equilibrio.
ẋ = −ax: Si asumimos que a > 0, el punto de equilibrio es xe = 0, y como se puede
ver este es SISL pero además como la trayectoria es φ(t, t0 , x0 ) = x0 e−at , tomando el
lı́mite en el infinito, se puede ver que la trayectoria converge a 0, con lo cual es AS.

Este último ejemplo nos muestra una caracterı́stica adicional, y es cuán rápido las
trayectorias convergen al punto de equilibrio. A continuación la definimos.

Definition 21 El punto de equilibrio xe = 0 es exponencialmente estable (ES) si existe


una constante α > 0, y para cualquier  > 0, existe un δ() > 0 tal que
|φ(t, t0 , x0 )| ≤  exp−α(t−t0 )
7.6. ESTABILIDAD Y ACOTAMIENTO 125

para todo t ≥ t0 cuando |x0 | < δ() y t0 ≥ 0.

La Figura 7.12 muestra el comportamiento de φ(t, t0 , x0 ) en las vecindades de un punto de


equilibrio xe = 0 que es ES.
φ(t)

ε e- αt
ε

x0
δ
t

Figura 7.12: ES de un punto de equilibrio.

Si un punto de equilibrio xe = 0 de (7.25) no es SISL, entonces se dice que es inestable.


Sin embargo, pueden existir casos en los que las soluciones de φ(t, t0 , x0 ) tienden a cero cuando
t aumenta, por lo cual los conceptos de inestabilidad y atracción pueden ser compatibles.
Hasta ahora sólo hemos considerado propiedades locales del punto de equilibrio. A
continuación enunciaremos ciertas propiedades globales.

7.6.2. Conceptos Globales


Definition 22 La solución de φ(t, t0 , x0 ) de (7.25) es acotada si existen un β > 0 tal que
|φ(t, t0 , x0 )| < β t ≥ t0
El sistema (7.25) posee estabilidad según Lagrange si para cada t 0 ≥ 0 y x0 , la solución
φ(t, t0 , x0 ) es acotada.

En la definición anterior β podı́a depender de t0 . Si esta constante es tal que para cualquier
α > 0 y cualquier t0 ∈ R+ , β = β(α) > 0 (independiente de t0 ), se tiene que si |x0 | < α,
entonces |φ(t, t0 , x0 )| < β para todo t ≥ t0 .

Definition 23 Las soluciones de la Ecuación (7.25) son uniformemente y últimamente


acotadas (UUB) si existe una constante B > 0 (que es la constante de acotamiento), y si
para cualquier α > 0 y t0 ∈ R+ , existe un T = T (α) (independiente de t0 ) tal que
|x0 | < α ⇒ |φ(t, t0 , x0 )| < β t ≥ t0 + T
126 CAPÍTULO 7. VARIABLES DE ESTADO: INTRODUCCIÓN

Gráficamente esta última definición puede verse ilustrada en la Figura 7.13. Lo que se ilustra
en esta figura es que si bien se pueden llegar a tener oscilaciones elevadas en un principio,
luego de un tiempo T (α), las trayectorias se ven acotadas por una especie de cilindro de
radio B.

φ(t)

x0
α B t

T(α)

Figura 7.13: UUB.

En la definición de AS si el dominio de atracción del punto de equilibrio xe = 0


es Rn , se dice que xe = 0 de (7.25) es globalmente asintóticamente estable (GAS).
Finalmente, el punto de equilibrio xe = 0 de (7.25) es globalmente exponencialmente
estable (GES) si existe un α > 0, y para cualquier β > 0 existe un k(β) > 0 tal que
|φ(t, t0 , x0 )| ≤ k(β)|x0 |e−α(t−t0 ) para todo t ≥ t0 cuando |x0 | < β.
Capı́tulo 8

Variables de Estado: Diseño

Entre tenerle miedo a todo y tenerle miedo a mi propio miedo, elijo esto último, no
se olvide que soy policı́a y que si le tuviera miedo a todo no podrı́a trabajar. Pero si
le tiene miedo a sus miedos su vida se puede convertir en una observación constante
del miedo, y si éstos se activan, lo que se produce es un sistema que se alimenta a
sı́ mismo, un rizo del que le resultarı́a difı́cil escapar, dijo la directora.
2666, Roberto Bolaño

Las notas de este capı́tulo han sido sacadas de varios libros, dentro de los que se
destacan [21, 6, 10, 31, 11, 3].

8.1. Introducción
Normalmente estamos interesados en controlar el sistema con una señal de control u(t),
que está ligada a las variables de estado del sistema. Este controlador opera bajo la infor-
mación disponible, y es un sistema de compensación bastante utilizado para optimización de
sistemas.
Los conceptos de controlabilidad y observabilidad fueron introducidos por R. E. Kal-
man en los años 50s para explicar porqué un método de diseño de compensadores para
sistemas inestables por medio de la cancelación de los polos en el semiplano derecho por
ceros en el mismo semiplano no siempre funcionaba. Kalman demostró que una cancelación
perfecta polo-cero podrı́a resultar en un sistema inestable incluso teniendo una función de
transferencia estable.

Ejemplo 8.1.1 [11] Asumamos que se tiene el sistema descrito por las ecuaciones de es-
tado,
ẋ1 = 2x1 + 3x2 + 2x3 + x4 + u
ẋ2 = −2x1 − 3x2 − 2u
ẋ3 = −2x1 − 2x2 − 4x3 + 2u
ẋ4 = −2x1 − 2x2 − 2x3 − 5x4 − u
y = 7x1 + 6x2 + 4x3 + 2x4

127
128 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

La función de transferencia está dada por

s3 + 9s2 + 26s + 24
H(s) = C(sI − A)−1 B =
s4 + 10s3 + 35s2 + 50s + 24
Factorizando, se puede ver como un sistema de cuarto orden se reduce a uno de primer orden
de la forma
(s + 2)(s + 3)(s + 4) 1
H(s) = =
(s + 1)(s + 2)(s + 3)(s + 4) s+1
Porqué sucede esto?
Por intermedio de un cambio de variables (que se verá más adelante), el sistema puede
ser escrito como

ż1 = −z1 + u
ż2 = −2z2
(8.1) ż3 = −3z3 + u
ż4 = −4z4
y = z1 + z2

El diagrama en bloques que se muestra en la Figura 8.1 nos ilustra que:

La variables z1 se ve afectada por la entrada u y es visible por la salida.

La variables z2 no se ve afectada por la entrada u, pero sı́ es visible por la salida.

La variables z3 se ve afectada por la entrada u, pero no es visible por la salida.

La variables z4 no se ve afectada por la entrada u y no es visible por la salida.

Como Kalman demostró, todo sistema de la forma genérica,

ẋ = Ax + Bu
y = Cx

puede ser transformado en susbistemas como los del ejemplo anterior. Para este caso especı́fi-
co, se concluye que

1. El primer subsistema es controlable y observable.


La parte que es controlable se dice que es estabilizable, mientras que la que es observable
se dice que es detectable.

2. El segundo subsistema no es controlable, pero sı́ es observable.

3. El tercer subsistema es controlable, pero no es observable.

4. El último subsistema no es ni controlable ni observable.


8.2. TRANSFORMACIÓN DE LAS VARIABLES DE ESTADO 129
u z1
R
+ y

−1

R
+ z2

−2

R
+ z3

−3

R z4
+

−4

Figura 8.1: Diagrama en bloques para (8.1).

La función de trasferencia está determinada sólo por el subsistema que es tanto controlable
como observable. Se dice que un sistema que contiene un subsistema NO controlable es NO
controlable; un sistema que contiene un subsistema NO observable es NO observable.
Si existe al menos una cancelación de polos y ceros inestables, cualquier perturbación
llevarı́a al sistema a volverse inestable. Sin embargo, en este caso no habrı́a problema ya
que los polos eran todos estables, por lo cual la cancelación polos/ceros no nos afectaba en
deması́a.

8.2. Transformación de las Variables de Estado


Muy frecuentemente las variables de estado que se utilizan no son las mejores en la
formulación de un sistema dinámico
ẋ = Ax + Bu
y = Cx + Du
Esta es una de las razones por las que pasar de G(s) a (A, B, C, D) no es único (realization
problem).
130 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

Si se escoge
z = Tx
ż = T ẋ
T −1 ż = Ax + Bu
T −1 ż = AT −1 z + Bu
Por lo que, la normal/modal canonical form viene siendo
ż = T AT −1 x + T Bu
y = CT −1 x + Du
Lo que se puede escribir de forma más sencilla como
ż = Āz + B̄u
y = C̄z + D̄u

Por ejemplo, en el caso de calcular eAt , si la matriz Ā fuera diagonal, entonces serı́a más
sencillo calcular eĀt que eAt , ya que los valores propios no se ven afectados bajo una trans-
formación ideal, i.e.,
|λI − T AT −1 | = |T (λI − A)T −1 |
= |T ||λI − A||T −1 |
= |T ||T −1 ||λI − A|
= |λI − A|
El problema que surge entonces es escoger T de tal forma que Ā = T AT −1 sea diagonal.

Definition 24 Una valor propio λ ∈ C de A satisface

λe = Ae

donde A ∈ Rn×n , e ∈ Cn . Este último es el vector propio de A asociado con λ.

Una de los métodos para hallar T es utilizando la noción de vectores propios agrupados todos
en la matriz T −1 . Sin embargo, el método que se describe a continuación sólo es válido si los
n valores propios son diferentes, i.e., no existe ninguno que sea repetido.
Para hacer la explicación más sencilla, supongamos que A tiene tres vectores propios
diferentes e1 , e2 , e3 . A continuación escogemos las columnas de T −1 como cada uno de los
vectores propios, i.e.,  
| | |
T −1 =  e1 e2 e3 
| | |
Luego, se puede obtener T , y por lo tanto calcular Ā, la cual será una matriz diagonal que
tendrá en su diagonal los valores propios λi , i = 1, . . . , n. Esto nos permitirı́a encontrar la
modal canonical form si es que existe.

Ejemplo 8.2.1 Encontrar la modal canonical form del siguiente sistema, si es que existe.
   
−1 −2 3
ẋ = x+ u
0 −2 1
y = [2 − 6]x
8.2. TRANSFORMACIÓN DE LAS VARIABLES DE ESTADO 131

En primera instancia, tendrı́amos que hallar los valores propios de A por medio de |λI −A| =
0, lo que en este caso implica que λ = {−1, −2}.
Luego, para encontrar T se necesita encontrar una base de vectores propios, i.e., (λ i I −
A)ei = 0, i = 1, 2. Esto implica que si λ1 = −1 se puede escoger que e1 = (1, 0)> , y que si
λ2 = −2 se puede escoger que e2 = (2, 1)> . Por lo tanto se tendrı́a que
 
−1 1 2
T =
0 1
y  
1 −2
T =
0 1
Por lo cual  
−1 −1 0
T AT =
0 −2
 
1
TB =
1
CT −1 = [2, −2]

Otra forma más sencilla de obtener la matriz T cuando los valores propios son todos dife-
rentes, es utilizar  
λ1 0 ... 0
 0 λ2 0 0 
 
Ā =  ... 
 0 0 0 
0 0 . . . λn
Con  
1 1 ... 1

 λ1 λ2 ... λn 

T −1

= λ21 λ22 ... λ2n 

 .. .. .. .. 
 . . . . 
λn−1
1 λn−1
2 . . . λn−1
n

Ejemplo 8.2.2 Encontrar la modal canonical form del siguiente sistema, si es que existe.
   
0 1 0 0
ẋ =  0 0 1 x +  0 u
−18 −27 −10 1
y = [1 0 0]x

En primera instancia, tendrı́amos que hallar los valores propios de A por medio de |λI −A| =
0, lo que en este caso implica que λ = {−1, −3, −6}.
Si T se escoge como  
1 1 1
T −1 =  −1 −3 −6 
1 9 36
132 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

Se puede comprobar que  


−1 0 0
T AT −1 = Ā =  0 −3 0 
0 0 −6
 
1/10
B̄ =  −1/6 
1/15
C̄ = [1, 1, 1]
También podrı́a comprobarse que la escogencia de dicha matriz T se puede obtener por el
método de los vectores propios descrito previamente.

Vale resaltar nuevamente que los métodos descritos son válidos si se tienen n valores propios
diferentes. Si uno de los valores propios es repetido, el método falla, ya que no se tendrán n
vectores propios independientes.
Otra de las cosas que valdrı́a resaltar es el hecho de que el polinomio ∆(λ) = |λI−A| = 0
corresponde al polinomio caracterı́stico. Esto se hace más evidente cuando uno recuerda la
definición de función de transferencia que se utilizó previamente.

8.3. Diseño de Controladores Utilizando State Feedba-


ck
La idea general de hacer todas estas transformaciones y saber cuáles estados están
disponibles con respecto a la entrada, es poder diseñar controladores para que se cumplan
ciertas caracterı́sticas. En lı́neas generales, lo que se pretende es obtener una ganancia en
función del estado, de tal forma que la entrada cambie, y haciendo que los polos se ubiquen
donde uno desea. La Figura 8.5 muestra cómo se retroalimentarı́a el estado por medio de
una ganancia K. La pregunta serı́a entonces, cuándo se puede utilizar la técnica conocida
como state-feedback para ubicar los polos de lazo cerrado en cualquier punto?
r u + R
x
+ B C y
− +

Figura 8.2: Realimentación de estado por medio de una ganancia K.

Ejemplo 8.3.1    
−1 a 0
ẋ = x+ u
3 −2 1
8.3. DISEÑO DE CONTROLADORES UTILIZANDO STATE FEEDBACK 133

La idea es poder diseñar un controlador lineal de la forma u = −Kx tal que los polos queden
ubicados donde se desee. Por lo tanto, l reemplazar u, se tendrı́a un sistema de la forma
 
−1 a
ẋ = x
3 − K1 −2 − K2
Los polos de lazo cerrado están determinados por el polinomio caracterı́stico, i.e.,

|λI − (A − BK)| = 0

λ2 + λ(K2 + 3) + 2 + K2 + a(K1 − 3) = 0
Supongamos que queremos que los polos de lazo cerrado estén ubicados en -2, -3, i.e.,

(λ + 2)(λ + 3) = 0

λ2 + 5λ + 6 = 0
2
Entonces, se tendrı́a finalmente que escoger K2 = 2, y K1 = a
+ 3, con a 6= 0.

Qué sucederı́a en el problema anterior si a = 0? En ese caso, no se pueden colocar los polos
de lazo cerrado donde uno lo desea, ya que el sistema no serı́a controlable. La siguiente
definición ilustra mejor este concepto.

Definition 25 El sistema
ẋ = Ax + Bu
es controlable si y sólo si es posible transferir, por medio de la entrada u(t), el sistema de
cualquier estado inicial x(t) = x0 a cualquier otro estado x(T ) = xT en un tiempo finito
T − t ≥ 0.

En R3 serı́a algo como se ve en la Figura 8.3.

Definition 26 El sistema
ẋ = Ax + Bu
se dice que es controlable si para cualquier polinomio αc (s) de orden n existe un único
control u = −Kx tal que el polinomio caracterı́stico de A − BK sea igual a α c (s).

Otra forma de comprobar si un sistema es controlable o no, es por medio de las caracterı́sticas
algebráicas de sus matrices. Para definir correctamente esto, se necesita recordar lo siguiente.

Theorem 8.3.1 El rango de una matriz A es el número de columnas (o filas) linealmente


independientes.

Definition 27 Un conjunto de vectores {v1 , v2 , . . . , vn } son linealmente independientes si

α1 v1 + . . . α n vn = 0 ⇒ α 1 = α 2 = . . . = α n = 0

Si no, son linealmente dependientes, ya que al menos un αi 6= 0 uno podrı́a expresar el vector
asociado con él como una combinación lineal en términos de los otros vectores.
134 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

x3

xf = x(T )
x0

x2

x1

Figura 8.3: Comportamiento de la definición de controlabilidad en R3 .

Ejemplo 8.3.2 Los vectores [1, 3]> , [4, 5]> , [6, 4]> NO son independientes, porque se
pueden escoger α1 = −2, α2 = 2, y α3 = −1, tal que α1 [1, 3]> + α2 [4, 5]> + α3 [6, 4]> = 0.

Theorem 8.3.2 El sistema


ẋ = Ax + Bu A ∈ Rn×n
se dice que es controlable si rank(C) = n donde
. . .
C = [B .. AB .. . . . .. An−1 B]
es la matriz de controlabilidad.

Ejemplo 8.3.3 Dado el sistema


   
−1 0 1
ẋ = x+ u
0 −3 1
Determina si

1. El sistema es controlable?
2. Si es ası́, determine las ganancias K = [K1 , K2 ] tales que los polos de lazo cerrado
estén ubicados en λ ∈ {−2, −2}.

Una de las ventajas de las formas canónicas se puede ver a continuación. Si el sistema está en
la forma canónica controlable, se tiene que
 
0 1 0 ... 0
 0 0 1 ... 0 
 
A =  ... ... ... ...
 ... 
 0 0 0 ... 1 
−a0 −a1 −a2 . . . −an−1
8.3. DISEÑO DE CONTROLADORES UTILIZANDO STATE FEEDBACK 135
 
0

 0 

B= .. 
 . 
1
Si se quisieran ubicar los polos en unos puntos determinados con K = [K1 , . . . , Kn ], los
valores propios de A − BK están dados por las raı́ces de |λI − (A − BK)| = 0, los cuales son

λn + (an−1 + Kn )λn−1 + (an−2 + Kn−1 )λn−2 + . . . + a0 + K1 = 0

Si se comparara con el polinomio deseado,

λn + β1 λn−1 + . . . + βn−1 λ + βn = 0

Por lo tanto, serı́a muy sencillo obtener los valores de las ganancias Ki , de la forma

K1 = β n − a 0

K2 = βn−1 − a1 0
Y ası́ sucesivamente.
Sin embargo, no es necesario transformar el sistema en la forma canónica controlable
para hacer la ubicación de polos. Se puede hacer esto directamente con el sistema (A, B) y
luego calcular la ecuación caracterı́stica con A − BK directamente.
Un test interesante con el cual se puede verificar la controlabilidad de un sistema es el
PBH test.
.
Theorem 8.3.3 El par (A, B) es controlable si y sólo si rank[A − λI .. B] = n para todos
los valores propios de A.

El desarrollo hasta ahora se ha basado en state feedback u = −Kx. Se tendrı́a la misma


libertad si se escogieran los polos si se utilizara output feedback, u = −Ky?

Ejemplo 8.3.4 [21] Considere la función de transferencia

Y (s) 1
=
U (s) s(s + 1)(s + 2)

Se desea diseñar este servosistema para que lo polos en lazo cerrado estén ubicados en −2 ±
j3,464 y −10. Se supone que la configuración del sistema es la que se ve en la Figura 8.4.
El sistema en términos de las variables de estado se ve como
   
0 1 0 0
ẋ =  0 0 1 x +  0 u
0 −2 −3 1
y = [1 0 0]x

Y además, a partir de la Figura... es claro que u = −(K2 x2 +K3 x3 )+K1 (r−x1 ) = −Kx+K1 r.
136 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO
x1
r + x2 y = Cx y = x1
K1 ẋ = Ax + Bu
+
− − − x3

K2

K3

Figura 8.4: Realimentación de estado con referencia.

En primera instancia tenemos que determinar si el sistema es controlable. Para ello,


se define la matriz de controlabilidad
2
C = [B
 | AB | A B]
0 0 1
=  0 1 −3 
1 −3 7

Por lo tanto, se puede ver que el rank(C) = 3, y por ende, el sistema es controlable. Ahora
sı́ podemos mirar el polinomio caracterı́stico |λI − (A − BK)| = 0, y compararlo con el
deseado. De esta forma se obtienen los dos polinomios a comparar, i.e.,

λ3 + λ2 (K3 + 3) − λ(2 − K2 ) + K1 = 0

Y el polinomio deseado serı́a

λ3 + 14λ2 + 56λ + 160 = 0

Por lo tanto, K = [160, 54, 11]. El sistema finalmente quedarı́a de la forma


   
0 1 0 0
ẋ =  0 0 1 x +  0 r
−160 −56 −14 160
y = [1 0 0]x

8.4. Diseño de Estimadores en el Espacio de Estado


En lo que hemos visto, es necesario tener acceso a todas las variables de estado. Re-
cordemos que la topologı́a de state feedback viene dada por el diagrama de la Figura 8.5.
Si recordáramos el ejemplo anterior, hay sistemas que no tienen todas sus variables
de estado accesibles. Por lo tanto, existen técnicas que proveen un estimado de los estados
inaccesibles. Un sistema dinámico cuyas variables son las variables de estado de otro sistema
se conoce como un observador de este sistema. El término fue acuñado por D. Luemberger
en 1963, el cual demostró que para cualquier sistema lineal observable, se puede diseñar un
8.4. DISEÑO DE ESTIMADORES EN EL ESPACIO DE ESTADO 137

r u + R
x
+ B C y
− +

Figura 8.5: Realimentación de estado por medio de una ganancia K.

observador tal que el error de lo estimado (i.e., la diferencia entre el estado del sistema actual
y el observado), tiende a cero asintóticamente tan rápido como uno lo desee. Esta técnica de
diseño es equivalente al diseño de sistemas retroalimentados por pole placement.
Un observador es un dispositivo que reconstruye una señal, el cual provee el estimado
de los estados inaccequibles como e ve en la Figura 8.6.
r u y
+ Plant (A, B, C)


K Observer

Figura 8.6: Observador asociado con la planta.

Asumamos que existe una planta cuyo comportamiento está dado por

ẋ = Ax + Bu
y = Cx

La entrada u y la salida y están conectadas al sistema estimado como se muestra en la Figura


8.7.

u B

+
y + ẑ˙ R ẑ ŷ
T C
+
− +

Figura 8.7: Observador asociado con la planta.

Si el estado del sistema es ẑ, entonces por inspección se tiene

ẑ˙ = (A − T C)ẑ + Bu + T y
138 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

Por lo tanto, el comportamiento dinámico de la diferencia entre los estados de los dos sistemas
está dado por
ẑ˙ − ẋ = (A − T C)(ẑ − x)
Si se puede escoger T tal que A − T C tenga raı́ces con parte real negativa, entonces ẑ → x
cuando t → ∞, independientemente de la entrada u.

Definition 28 El sistema
ẋ = Ax + Bu
y = Cx
con condiciones iniciales x(0) = x0 es observable si el estado x(t) puede ser determinado
por la entrada u(s) y la salida y(s), 0 ≤ s ≤ t.

Theorem 8.4.1 El sistema


ẋ = Ax + Bu
y = Cx
. . . .
es observable si rank(O) = n, donde O = [C .. CA .. CA2 .. . . . .. CAn−1 ]> es la matriz de
observabilidad.

Es claro que los polos del error de lazo cerrado ẑ˙ − ẋ = (A − T C)(z − x) pueden ser colocados
en cualquier posición (escogiendo T ), siempre y cuando el par (A, C) sea observable.

Definition 29 El sistema

ẋ(t) = Ax + Bu
(8.2)
x(0) = x0

se dice que es stabilizable si existe una matriz K tal que para u = −Kx, el sistema en lazo
cerrado
ẋ = (A − BK)x
es estable.

De manera informal, lo que nos plantea la definición es que (8.2) es stabilizable si y sólo si
todos los modos inestables son controlables.

Definition 30 El par (C, A) es detectable si existe una matriz T tal que A − T C, sea
estable.

En otras palabras, desde el punto de vista de los valores propios se tiene que

λ{A − T C} = λ{A> − C > T > }

Entonces, (C, A) es detectable si y solo si (A> , C > ) es stabilizable.


8.5. INTEGRATED FULL-STATE FEEDBACK AND OBSERVER 139

8.5. Integrated Full-State Feedback and Observer


El compensador de variables de estado se construye a partir de la unión de la ley de
control de lo que se conoce como full-state feedback y el observador. El compensador se
muestra en la Figura...
ANADIR FIGURA
Para el diseño se siguen los siguientes pasos:

1. Se asume que todas las variables de estado son medibles, y se utiliza una ley de control
conocida como full-state feedback control law. En realidad esto no es práctico ya que
por lo general no es posible medir todos los estados. En la práctica sólo algunos estados
son medibles, o algunas combinaciones de ellos existen.

2. Se construye un observador para estimar los estados que no se pueden sensar directa-
mente, ni que están disponibles como salidas. Estos observadores pueden ser full-state o
de orden reducido (estos en el caso que algunos estados estén disponibles como salidas,
por lo cual no necesitan ser estimados).

3. Se requiere acoplar el observador con el full-state feedback control law. Esto último se
conoce como compensador.

4. Adicionalmente, se pueden considerar entradas de referencia para completar el diseño.

Para el 3er punto, se podrı́a tener que la ley de control está dada por

(8.3) u(t) = −kx̂(t)

Es esta una buena estrategia? Originalmente, K se diseñó para garantizar que el sistema en
malla cerrada fuera estable, i.e.,

det(λI − (A − BK)) = 0

tenı́a raı́ces ubicadas en el LHP. Si todos los estados estaban disponibles, entonces al selec-
cionar K para que la premisa se cumpla, se tenı́a que x(t) → 0 cuando t → ∞ para cualquier
condición inicial x(t0 ). Ahora bien, lo que se necesita es comprobar que con (8.3) el sistema
sigue siendo estable. Para ello, se tiene que el observador de estado viene dado por

(8.4) x̂˙ = (A − BK − LC)x̂ + Ly

como se ve en la Figura...
ANADIR FIGURA
El error de estimación utilizando el compensador de (8.4) darı́a que

ė = ẋ − x̂˙ = Ax + Bu − Ax̂ − Bu − Ly + LC x̂

Es decir

(8.5) ė = (A − LC)e
140 CAPÍTULO 8. VARIABLES DE ESTADO: DISEÑO

lo cual es equivalente al error de estimación que se obtuvo en el diseño del observador. Esto
implica que el error de estimación NO depende de la entrada.
Se tiene el sistema
ẋ = Ax + Bu
y = Cx
Si u = −Kx, entonces
Capı́tulo 9

Control Multivariable

141
142 CAPÍTULO 9. CONTROL MULTIVARIABLE
Bibliografı́a

[1] Karl J. Åström and Björn Wittenmark. Computer Controlled Systems. Prentice Hall,
New Jersey, NJ, 1997.

[2] S. Bennett. A brief history of automatic control. IEEE Control Systems Magazine,
16(3):17–25, 1996.

[3] W.L. Brogan. Modern control theory. Prentice-Hall, Inc. Upper Saddle River, NJ, USA,
1991.

[4] C.M. Close and D.K. Frederick. Modeling and analysis of dynamic systems. Wiley New
York, 2001.

[5] J.J. D’Azzo and C.H. Houpis. Linear Control System Analysis and Design. McGraw-
Hill, third edition edition, 1988.

[6] Richard C. Dorf and Robert H. Bishop. Modern Control Systems. Addison-Wesley,
Reading, MA, 1995.

[7] Asdrúbal Espitia. El PID Bajo Control. Asdrúbal Espitia Guerra, 1999.

[8] G.W. Evans. Bringing root locus to the classroom. IEEE Control Systems Magazine,
24(6):74–81, 2004.

[9] WR Evans. Control system synthesis by root locus method. Trans. AIEE, 69:66–69,
1950.

[10] Gene F. Franklin, J. David Powell, and Abbas Emami-Naeini. Feedback Control of
Dynamic Systems. Addison-Wesley, Reading, MA, 1994.

[11] B. Friedland. Control System Design: An Introduction to State-space Methods. McGraw-


Hill, 1986.

[12] Edward W. Kamen and Bonnie S. Heck. Fundamentals of signals and systems using
MATLAB. Prentice Hall, Upper Saddle River, New Jersey, 1997.

[13] Hassan. K. Khalil. Nonlinear Systems. Prentice Hall, New Jersey, 1996.

[14] K.H. Lundberg. Pole-zero phase maps: visualization helps students develop s-plane
intuition. IEEE Control Systems Magazine, 25(1):84–87, 2005.

143
144 BIBLIOGRAFÍA

[15] T.E. Marlin. Process Control: Designing Processes and Control Systems for Dynamic
Performance. McGraw-Hill, 1995.

[16] S.J. Mason. Feedback Theory-Some Properties of Signal Flow Graphs. Proceedings of
the IRE, 41(9):1144–1156, 1953.

[17] S.J. Mason. Feedback Theory-Further Properties of Signal Flow Graphs. Proceedings
of the IRE, 44(7):920–926, 1956.

[18] N. Minorsky. Directional stability of automatically steered bodies. J. Am. Soc. Nav.
Eng, 34:280, 1922.

[19] C. B. Moler and C.F.V. Loan. Nineteen dubious ways to compute the matrix exponen-
tial. SIAM Review, 20(4):801–836, 1978.

[20] R.M. Murray, K.J. Åström, S.P. Boyd, R.W. Brockett, and G. Stein. Future directions
in control in an information-rich world. IEEE Control Systems Magazine, 23(2):20 – 33,
2003.

[21] K. Ogata. Modern control engineering. Prentice-Hall, Inc. Upper Saddle River, NJ,
USA, 1996.

[22] Katsuhiko Ogata. Discrete-Time Control Systems. Prentice Hall, New Jersey, NJ, 1987.

[23] B.A. Ogunnaike and W.H. Ray. Process dynamics, modeling, and control. Oxford
University Press New York, 1994.

[24] Alan V. Oppenheim and Alan S. Willsky. Signals and Systems. Prentice Hall, Upper
Saddle River, New Jersey, 1997.

[25] H. Özbay. Introduction to Feedback Control Theory. CRC Press, 1999.

[26] K.M. Passino. Biomimicry for Optimization, Control, and Automation. Springer-Verlag,
London, 2005.

[27] C. Phillips and R. Harbor. Feedback Control Systems. Prentice Hall, 1996.

[28] F.H. Raven. Automatic Control Engineering. McGraw-Hill New York, 1995.

[29] S. Sastry. Nonlinear Systems: analysis, stability, and control. Springer, 1999.

[30] C.A. Smith and A.B. Corripio. Principles and practice of automatic process control.
Wiley New York, 1985.

[31] Karl J. Åström and Richard M. Murray. Feedback Systems: An Introduction for Scien-
tists and Engineers. 2007.

[32] S.H. Strogatz. Nonlinear dynamics and chaos. Addison-Wesley Reading, MA, 1994.

[33] J.G. Ziegler and N.B. Nichols. Optimum settings for automatic controllers. Trans.
ASME, 64(8):759–768, 1942.

También podría gustarte