SlideShare una empresa de Scribd logo
1 de 121
Descargar para leer sin conexión
Apuntes sobre control robusto y multiobjetivos
                de sistemas

                  Williams Colmenares M.
                 Universidad Sim´n Bol´
                                o     ıvar
            Departamento de Procesos y Sistemas
                     Fernando Tadeo R.
                 Universidad de Valladolid
     Departamento de Ingenier´ de Sistemas y Autom´tica
                             ıa                   a
A Teresa y Hugo
A Luisa Elena, Luis Carlos, Bruno, Daniel e Isabella
´
                                                                                                                                                 Indice general




I. An´lisis de sistemas con m´ltiples objetivos
       a                      u                                                                                                                                                   1
   I.1. Controladores multiobjetivo . . . . . . . . . . . . .            .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .    1
   I.2. Sobre la norma de se˜ales y sistemas . . . . . . . .
                            n                                            .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .    2
   I.3. Evaluaci´n de las normas 2 e infinito de un sistema
                 o                                                       .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .    6
   I.4. Desigualdades matriciales lineales . . . . . . . . . .           .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .    8
   I.5. Estabilidad robusta y desempe˜o nominal . . . . .
                                       n                                 .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   12

II. An´lisis y s´
        a       ıntesis de controladores para sistemas         con saturaciones                                                                                                  33
    II.1. Introducci´n . . . . . . . . . . . . . . . . . . .
                    o                                          . . . . . . . . . .                   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   33
    II.2. Especificaciones de funcionamiento . . . . . .        . . . . . . . . . .                   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   34
    II.3. An´lisis 1 . . . . . . . . . . . . . . . . . . . .
             a                                                 . . . . . . . . . .                   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   37
    II.4. Estabilidad robusta . . . . . . . . . . . . . . .    . . . . . . . . . .                   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   37
    II.5. Soluci´n mediante programaci´n lineal . . . .
                o                         o                    . . . . . . . . . .                   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   38
    II.6. Control de un reformador de hidr´geno . . . .
                                              o                . . . . . . . . . .                   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   43
    II.7. M´todo de c´lculo basado en LMIs . . . . . .
            e          a                                       . . . . . . . . . .                   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   52
    II.8. Resumen del cap´ ıtulo . . . . . . . . . . . . . .   . . . . . . . . . .                   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   55

III. S´ıntesis de controladores mediante programaci´n semidefinida
                                                           o                                                                                                                     57
     III.1. Introducci´n . . . . . . . . . . . . . . . . . . . . . . . . . . .
                      o                                                                      .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   57
     III.2. Estabilidad cuadr´tica . . . . . . . . . . . . . . . . . . . . .
                              a                                                              .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   58
     III.3. Sistemas con incertidumbre acotada en norma . . . . . . . .                      .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   60
     III.4. Sistemas poli´dricos . . . . . . . . . . . . . . . . . . . . . .
                         e                                                                   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   63
     III.5. Condiciones menos conservadoras . . . . . . . . . . . . . . .                    .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   65
     III.6. Dise˜o por realimentaci´n de la salida . . . . . . . . . . . .
                 n                   o                                                       .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   66
     III.7. Sistemas ciertos . . . . . . . . . . . . . . . . . . . . . . . . .               .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   66
     III.8. Sistemas con incertidumbre acotada en norma . . . . . . . .                      .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   71
     III.9. Sistemas con incertidumbre poli´drica . . . . . . . . . . . .
                                              e                                              .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   80

IV. Sintonizaci´n robusta de controladores industriales
                o                                                                                                                                                                91
    IV.1. Introducci´n . . . . . . . . . . . . . . . . . . . .
                    o                                            .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   91
    IV.2. Los algoritmos PID . . . . . . . . . . . . . . . .     .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   92
    IV.3. PID v´ LMIs iterativas . . . . . . . . . . . . .
                ıa                                               .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   92
    IV.4. El algoritmo ILMI . . . . . . . . . . . . . . . .      .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   93
    IV.5. Comparaci´n de t´cnicas de entonaci´n . . . .
                     o      e                     o              .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   95
    IV.6. Enfoque frecuencial . . . . . . . . . . . . . . . .    .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   97



                                                                                                                                                                                  i
A. Factorizaci´n coprima
              o                                                                                                   103
   A.1. Factorizaci´n coprima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
                   o
   A.2. Parametrizaci´n de Youla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
                      o




ii
Presentaci´n
                                                                                                          o




     Este libro trata sobre programaci´n convexa aplicada al control. En particular, de la programaci´n lineal y
                                      o                                                                o
la semidefinida. Recientes desarrollos han despertado mucho inter´s en este campo, y entre ellos mencionamos
                                                                   e
los asociados con la teor´ de control robusto y los m´todos num´ricos de puntos interiores. La primera permite
                         ıa                          e           e
estudiar en un marco unificado la incertidumbre sobre el sistema y sobre las perturbaciones externas. Los segundos
permiten resolver de manera muy eficiente problemas convexos. Adem´s, y esperamos convencer de ello al lector
                                                                       a
que con paciencia avance por el libro, es muy grande el campo de las aplicaciones de la programaci´n convexa
                                                                                                      o
en el control.

   En estos apuntes nos concentramos en el dise˜o de sistemas de control para sistemas lineales invariantes en el
                                                n
tiempo, a los que imponemos m´ltiples objetivos en el desempe˜o del lazo –cerrado– de control (e.g., estabilidad,
                                u                               n
rapidez, atenuaci´n, sensibilidad). De particular inter´s son aquellos sistemas en los que la incertidumbre en el
                 o                                     e
modelo o las perturbaciones externas son de tal magnitud que deben tenerse en consideraci´n expl´
                                                                                               o       ıcitamente.
As´ en este trabajo analizamos sistemas con incertidumbre surgida de imperfecciones del modelo, t´
   ı,                                                                                                   ıpicamente
representada por una funci´n de transferencia que afecta globalmente al sistema en estudio. Adem´s, analizamos
                           o                                                                       a
incertidumbre asociada con los par´metros y de muy alta estructura. En cuanto a las perturbaciones, al contrario
                                   a
del enfoque tradicional que presupone la forma y s´lo desconoce el momento en la que afectar´ al sistema,
                                                      o                                              a
unicamente asumiremos conocida alguna cota superior (e inferior si es el caso) de ella (e.g., energ´ amplitud,
´                                                                                                    ıa,
ruido blanco).

   En el caso de sistemas inciertos, estudiamos sistemas con incertidumbre acotada en norma y con incertidumbre
poli´drica. Ambos tipos con implicaciones pr´cticas importantes. El enfoque de partida es el cuadr´tico, esto es,
    e                                         a                                                    a
siempre buscamos una funci´n de Lyapunov com´n a todos los modelos que pueda tener un sistema. Desde el
                              o                     u
enfoque cuadr´tico, se derivan condiciones mucho menos conservadoras al encontrar ya no una sino diferentes
               a
funciones de Lyapunov. Ambos enfoques se basan en una representaci´n del sistema en variables de estado. Esto
                                                                       o
pone al alcance del dise˜ador herramientas sumamente poderosas de an´lisis y s´
                        n                                               a      ıntesis de compensadores. Ventaja
adicional de este marco (variables de estado) es que no se hace ninguna distinci´n en el tratamiento de sistemas
                                                                                o
MIMO o SISO.

  En esa parte del trabajo (sistemas con incertidumbre) revisamos una serie de resultados de la ahora muy
conocida teor´ del control robusto y ponemos ´nfasis en un enfoque integrador de la misma. Uno de los aportes
             ıa                                e
de este trabajo es sin duda la soluci´n ofrecida al dise˜o con objetivos m´ltiples cuando no todos los estados
                                     o                  n                 u
est´n disponibles y solamente una parte de ellos puede retroalimentarse, us´ndose para control. Todos nuestros
   a                                                                       a
aportes est´n basados en el dise˜o de un controlador din´mico.
           a                    n                        a

  Tanto en el tratamiento de la incertidumbre como en el caso de las perturbaciones, el logro de los objetivos de
control se eval´a a trav´s de la “norma” de una funci´n de transferencia. Observe que hasta ac´ no hemos hecho
               u        e                             o                                        a
ninguna distinci´n entre sistemas continuos y discretos; la raz´n es que, en general, se desarrollar´n resultados
                 o                                              o                                   a
para ambos tipos de sistemas con el enfoque propuesto (normas). Notable excepci´n es la norma 1 cuyo ´mbito
                                                                                  o                       a
b´sicamente son los sistemas discretos y a cuyo estudio dedicamos un cap´
 a                                                                         ıtulo entero. A trav´s de esta norma,
                                                                                               e
se resuelve el problema de control robusto en el que la incertidumbre se describe en t´rminos de magnitud.
                                                                                      e

   Las herramientas fundamentales de desarrollo son las desigualdades matriciales lineales, que se obtienen de
una aplicaci´n de la f´rmula del complemento de Schur. Con ellas se puede formular una serie importante de
            o          o
problemas como uno de programaci´n convexa. De esta manera, problemas del ´mbito de H ∞ , H2 , 1 , ubicaci´n
                                    o                                         a                              o
de polos en regiones, pasividad y otro buen n´mero, encuentran un marco com´n de planteamiento. De all´ que,
                                             u                                u                           ı
en ocasiones, hablemos de “dise˜o multiobjetivos de sistemas”, ya que especificar condiciones de desempe˜o del
                                n                                                                         n
tipo antes mencionado significa sumar (en realidad intersectar) colecciones de desigualdades matriciales lineales
en b´squeda de un punto factible: el controlador.
     u

  Tambi´n importante, en este trabajo proponemos un par de enfoques para entonar controladores industriales
         e
con estructura est´ndar, siempre en el ´mbito de la programaci´n convexa.
                  a                    a                      o

  El objetivo del libro es poner al alcance del lector conocimiento y t´cnicas de la programaci´n lineal y semidefi-
                                                                       e                         o
nida que se aplican al an´lisis y dise˜o de sistemas de control. Como la lista de aplicaciones es extensa, en muchos
                          a           n
casos hacemos demostraci´n rigurosa de algunos resultados y dejamos al lector el desarrollo de la extensi´n a
                            o                                                                                    o
otros casos; por ejemplo, se demuestra estabilidad y se deja para el lector las demostraciones de ubicaci´n de o
polos, H2 , etc.

  El libro est´ originalmente pensado para cursos electivos de pre y postgrado en sistemas de control, espec´
              a                                                                                             ıfica-
mente sobre aplicaciones de la programaci´n convexa o de m´todos num´ricos en control. Tambi´n puede usarse
                                           o                 e           e                       e
en cursos b´sicos de sistemas de control, como complemento a las muy conocidas t´cnicas anal´
            a                                                                     e           ıticas de dise˜o de
                                                                                                            n
controladores, en cursos de sistemas multivariables y de control robusto.

   En el cap´ıtulo I se sientan las bases te´ricas que justifican los resultados presentados en los cap´
                                              o                                                            ıtulos subsi-
guientes. En el cap´ ıtulo II se presentan aplicaciones de la programaci´n lineal al c´lculo de controladores con
                                                                              o            a
restricciones de saturaci´n, basadas en la norma 1 . En el cap´
                           o                                         ıtulo III se presentan algunas aplicaciones de la
programaci´n semidefinida al c´lculo de controladores H∞ , H2 y ubicaci´n de polos. En el cap´
            o                      a                                           o                    ıtulo IV se presen-
tan algunas aplicaciones espec´   ıficas al c´lculo de controladores tipo proporcional, integral y derivativo, ello por
                                            a
lo extendido del uso de este tipo de controladores. Los cap´   ıtulos II, III y IV son independientes y, completado el
estudio del cap´ıtulo I, el lector interesado puede ir directamente a cualquiera de ellos.

   Este libro es fruto de la intensa cooperaci´n cient´
                                               o        ıfica que hemos sostenido entre la Universidad Sim´n Bol´
                                                                                                          o      ıvar
en Caracas, la Universidad de Valladolid en Valladolid y el Laboratoire d’Analyses et Architecture des System`s    e
(LAAS) en Toulouse. En particular, los autores desean expresar su agradecimiento a los colegas Ernesto Granado,
Omar P´rez, Jacques Bernussou, C´sar de Prada, Francisco del Valle, Maite Ur´ y Rosalba Lamanna. A la jefa
         e                             e                                           ıa
de Producci´n de la Editorial Equinoccio, Margarita Oviedo, por su desprendido apoyo y a Jos´ Manuel Guilarte
             o                                                                                    e
por su paciente correcci´n del estilo del libro. Igualmente, agradecemos a las instituciones que hicieron posible esa
                         o
cooperaci´n, a saber, los programas CYTED-RIII, PCP Automatique, PCP Optimizaci´n de Sistemas y FEDER.
           o                                                                               o
A las instituciones CICYT y al FONACIT. Finalmente, agradecemos el financiamiento de la publicaci´n que        o
realiza el Ministerio de Educaci´n y Ciencia Espa˜ol, a trav´s del proyecto CICYT DPI2004-07444-C04-02, y a
                                   o                  n          e
la Universidad Sim´n Bol´
                     o      ıvar, a trav´s de la Editorial Equinoccio y de la Direcci´n de Cultura.
                                         e                                           o


                                               Williams Colmenares, en Caracas, y Fernando Tadeo, en Valladolid




iv
CAP´
                                                                                                     ITULO          I



                                                        An´lisis de sistemas con m´ltiples objetivos
                                                          a                       u




I.1.   Controladores multiobjetivo


  El dise˜o de estrategias de control que aseguren un n´mero de objetivos (especificaciones) en un lazo de control
         n                                             u
ha sido objeto de intensa investigaci´n y estudio, pasando en los ultimos 50 a˜os de ser un campo intuitivo y
                                      o                           ´            n
de sentido com´n (“de ingenio”) [Cor96], [AH95], a uno riguroso y formal en el que matem´ticos e ingenieros
               u                                                                              a
encuentran tierra f´rtil.
                   e

   Dentro de las disciplinas que conforman los sistemas de control, el estudio de los sistemas lineales invariantes en
el tiempo ha conocido enormes avances y cambios en los paradigmas de su estudio, en parte por su simplicidad y
propiedades que permiten la aplicaci´n de poderosas herramientas matem´ticas y en parte porque esos resultados
                                      o                                     a
pueden ser aplicados a un importante n´mero de sistemas, incluyendo algunos muy complejos (e.g., multimodelos
                                        u
[CGP98], no lineales [BA95], etc).

   De esta manera, el dise˜o de controladores para sistemas lineales ha evolucionado desde reglas muy simples de
                          n
sintonizaci´n [ZN42], ajustes de margen de fase y de ganancia [Kuo95], [PH96], dise˜o basado en representaciones
           o                                                                       n
de estado como ubicaci´n de polos [PH96], control ´ptimo, [AM89], LQG/LTR [DS81], dise˜o basado en el margen
                       o                          o                                        n
del m´dulo (u operador diferencia de retorno) [DFT92], basado en los valores singulares y control robusto [San89],
      o
[MZ89], [DGK89], llegando hasta los paradigmas basados en la manipulaci´n de normas (de se˜ales o de sistemas)
                                                                          o                   n
y dentro de los que podemos mencionar H∞ , H2 , L1 , 1 . Este enfoque se ve fortalecido con la posibilidad de
ubicar los modos de un sistema, no en puntos exactos del plano “s”, sino m´s bien en regiones del mismo (t´cnicas
                                                                           a                               e
denominadas de root clustering) y a lo que tambi´n denominaremos ubicaci´n de polos [CGP96].
                                                  e                          o

   Todo ello encuentra adem´s un medio integrado de formulaci´n en las desigualdades matriciales lineales (LMIs)
                            a                                o
[Boy94] que surgen de la f´rmula del complemento de Schur, esto es, los problemas antes mencionados pueden
                          o
formularse como un conjunto de esas desigualdades (LMIs).

  Si, como demostraremos, los controladores H2 aseguran un buen rechazo al ruido y los controladores H∞
funcionan bien, aun en presencia de incertidumbre asociada con din´micas no modeladas y reflejadas sobre todo
                                                                       a
en altas frecuencias o en presencia de perturbaciones no conocidas pero acotadas en energ´ y si el agrupamiento
                                                                                           ıa,
de polos permite especificar algunas caracter´ ısticas de la respuesta temporal del sistema, entonces entenderemos
c´mo “el dise˜o de controladores multiobjetivos” se refiere a una estrategia de control que permite, de manera
 o             n
expl´
    ıcita, establecer todas (o algunas) de esas especificaciones —antes mencionadas— en el c´lculo del contro-
                                                                                             a
lador. Observe que la lista de especificaciones no es agotadora y que, adicionalmente, pueden incluirse otras
especificaciones como cero error en estado estacionario (offset), estructura del controlador, etc., aunque ya no
como LMIs y de all´ que su inclusi´n conlleve un tratamiento especial en cada caso.
                     ı             o

  Adicionalmente, bajo el mismo enfoque puede considerarse incertidumbre param´trica en el modelo, esto es,
                                                                                 e
incertidumbre en bajas frecuencias normalmente asociada con variaci´n —o desconocimiento— en los par´metros
                                                                   o                                a
del modelo.

   En este texto nos proponemos presentar una visi´n integrada del dise˜o de controladores multiobjetivo, con
                                                       o                  n
particular ´nfasis en los casos en los que aparece incertidumbre param´trica en los sistemas. Aunque la aplicaci´n
           e                                                          e                                         o
a sistemas perfectamente conocidos tiene no poca importancia, la extensi´n a ese tipo de sistemas ciertos, en
                                                                            o
la mayor´ de los casos, es inmediata y hace del enfoque una herramienta aun m´s poderosa para el dise˜o de
         ıa                                                                         a                        n
controladores.

   En este trabajo entenderemos como controlador multiobjetivos a aquel que satisface simult´neamente ciertos
                                                                                            a
criterios de desempe˜o (performance/prestaci´n) medidos a trav´s de:
                     n                      o                 e


       la norma H2

       la norma H∞

       la ubicaci´n de polos
                 o

       la norma   1.



   Sin embargo, a´n no hemos definido formalmente tales elementos de medida, de all´ que este primer cap´
                  u                                                                    ı                    ıtulo
lo consagremos a sentar las bases de tal meta, es decir, las definiciones y demostraciones que luego ser´n usadas
                                                                                                       a
en todo el resto del trabajo.

  Cuando nos referimos a una representaci´n de estados, lo hacemos con respecto a un sistema como el descrito
                                           o
en (I.1), basado en una representaci´n en variables de estado de un sistema (LTI), que en su forma gen´rica es:
                                    o                                                                 e

                                       x(t) = Ax(t) + Bu(t) + B1 w(t)
                                       ˙
                                       y(t) = Cx(t) + Dw(t)                                                   (I.1)
                                       z(t) = C1 x(t) + D1 u(t)

donde x(t) ∈ IRn es el vector de estados, u(t) ∈ IRm es el vector de control, w(t) ∈ IRnw es el vector de
perturbaciones externas, y(t) ∈ IRp es el vector de salidas medibles y z(t) ∈ IRnz es el vector de salidas a
controlar. Las matrices A, B, B1 , C, C1 , D, D1 son matrices reales de dimensiones apropiadas que pueden o no ser
matrices constantes.



I.2.   Sobre la norma de se˜ ales y sistemas
                           n


  Las normas son operaciones matem´ticas (funciones) realizadas sobre un operando (un vector, una matriz, una
                                      a
se˜al, un sistema, etc.) que nos permiten compararla con sus similares (otro vector, matriz, etc.). En ese sentido,
  n
son m´tricas (medidas) que dan informaci´n sobre el tama˜o del elemento al cual se le aplica la norma.
       e                                   o              n

  De particular inter´s para este texto son las normas de se˜ales y sistemas. Para facilitar la presentaci´n de las
                     e                                      n                                             o
normas que usaremos de se˜ales y sistemas, comenzamos con las de vectores y matrices.
                           n



2
Normas de vectores y matrices


  Sea Cn el espacio lineal de los n´meros complejos de dimensi´n n. Diremos x ∈ C n implicando:
                                   u                          o

                                                x = (x1 , x2 , . . . , xn ) con xi ∈ C.


  Las normas m´s comunes en Cn est´n dadas por:
              a                   a

                                x    p   = (|x1 |p + |x2 |p + . . . + |xn |p )1/p                    p = 1, 2, ∞

donde |xi | es la magnitud de xi y x        ∞    se interpreta como:

                                                                  m´x |xi |.
                                                                   a
                                                                          i



  La norma x 2 , cuando x ∈ IRn , es simplemente la longitud euclideana del vector x.

   Sea ahora Cn×n , el espacio de matrices en n × n con elementos en C. Normas comunes de A ∈ C n×n son
(i = 1, . . . , n; j = 1, . . . , n):
                                                                                       n
                                                         A    1   = m´x
                                                                     a                     |aij |
                                                                              j
                                                                                   i=1
                                                                                       n
                                                         A   ∞    = m´x
                                                                     a                      |aij |
                                                                              i
                                                                                    j=1

y la norma espectral
                                                     A   2   = m´x σi (A) = σ (A)
                                                                a           ¯
                                                                      i

donde σi (A) es el valor singular i-´simo de A, que se calcula de la forma:
                                    e

                                                         σi (A) =                 λi (AH A)

y AH es el conjugado hermitiano de A –transpuesto m´s complejo conjugado de la matriz–. Podemos observar
                                                        a
que, de acuerdo con la definici´n, todos los valores singulares son n´meros reales.
                              o                                     u


Normas de se˜ ales y sistemas
            n


   Sea Y (s) una funci´n de C → Cn y sea Ln el conjunto de todas las funciones de dimensi´n n para las que la
                      o                    2                                             o
siguiente cantidad es finita:
                                                  ∞                    1/2
                                              1
                                  Y (s) 2 =          Y (jω)H Y (jω)dω      .                            (I.2)
                                             2π −∞
(I.2) define la norma-2 de la funci´n Y (s). Para el caso en el que Y (s) no tenga polos en el semiplano derecho
                                  o
(cerrado), el teorema de Parseval nos da el equivalente en el dominio del tiempo de esa norma.

  Para ello, sea Y (s) la transformada de Laplace de y(t). Entonces se cumple que:
                                                                                       ∞                  1/2
                                         Y (s)   2   = y(t)       2   =                    y(t)T y(t)dt         .
                                                                                   0



  En el caso de que el sistema Y (s) sea una matriz de sistemas (funciones) de dimensiones m × n se tiene que:
                                                              ∞                                             1/2
                                                       1
                                    Y (s)   2    =                    T r Y (jω)H Y (jω) dω                         .
                                                      2π     −∞




                                                                                                                        3
Observe que Y H (jω) = Y (−jω)T . Si Y (s) ∈ Lm×n entonces
                                              2


                                              Y (s)   ∞    = sup σ (Y (jω))
                                                                 ¯                                           (I.3)
                                                                ω

donde σ es el valor singular m´ximo, esto es:
      ¯                       a

                                       σ (Y (jω)) = m´x
                                       ¯             a          λi (Y (jω)H Y (jω)).
                                                       i

El siguiente teorema establece que la norma infinita es la norma inducida de la norma 2.


Teorema I.1 ([MZ89] y [San89]) Sea el sistema (I.1) en el que la perturbaci´n –w(t)– es cero y sean Y (s)
                                                                               o
y U (s) las transformadas de y(t) y u(t). Sabemos que Y (s) = G(s)U (s), con, G(s) = C(sI − A) −1 B y g(t) la
transformada inversa de G(s). Consideremos igualmente que deseamos conocer la cota m´   ınima superior de la
salida cuando u 2 ≤ 1. Entonces:



                                                G(s)   ∞    =       sup            y(t) 2 .                  (I.4)
                                                                 u(t)     2 ≤1




                                                G(s)   2   =        sup            y(t)   ∞.                 (I.5)
                                                                u(t)    2 ≤1




La demostraci´n de este teorema puede encontrarse en las referencias mencionadas en el enunciado y se basa en
               o
el hecho de que el lado izquierdo de (I.4) y (I.5) en general sobreestima las normas y(t) 2 y y(t) ∞ , pero si no
hay restricci´n en la se˜al de control u(t) salvo la de su cota en la norma 2, siempre puede construirse una se˜al
             o          n                                                                                      n
u(t) ∈ Lm (de hecho, para el caso de la norma infinito, escogiendo u(t) como una sinusoide cuyo espectro sean
         2
dos pulsos centrados en −ω0 y ω0 , la frecuencia de la norma infinito, de ancho 2ε y altura π/2ε y en el caso
de la norma 2, como g(−t)/ G 2 ) tal que esa cota superior sea alcanzada.


Observaci´n I.1 Observe que (I.4) puede interpretarse como que la norma infinita y dos de la funci´n de
           o                                                                                           o
transferencia entre “u(t)” y “y(t)” en el sistema (I.1) da la m´xima amplificaci´n de la energ´ de la se˜al de
                                                               a               o             ıa        n
entrada u(t) medidas como energ´ y valor pico respectivamente.
                                 ıa


Observaci´n I.2 En este libro nos concentraremos en las normas dos e infinito que son las de uso m´s com´n.
            o                                                                                         a      u
Ellas, sin embargo, son s´lo un subconjunto de restricciones que de forma gen´rica se denominan Restricciones
                         o                                                      e
Integrales Cuadr´ticas (ICQ por sus siglas en ingl´s) [Boy94]. Estas restricciones pueden igualmente ser descrita
                a                                 e
como LMIs.



Ejemplo normas 2 e infinito


    Se desea calcular la norma infinito y 2 del siguiente sistema:
                                                                  1
                                                      G(s) =
                                                                 s+5


    Para el c´lculo de la norma 2 se puede usar el teorema de Parseval, esto es:
             a

                                                  G(s)     2   = g(t)          2




4
donde g(t) es la respuesta al impulso de G(s), esto es:
                                                          g(t) = e−5t          t≥0
entonces
                                                 ∞                         1/2                     ∞
                                                                                          1 −10t         1
                            G(s)   2   =             {e−5t e−5t }dt                =−       e          =√ .
                                             0                                           10        0     10

  En el caso de la norma infinito, se sabe que:
                                                                                           1
                                   G(s)     ∞    = sup |G(jω)| = sup √                           = 0,2.
                                                       ω                       ω        ω 2 + 52


Ejemplo valores singulares


  Considere el sistema:
                                                                      1             s
                                                     G(s) =
                                                                   s2 + 9          −5
y se desea dibujar la evoluci´n de sus valores singulares cuando ω toma valores en el intervalo [0, ∞). Igualmente,
                             o
se desean esos mismos valores para G11 (s) y G12 (s). Hay que determinar tambi´n el valor de la norma infinito.
                                                                                  e
Note que en el caso de las transferencias G11 (s) y G22 (s) la respuesta graficada es simplemente el diagrama de
Bode, siendo como son funciones de transferencia SISO.

  Un programa en Matlab que calcula y grafica los valores singulares se lista a continuaci´n:
                                                                                         o

s=tf(’s’)
g11=s/(s^2+9)
g12=-5/(s^2+9)
G=[g11;g12]
sigma(G,’k’,g11,’r’,g12,’b’)

y la gr´fica de los valores singulares vs frecuencia se muestra en la figura (I.1).
       a

  Observe que en ω = 3 los valores singulares no est´n definidos, i.e.,
                                                    a
                                           G(s)   ∞    = G11 (s) = G12 (s) = ∞.


  En realidad hemos abusado del lenguaje, porque para ese sistema la norma infinita no existe, siendo que no es
finita o, dicho de otra manera, la norma infinita no es de ninguna utilidad para este sistema.

   Consideremos ahora sistemas discretos lineales invariantes en el tiempo y sea x(k) una funci´n (secuencia) de
                                                                                               o
II → IRn . La norma p de x se define como [DD95]:
                                                                                         1
                                                                    ∞                    p

                                                      x    p   =          |x(k)|p )
                                                                                p
                                                                    k=0

si esa cantidad es finita. En la ecuaci´n anterior, | · |p es la norma p del vector x(k) e II es el conjunto de los
                                      o
n´meros enteros. De particular inter´s son las normas donde p = 1, 2, ∞ y, en el caso de que p = ∞, esa norma
  u                                 e
se define como:
                                             x ∞ = sup m´x |xi (k)|.
                                                            a
                                                                    ω      i


  Finalmente, enunciamos sin demostraci´n el lema sobre la descomposici´n en valores singulares tomado de
                                       o                               o
[GL95]:



                                                                                                                 5
60




                                                  40


                                                                G(ω) y G (ω)
                                                                       12
                                                  20


                                                                                                                  G(ω) y G (ω)




                            Valores singulares
                                                                                                                         11
                                                   0




                                                 −20




                                                 −40

                                                                     G11(ω)

                                                 −60                                                     G12(ω)




                                                 −80
                                                     −1                         0                             1                   2
                                                   10                          10                           10                   10
                                                                                    Frecuencia (rad/s)



                                                          Figura I.1.: Evoluci´n de los valores singulares.
                                                                              o



Lema I.1 Para cualquier matriz compleja Q ∈ IRm×p , existen matrices unitarias Y y U en m × x y p × p y una
matriz real Σ tal que:


                                                                                        Σ 0
                                                                              Q=Y                        UH                           (I.6)
                                                                                        0 0
en el que Σ = diag(σ1 , . . . , σr ) con σ1 ≥ σ2 ≥ . . . ≥ σr ≥ 0 y m´  ın(m, p) ≥ r. Adem´s σi son los valores
                                                                                             a
singulares de Q. Cuando Q es real, el par (Y, U ) pueden escogerse ortonormales. La expresi´n (I.6) es com´nmente
                                                                                           o              u
denominada descomposici´n en valores singulares de Q.
                         o



I.3.    Evaluaci´n de las normas 2 e infinito de un sistema
                o


   En la secci´n previa hemos introducido brevemente las definiciones de normas 2 e infinito de se˜ales y sistemas.
              o                                                                                 n
Salvo en muy pocos casos, estas definiciones no nos proporcionan un medio eficaz para el c´lculo de tales normas.
                                                                                         a
En esta secci´n presentamos un conjunto de medios que nos permiten el c´lculo de esas normas, en sistemas
               o                                                            a
lineales con representaci´n de estados.
                         o

  Con este prop´sito, consideremos una representaci´n simplificada del sistema (I.1) y tengamos al sistema lineal
                 o                                 o
invariante en el tiempo (LTI):
                                          x(t) = Ax(t) + Bu(t)
                                           ˙
                                                                                                            (I.7)
                                           y(t) = Cx(t)
donde x(t) ∈ IRn es el vector de estados, u(t) ∈ IRm es el vector de entradas (control) y y(t) ∈ IRp es el vector de
salidas medibles del sistema. A, B, C son matrices constantes de dimensiones apropiadas.

    Es f´cil demostrar que la funci´n de transferencia del sistema [PH96] es:
        a                          o

                                                                               Y (s)
                                                                   G(s) =            = C(sI − A)−1 B.                                 (I.8)
                                                                               U (s)


    Los siguientes teoremas nos dan las herramienta de c´lculo de esas normas que buscamos.
                                                        a



6
Teorema I.2 ([ZK88]) Para el sistema (I.7), las siguientes proposiciones son equivalentes:


 1.   A es una matriz estable y G(s)    ∞   ≤γ
 2.   Existe una matriz P definida positiva tal que

                                        AT P + P A + γ −2 P BB T P + C T C < 0.                             (I.9)


Demostraci´n: Una comprobaci´n muy sencilla de que (2) ⇒ (1) est´ inspirada en las propiedades del operador
              o                   o                                  a
diferencia de retorno (return difference operator) que se hace en [AM89] y es como sigue: cambiando el signo de
la desigualdad (I.9) y sumando y restando sP con s = jω y ω la frecuencia en la que ocurre la norma infinito de
G, tenemos que:
                             (−sI − A)T P + P (sI − A) − γ −2 P BB T P − C T C > 0,                      (I.10)
multiplicando la derecha de (I.10) por (sI − A)−1 B y a la izquierda por su transpuesto complejo conjugado
(hermitiano) resulta en:
                                  B T P (sI − A)−1 B + B T (−sI − AT )−1 P B
                                 −γ −2 B T (−sI − AT )−1 P BB T P (sI − A)−1 B ≥                     (I.11)
                                         B T (−sI − AT )−1 C T C(sI − A)−1 B
                                                                   2
a la derecha de la desigualdad (I.11) reconocemos G(s)             ∞   y recordando que:

                        [γI − γ −1 B T P (sI − A)−1 B]H [γI − γ −1 B T P (sI − A)−1 B] ≥ 0,

la proposici´n (1) sigue. La demostraci´n de que (1) ⇒ (2) puede encontrarse en la cita antes enunciada.
            o                          o


Teorema I.3 ([San89] [PSG92]) Consideremos al sistema (I.7) y sea A una matriz hurwitz (estable), entonces
                                              2
                                       G(s)   2   = T r(CLc C T ) = T r(B T Lo B)                          (I.12)

donde Lc es el gramiano de controlabilidad y Lo es el gramiano de observabilidad y satisfacen:

                                            ALc + Lc AT + BB T             = 0
                                                                                                           (I.13)
                                            A T Lo + L o A + C T C         = 0.


Demostraci´n: Sin p´rdida de generalidad, nos limitaremos a los sistemas de una entrada y una salida (SISO).
              o         e
Igualmente, como ambas demostraciones son similares nos limitaremos a la asociada al gramiano de controlabi-
lidad. En tal sentido, recordemos que:
                                                           ∞
                                                                           T
                                              Lc =             eAt BB T eA t dt
                                                       0
donde
                                                                        A n tn
                                        eAt = I + At + . . . +                 + ...
                                                                         n!
luego se cumple que:
                                                  d(eAt )
                                                          = AeAt = eAt A
                                                    dt
ahora bien,
                                                           ∞
                                                                               T
                                       CLc C T =               CeAt BB T eA t C T dt
                                                       0
pero recordemos que la transformada inversa de G(s) es

                                            L−1 (G(s)) = g(t) = CeAt B

y entonces
                                                          ∞
                                      CLc C T =               g(t)g(t)T dt = g(t)      2
                                                                                       2
                                                      0




                                                                                                               7
y por el teorema de Parseval
                                                         2              2
                                             G(s)        2   = g(t)     2   = CLc C T
por otra parte
                          ALc + Lc AT + BB T =
                             ∞             T          ∞ At        T

                            0
                               AeAt BB T eA t dt +   0
                                                        e BB T eA t AT dt + BB T                =
                                ∞ d               T                         T

                                0 dt
                                       eAt BB T eA t dt + BB T = eAt BB T eA t |∞
                                                                                0               + BB T
                                       T       T
                                 −BB + BB = 0.


Ejemplo


    En el sistema que se describe a continuaci´n, se desea calcular las normas 2 e infinito de:
                                              o
                                                                       s
                                                     G(s) =
                                                                   s2 + s + 1
el listado de un programa de MATLAB que las calcula se muestra a continuaci´n
                                                                           o


s=tf(’s’)
G_tf=s/(s^2+s+1)
G=ss(G_tf)
Lc=gram(G,’c’)
[a,b,c]=ssdata(G)
Norma2=c*Lc*c’
Lo=gram(G,’o’)
OtraN2=b’*Lo*b
Respuesta=bode(G);
NormaInf=max(Respuesta)


obteni´ndose:
      e
                                          G(s)   2   =       0,5    y        G(s)   ∞    = 1.


I.4.    Desigualdades matriciales lineales


    Una desigualdad matricial lineal (LMI por sus siglas en ingl´s, Linear Matrix Inequality) tiene la forma [Boy94]:
                                                                e
                                                                     m
                                              F (x) = F0 +                  x i Fi > 0                         (I.14)
                                                                    i=1

donde x ∈ IRm es la variable y las matrices sim´tricas Fi (=FiT ∈ IRn×n ), i = 0, . . . , m son dadas. La desigualdad
                                               e
en (I.14), entendi´ndose como que F (x) es una matriz definida positiva, i.e., u T F (x)u > 0 para todo u ∈ IRn
                   e
diferente de cero.


Observaci´n I.3 Hay que se˜alar que pueden tenerse desigualdades matriciales lineales no estrictas si la des-
           o              n
igualdad es del tipo ≥.


  Una caracter´ıstica interesante es que desigualdades matriciales (convexas) no lineales pueden ser convertidas
a LMIs a trav´s de la f´rmula del complemento de Schur y que detallamos a continuaci´n.
             e          o                                                               o


Lema I.2 ([Boy94]) Las siguientes proposiciones son equivalentes:



8
1.
                                                          P    Q
                                                 S1 =                   >0                              (I.15)
                                                          QT   R

 2.   P > 0 y R − QT P −1 Q > 0 o
                                ´
 3.   R > 0 y P − QR−1 QT > 0.


Demostraci´n: Surge del hecho de que siendo (I.15) definida positiva (> 0), entonces P y R tambi´n lo son.
             o                                                                                      e
Construyendo la matriz de transformaci´n T1 regular (con autovalores todos diferentes de cero, de hecho todos
                                      o
iguales a uno):
                                                  I −P −1 Q
                                          T1 =                                                          (I.16)
                                                  0      I
entonces
                                            P         0                    T
                                     S2 =                              = T 1 S1 T1 .                    (I.17)
                                            0    R − QT P −1 Q
siendo que S1 es definida positiva y T1 regular (de hecho tambi´n definida positiva), entonces S2 > 0. Por otro
                                                               e
lado, si S2 > 0 entonces P y R son definidas positivas, siendo que T1 es regular, entonces:
                                                                 −1
                                                S1 = (T1 )−1 S2 T1
                                                       T
                                                                                                        (I.18)

de donde surge que S1 > 0 y la primera proposici´n del lema (I.15) queda demostrada.
                                                o

 Podemos proceder de manera similar con la proposici´n 2 del Lemma (I.15) si definimos la matriz de transfor-
                                                    o
maci´n:
    o


                                                       I           0
                                            T2 =                         .                              (I.19)
                                                     −R−1 QT       I
Dejamos al lector tal demostraci´n
                                o

  Es interesante describir al lema (I.15) en su forma dual.


Lema I.3 Las siguientes proposiciones son equivalentes:


 1.
                                                     −P    Q
                                                                       <0                               (I.20)
                                                     QT    −R

 2.   P > 0 y QT P −1 Q − R < 0 o
                                ´
 3.   R > 0 y QR−1 QT − P < 0.


En conclusi´n, las LMI (I.15) y (I.20) son equivalentes a sus contrapartes no lineales.
           o


Observaci´n I.4 Hacemos notar que en una LMI las variables son matrices que aparecen en forma lineal en la
           o
desigualdad. Una vez escrita como una LMI, podemos invocar con certeza la convexidad de la desigualdad, lo que
muchas veces no es aparente de las desigualdades no lineales.


Observaci´n I.5 Una vez escrita una desigualdad matricial como una LMI, existen herramientas poderosas
           o
para la resoluci´n de tales problemas, como por ejemplo el “Toolbox de LMIs de Matlab”, [GNL95], que utiliza
                o
m´todos (e.g., del elipsoide [Win94]) que aprovechan la estructura particular de las LMI para su resoluci´n.
  e                                                                                                      o



                                                                                                            9
En un sentido m´s amplio, los problemas formulados en t´rminos de desigualdades matriciales lineales no son
                   a                                         e
m´s que problemas de programaci´n semidefinida, los que a su vez son una generalizaci´n de los muy conocidos
  a                                o                                                    o
problemas de programaci´n lineal en las que las restricciones de desigualdad son reemplazadas por desigualdades
                         o
generalizadas, correspondientes al cono de matrices semidefinidas [PL03].

   En su forma primal pura, un problema de programaci´n semidefinida se define como el problema de optimiza-
                                                      o
ci´n:
  o
                                    m´ın   traza(CX)
                                  sujeto a traza(Ai X) = bi ∀i = 1, . . . , m,                       (I.21)
                                           X≥0
donde X ∈ Sn , el espacio de matrices reales y sim´tricas en n × n, b ∈ IRm y C, A1 , . . . , Am ∈ Sn , son matrices
                                                  e
sim´tricas dadas.
   e

   En este libro presentaremos una serie de resultados sobre el an´lisis y s´
                                                                  a         ıntesis de controladores H ∞ , H2 y de
ubicaci´n de polos en regiones que encuentran un marco com´n en su formulaci´n a trav´s de LMIs, esto es,
       o                                                       u                     o        e
como un problema de programaci´n semidefinida. As´ por ejemplo, la desigualdad (I.9) puede escribirse como la
                                 o                   ı,
siguiente LMI en P > 0:
                                         AT P + P A + C T C P B
                                                                        <0                                   (I.22)
                                                BT P          −γ 2 I

o en su forma dual si definimos S = P −1 ,
                                        AS + SAT + γ −2 BB T           SC T
                                                                              < 0.
                                               CS                       −I
La demostraci´n sigue de una aplicaci´n directa del complemento de Schur.
             o                       o

     De la misma forma, el problema de costo garantizado [CP72] y [PSG92] que brevemente significa que:
                                                              2
                                                      G(s)    2   <γ
puede escribirse como un problema de factibilidad, esto es, encontrar P > 0 tal que:

 1.
                                                        γI        CP
                                                                        >0                                    (I.23)
                                                       P CT        P
 2.
                                                 AP + P AT + BB T < 0                                         (I.24)

Demostraci´n: En efecto, si la segunda condici´n (I.24) es satisfecha, se cumple que P > L c , por lo que
          o                                   o
                                                 2
                                             G   2   = CLc C T ≤ CP C T
pero la LMI de la condici´n (I.23) implica que CP C T < γI.
                         o


Observaci´n I.6 Cuando no hay incertidumbre en el modelo se puede, con la introducci´n de una variable
            o                                                                              o
matricial adicional W , conseguir el m´ınimo de esa norma [GPS92] y que por supuesto coincide con el que arroja
el enfoque, digamos cl´sico, del control optimo [AM89].
                      a                  ´


  En lo sucesivo nos referiremos a un controlador H2 (o H∞ ) como aquel que hace que la norma 2 (o infinito) de la
funci´n de transferencia del sistema a lazo cerrado cumpla con alguna especificaci´n (usualmente cota superior)
     o                                                                            o
dada. Ambas normas no son m´s que un subconjunto de una clase m´s amplia de restricciones denominadas
                                 a                                      a
Restricciones integrales cuadr´ticas (o IQC por sus siglas en ingl´s) que pueden igualmente representarse por
                               a                                  e
conjuntos de LMIs.

 Podemos notar que el problema de dise˜o de un controlador que satisfaga criterios en ambas normas (H 2 y
                                        n
H∞ ) puede formularse como una colecci´n de LMIs.
                                      o



10
Ejemplo


  Consideremos una vez m´s el sistema del ejemplo de la secci´n (I.3) y calculemos cotas para sus normas 2 e
                        a                                    o
infinito.

  El listado MATLAB, destinado al c´lculo de una matriz P para una cota superior —digamos 1.01— de la
                                      a
norma infinito, se muestra a continuaci´n. Se hace uso del toolbox de desigualdades matriciales lineales.
                                      o


num=[1 0];
den=[1 1 1];
[a,b,c,d]=tf2ss(num,den);
gamma=1.01;
setlmis([]);
p=lmivar(1,[2 1]);
lmiterm([1 1 1 p],a’,1,’s’);              %   LMI   #1:   a’*p+p*a
lmiterm([1 1 1 0],c’*c);                  %   LMI   #1:   c’*c
lmiterm([1 2 1 p],b’,1);                  %   LMI   #1:   b’*p
lmiterm([1 2 2 0],-gamma^2);              %   LMI   #1:   -gamma
lmiterm([-2 1 1 p],1,1);                  %   LMI   #2:   p
eje14=getlmis;
[tmin,popt]=feasp(eje14);
p=dec2mat(eje14,popt,1)


y una matriz P que verifica la condici´n (I.22) esta dada por
                                     o

                                                     1,0047   0,0037
                                          P =                           .
                                                     0,0037   1,0054
                                                                                                   √
Por otra parte, el listado MATLAB del c´lculo de una matriz P > 0, para una cota superior de 0,501 de la
                                        a
norma 2, se muestra a continuaci´n. De nuevo se utiliza el toolbox de desigualdades matriciales lineales.
                                o


num=[1 0];
den=[1 1 1];
[a,b,c,d]=tf2ss(num,den);
gamma=0.501;
setlmis([]);
p=lmivar(1,[2 1]);
lmiterm([-1 1 1 0],gamma);                 %   LMI   #1:   gamma^2
lmiterm([-1 2 1 p],1,c’);                  %   LMI   #1:   p*c’
lmiterm([-1 2 2 p],1,1);                   %   LMI   #1:   p
lmiterm([2 1 1 p],a,1,’s’);                %   LMI   #2:   a*p+p*a’
lmiterm([2 1 1 0],b*b’);                   %   LMI   #2:   b*b’
lmiterm([-3 1 1 p],1,1);                   %   LMI   #3:   p
eje142=getlmis;
[tmin,popt]=feasp(eje142);
p=dec2mat(eje142,popt,1)


siendo una matriz P > 0 que verifica (I.23) y (I.24):

                                                    0,5006    −0,0003
                                        P =                                 .
                                                    −0,0003   0,5008



                                                                                                         11
I.5.     Estabilidad robusta y desempe˜ o nominal
                                      n


   El dise˜o de sistemas de control que aseguren un buen desempe˜o del lazo, en presencia de incertidumbre en
          n                                                         n
el modelo y/o de perturbaciones persistentes de las cuales s´lo se conozca una cota en su energ´ ha sido objeto
                                                            o                                    ıa,
de intensa investigaci´n desde finales de la d´cada de los 70’s. En efecto, el control robusto es una teor´ que ha
                      o                      e                                                           ıa
alcanzado madurez y que goza de amplia aceptaci´n, dada su caracter´
                                                 o                     ıstica de manejo expl´
                                                                                            ıcito del conocimiento
de la incertidumbre y de las perturbaciones externas.

  En esta secci´n presentamos las bases sobre las que se fundamenta esta teor´ y que, de una manera muy
               o                                                               ıa
simple, pueden resumirse en: bajo suposiciones adecuadas, tanto el problema de estabilidad robusta como el de
desempe˜o nominal pueden formularse como uno de determinaci´n de un controlador H ∞ .
        n                                                      o

  Para facilitar la presentaci´n de los resultados de la teor´ de control robusto, primero nos limitaremos al caso
                              o                              ıa
de sistemas de una entrada y una salida (SISO), para luego extrapolar esos resultados al caso multivariable a
trav´s de los valores singulares de matrices.
    e


Sistemas de una entrada y una salida


     Consideremos al sistema de la figura (I.2), cuya funci´n de transferencia y(s)/r(s) viene definida por:
                                                          o
                                                                   pc
                                                       T (s) =          ,                                     (I.25)
                                                                 1 + pc
que tradicionalmente se conoce como funci´n complementaria.
                                         o

                                                                                     d(t)
                                        e(t)                 u(t)
                            r(t)                                                            y(t)
                                   +                c(s)                p(s)          +
                                       (-)


                                             Figura I.2.: Lazo cl´sico de control.
                                                                 a



     De nuevo, en relaci´n con la figura (I.2), la funci´n de transferencia e(s)/r(s) (´ y(s)/d(s)) viene dada por:
                        o                              o                              o
                                                                   1
                                                       S(s) =           ,                                     (I.26)
                                                                 1 + pc
que tradicionalmente se denomina como funci´n de sensibilidad, ya que es la funci´n que determina (en el dominio
                                                o                                  o
de la frecuencia) la sensibilidad del lazo de la figura (I.2) a cambios en la planta p(s).

     Evidentemente,
                                                      S(s) + T (s) = 1,
y de all´ el nombre de T (s).
        ı

   Antes de entrar en el tema de estabilidad robusta, consideremos la estabilidad del lazo representado en la figura
I.2 y demos algunas definiciones.


Definici´n I.1 El lazo representado en la figura (I.2) es internamente estable si toda funci´n de transferencia,
        o                                                                                 o
entre una entrada y una salida del sistema, es estable.



12
Consideremos ahora cualquier realizaci´n m´
                                        o   ınima de T (s) de la forma:
                                                  x
                                                  ˙   = Acl x + Bcl r
                                                  y   = Ccl x + Dcl r


Lema I.4 ([San89]) El sistema de la figura (I.2) es internamente estable si y s´lo si los autovalores de la matriz
                                                                               o
Acl est´n en el semiplano izquierdo abierto. Esto es, que la matriz Acl es hurwitz.
       a


   Siendo Acl la matriz de estados (o din´mica) de cualquier funci´n de transferencia del lazo de la figura (I.2),
                                         a                        o
la ubicaci´n de sus autovalores determina la de los polos de cualquier funci´n de transferencia.
          o                                                                 o

  Si entendemos por robustez la capacidad de un sistema a lazo cerrado para responder adecuadamente ante
perturbaciones externas y/o variaciones en el modelo de la planta, tradicionalmente dicha robustez se asegura
ante incertidumbre en el modelo dise˜ando sistemas con amplios m´rgenes de fase (φ m ) y de ganancia (gm )
                                     n                              a
[PH96].

  En la figura (I.3) se muestran sobre un diagrama de Nyquist, en forma gr´fica, tales m´rgenes.
                                                                         a            a




                     Figura I.3.: Margen de fase φm y de ganancia gm de un sistema SISO.



   El margen de ganancia (gm ) permite afrontar incertidumbre en la ganancia del proceso a controlar. En relaci´n
                                                                                                               o
con la figura (I.4), esto significa alg´n escalar β del que s´lo se conocen sus cotas m´ximas. El margen de fase
                                     u                     o                         a
(φm ) permite hacer frente a cambios —incertidumbre— en la fase. En relaci´n con la figura (I.4), alg´n escalar φ
                                                                            o                        u
del que s´lo se conocen sus valores extremos. De modo que la planta real es la suma de la planta nominal (p(s))
         o
y la incertidumbre (βe−φs ).

                                                                sistema real


                      r(t)                                                                 y(t)
                             +             c(s)              βe−φs             p(s)
                                                      u(t)
                                 (-)


                                 Figura I.4.: Representaci´n cl´sica de lazo incierto.
                                                          o    a



  Hay que hacer notar que los enfoques de margen de fase o de ganancia presuponen que s´lo hay desconocimiento
                                                                                            o
en uno de los dos par´metros, i.e., la magnitud (β) o la fase (φ), no en ambos. En general se presenta incertidumbre
                      a
en los dos y es f´cil generar casos en los que, aun teniendo excelentes m´rgenes de fase y ganancia, una peque˜a
                 a                                                         a                                      n
variaci´n simult´nea en ambos —magnitud y fase– sobre los valores nominales, genera plantas inestables.
       o         a



                                                                                                                 13
De all´ la idea de utilizar una nueva medida que conjugue variaciones simult´neas en magnitud y fase. Surge el
         ı                                                                     a
margen del m´dulo como nueva medida de robustez, basada en el operador diferencia de retorno. En relaci´n con
                o                                                                                         o
el lazo cl´sico que se muestra en la figura (I.2), definiremos al operador diferencia de retorno (O(ω)) para una
           a
frecuencia dada (ω) como la distancia desde el punto (−1, 0) —o ejπ — en el plano “s” al diagrama de Nyquist
correspondiente a esa frecuencia y que es equivalente al inverso de la magnitud de la funci´n de sensibilidad
                                                                                              o
evaluada en esa frecuencia, esto es:
                                       O(ω) = |S(jω)−1 | = |1 + p(jω)c(jω)|.


     El margen del m´dulo se define como:
                    o
                                                 Mm = m´ O(ω).
                                                       ın
                                                         ω


   Mm determina la distancia m´s cercana, en el diagrama de Nyquist, al punto (−1, 0) del plano “s”, esto es,
                              a
el punto m´s cercano a encerrar el (-1,0) y, por ende, a convertir al lazo en inestable. M m permite afrontar
           a
incertidumbre en magnitud y fase simult´neamente en un lazo. En la figura (I.5) mostramos gr´ficamente un
                                        a                                                      a
ejemplo del operador.




                                    Figura I.5.: Operador diferencia de retorno.



     A continuaci´n presentamos un resultado b´sico de la teor´ de control robusto basado en esto ultimo.
                 o                            a               ıa                                  ´


Estabilidad robusta


   Para poder establecer qu´ condiciones se requieren para garantizar la robustez de un sistema ante incertidumbre
                           e
en el modelo de la planta, primero debemos establecer un modelo adecuado de la incertidumbre a considerar. En
el caso de margen de fase y de ganancia, la robustez la establecen esos m´rgenes en la forma de l´
                                                                          a                      ımites soportables
de variaci´n.
          o

  Es relativamente sencillo, a trav´s de ensayos en el sistema, obtener cotas para la incertidumbre en la magnitud
                                   e
y para la incertidumbre en la fase de un sistema dado. Sin embargo, ello conducir´ a una cantidad innumerable
                                                                                     ıa
de “formas” de la incertidumbre para las que ser´ muy dif´ desarrollar una teor´ general.
                                                  ıa         ıcil                     ıa

  En vista de que cualquiera que sea la forma de la incertidumbre del sistema siempre, de manera m´s o menos
                                                                                                  a
conservativa, ella puede ser aproximada por una circunferencia, en el paradigma de control robusto, ´sta es la
                                                                                                    e



14
descripci´n m´s com´n de la incertidumbre y equivale a suponer que se conocen los l´
         o   a     u                                                               ımites m´ximos de desviaci´n
                                                                                           a                 o
de la magnitud sobre un valor nominal, pero se desconoce totalmente la fase.

  En relaci´n con el diagrama de la figura (I.2) supondremos que la planta real es descrita por:
           o

                                              p(s) = pn (s) + la (s)                                        (I.27)

y entonces,
                                            |p(jω) − pn (jω)| ≤ l¯ (ω).
                                                                 a                                          (I.28)
Esquem´ticamente podemos llevar esta incertidumbre al diagrama de Nyquist del sistema, tal como se muestra
         a
en (I.6).




                                    Figura I.6.: Modelo de la incertidumbre.



  Se desprende de la descripci´n de la incertidumbre que, para una frecuencia ω dada, ¯a (ω) es la cota m´xima
                              o                                                       l                  a
de la magnitud de la incertidumbre y que no hay informaci´n sobre la fase (incertidumbre total en la fase).
                                                          o

   A t´
      ıtulo de ejemplo, consideremos un sistema de control de temperatura de un tanque de agua, que tenga
circulaci´n de agua permanente y nivel constante. El agua es calentada a trav´s de unas resistencias el´ctricas.
         o                                                                      e                         e
El ejemplo lo tomamos de [Qui04]. La funci´n de transferencia entre la potencia suministrada y la temperatura
                                             o
del agua se determinan de manera experimental, dando escalones de potencia en la entrada y observando la
respuesta en la salida. Se realizan 4 pruebas, dos escalones positivos y dos negativos, resultando las 4 funciones
de transferencia que describimos a continuaci´n:
                                               o
                                                           0,6125 −32s
                                            G1 (s)   =     254s+1 e
                                                            0,75    −25s
                                            G2 (s)   =     215s+1 e
                                                             0,7    −20s
                                            G3 (s)   =     100s+1 e
                                                             0,6    −34s
                                            G4 (s)   =     200s+1 e      .


  Promediando las ganancias, las constantes de tiempo y los retrasos obtenemos como sistema nominal:
                                                          0, 6656 −28s
                                             Gn (s) =             e
                                                         192s + 1
de donde es muy f´cil generar una funci´n m´xima de desviaci´n —en magnitud— para cada frecuencia.
                 a                     o   a                o

  En la figura (I.7) hemos incluido la respuesta en frecuencia de magnitud de los sistemas encontrados con
ensayos y la respuesta del sistema nominal obtenido promediando los par´metros.
                                                                       a

   En la figura (I.8) se muestra, para el ejemplo anterior, la diferencia entre la magnitud de la respuesta en
frecuencia de los sistemas obtenidos en las pruebas menos la del sistema nominal. Ello para determinar una cota
superior al error en todo el rango de frecuencias.



                                                                                                               15
0




                                                −10




                                                −20
                                                                             |G (jω)|
                                                                               n




                                Magnitud (dB)
                                                −30




                                                −40




                                                −50




                                                −60
                                                    −6     −5          −4               −3          −2    −1    0
                                                  10      10          10            10             10    10    10
                                                                              Frecuencia (rad/s)



                               Figura I.7.: Diagramas de Bode de sistema de calentamiento.



   En forma normalizada, com´nmente denominada descripci´n multiplicativa de la incertidumbre, la expresi´n
                              u                           o                                              o
(I.27) puede escribirse como:
                                      p(s) = pn (s)(1 + δ(s)W (s))                                   (I.29)
donde |δ(s)| < 1 es una funci´n de transferencia que representa la incertidumbre, de la que s´lo se conoce que su
                             o                                                               o
magnitud es menor que uno y W (s) es la funci´n de peso que recoge, para cada frecuencia y de forma normalizada,
                                             o
la cota m´xima de la magnitud de la incertidumbre. Observe que cuando δ(s) es cero, no hay incertidumbre y la
         a
planta p(s) es precisamente la nominal —pn (s).

     De (I.29) es claro que:
                                                                             ¯a (ω)
                                                                             l          p(jω)
                                                         |W (jω)| =                  ≥         −1 .
                                                                           |pn (jω)|   pn (jω)


     En la figura (I.9) hemos colocado los valores normalizados del error, esto es: (l a (w)/|Gn (jω)|).

   Observamos que, bajo esta descripci´n de incertidumbre, ya no tenemos un solo modelo del sistema (digamos
                                       o
el nominal) sino, m´s bien, una familia (infinita) de ellos.
                   a

  La condici´n de estabilidad para toda la familia de sistemas, estabilidad robusta, viene dada por el siguiente
            o
resultado:


Teorema I.4 ([San89] y [MZ89]) Consideremos al sistema de la figura (I.2) en el que la planta p(s) es descrita
por la familia de modelos (I.29) y los cuales tienen el mismo n´mero de polos en el semiplano derecho. Adem´s, sea
                                                               u                                           a
c(s) un controlador que estabiliza la planta nominal pn (s). Entonces toda la familia de modelos ser´ estabilizado
                                                                                                     a
por el controlador c(s) si y s´lo si
                              o

                                                         W (s)T (s)    ∞    = sup |W (jω)T (jω)| ≤ 1                (I.30)
                                                                                   ω

donde T (s) es la funci´n complementaria definida en (I.25).
                       o


Demostraci´n: Es conveniente considerar que la familia de modelos del sistema de la figura (I.2), que satisfacen
             o
(I.29), forman un conjunto representado por P. El sistema de la figura (I.2) es estable si y s´lo si para todo
                                                                                              o



16
0.2


                                                                       0.18


                                                                       0.16                  |G (jω)−G (jω)|
                                                                                               3       n




                            Magnitud del error. la(ω)=|Gi(jω)−Gnjω)|
                                                                       0.14


                                                                       0.12


                                                                        0.1


                                                                       0.08


                                                                       0.06


                                                                       0.04


                                                                       0.02


                                                                         0
                                                                           −6           −5                  −4             −3              −2    −1    0
                                                                         10        10                      10           10             10       10    10
                                                                                                                  Frecuencia (rad/s)



                         Figura I.8.: Magnitud de la incertidumbre para cada frecuencia.



miembro p(s) ∈ P se cumple que la ecuaci´n 1 + p(s)c(s) = 0 no tiene ra´
                                         o                             ıces en el semiplano derecho cerrado
(que denominaremos C+ ). Luego ello es equivalente a:

                                1 + pn (s)c(s)[1 + W (s)δ(s)] = 0 ∀|δ| < 1 y s ∈ C+
                          ⇐⇒ 1 + pn (s)c(s) = δ(s)W (s)pn (s)c(s) ∀|δ| < 1 y s ∈ C+
                          ⇐⇒ |1 + pn (s)c(s)| ≥ |W (s)pn (s)c(s)| s = jω; ω ∈ [0, ∞)                                                                       (I.31)
                          ⇐⇒                     |T (s)W (s)| ≤ 1 s = jω; ω ∈ [0, ∞)
                          ⇐⇒                                     W (s)T (s) ∞ ≤ 1


  Este resultado, fundamental para la teor´ de control robusto, tiene una interpretaci´n gr´fica en el diagrama
                                            ıa                                              o    a
de Nyquist (ver figura (I.10)). En efecto, en (I.31) el t´rmino |W (s)pn (s)c(s)| = ¯a (ω)|c(s)| no es m´s que el radio
                                                        e                          l                   a
de la circunferencia que determina el tama˜o de la incertidumbre (para cada frecuencia) y entonces se infiere que
                                           n
una condici´n necesaria y suficiente para estabilidad robusta es que, para cualquier frecuencia, la distancia del
            o
−1 al diagrama nominal de Nyquist, i.e. la magnitud del Operador diferencia de retorno, sea mayor que ese radio
(que acota la incertidumbre en esa frecuencia). En otros t´rminos y visto que toda la familia de sistemas tiene el
                                                            e
mismo n´mero de polos en el semiplano derecho, la condici´n de estabilidad robusta implica que la “banda” de
          u                                                   o
Nyquist, determinada por la familia de sistemas, no encierra al −1.

  En (I.31) se us´ el hecho derivado del teorema del m´ximo m´dulo que se˜ala que:
                 o                                    a      o           n

                                                                                F (s)        ∞     =        sup     |F (s)| = sup |F (jω)|,
                                                                                                       Re{s}>0                         ω


es decir, que el m´ximo de una funci´n continua en un conjunto cerrado y acotado ocurre en su frontera.
                  a                 o

  Podemos incluir esquem´ticamente la representaci´n de la incertidumbre multiplicativa en la descripci´n cl´sica
                          a                         o                                                  o    a
del lazo realimentado. Ello se muestra en la figura (I.11).

  En relaci´n con la misma figura (I.11), observe que el resultado para la estabilidad robusta es equivalente a
             o
“abrir” el lazo en los dos extremos del bloque de la incertidumbre (δ(s)) y verificar que la funci´n de transferencia
                                                                                                 o
W (s)T (s) entre d(t) y z(t), nuevas entrada y salida al abrir el lazo, est´ acotada en magnitud.
                                                                           a

  La incertidumbre multiplicativa, representada por W (s), es s´lo una forma entre muchas para describir lo que
                                                               o
desconocemos en un lazo. Las funciones W (s) tienen normalmente la forma mostrada en la figura (I.12). La
incertidumbre es m´s peque˜a en bajas frecuencias y crece a medida que la frecuencia aumenta. Es importante
                  a        n



                                                                                                                                                              17
3.5




                              Magnitud del error normalizada. W(ω)=|Gi(jω)−Gn(jω)|/|Gn(jω)|
                                                                                               3
                                                                                                                                        |G3(jω)/Gn(jω)−1|


                                                                                              2.5




                                                                                               2




                                                                                              1.5




                                                                                               1




                                                                                              0.5




                                                                                               0
                                                                                                 −6    −5          −4              −3                −2      −1    0
                                                                                               10     10          10            10                10        10    10
                                                                                                                          Frecuencia (rad/s)



                   Figura I.9.: Magnitud de la incertidumbre para cada frecuencia, normalizada.




                             Figura I.10.: Condici´n de an´lisis de estabilidad robusta.
                                                  o       a



mencionar que de la funci´n de incertidumbre W (s) lo unico importante es su magnitud. La consideramos como
                         o                             ´
una funci´n de transferencia s´lo por tener una representaci´n consistente de un lazo de control (figura I.11).
         o                    o                             o

     La condici´n de estabilidad robusta impone que la funci´n complementaria T (s) satisfaga:
               o                                            o

                                                                                                            |T (jω)| < |W (jω)|−1                 ∀ω.

Luego, un modelo poco ajustado de la incertidumbre puede imponer cotas extremadamente restrictivas (muy
peque˜as) en la funci´n complementaria y, por ende, en el controlador.
     n               o

  De la misma forma que la magnitud de la incertidumbre debe ser lo m´s entallada posible, a fin de evitar ser
                                                                      a
excesivamente conservadores en el dise˜o del control, el mismo razonamiento se extiende a la “topolog´ del
                                      n                                                               ıa”
modelo de la incertidumbre.

     Hasta ahora hemos mencionado dos tipos, a saber:


        Aditiva: p(s) = pn (s) + δ(s)W (s)                                                             |δ(s)| < 1

        Multiplicativa: p(s) = pn (s)(1 + δ(s)W (s))                                                                   |δ(s)| < 1.


     Adem´s, entre otras, tambi´n podemos representar la incertidumbre como [San89], [DFT92]:
         a                     e



18
z(t)          d(t)
                                                                           δ(s)          W (s)

                                      e(t)
                          r(t)                      u(t)                                             y(t)
                                  +          c(s)          pn (s)                                +
                                      (-)



                          Figura I.11.: Representaci´n del lazo con incertidumbre multiplicativa.
                                                    o




                                       Figura I.12.: Modelo de variaci´n de la incertidumbre.
                                                                      o



       p(s) = pn (s)(1 + δ(s)W (s))−1

       p(s) = pn (s)(1 + δ(s)W (s)pn (s))−1 ;


algunas son equivalentes y, en cualquiera que sea la representaci´n, la estabilidad robusta viene determinada
                                                                 o
por la norma infinita de alguna funci´n de transferencia. En la tabla (I.1) se recogen las equivalencias [San89],
                                    o
[DFT92].


                                    Tabla I.1.: Equivalencias entre medidas de incertidumbre
                                 p(s) = pn (s)(1 + δ(s)W (s))           W (s)T (s) ∞ ≤ 1
                                 p(s) = pn (s) + δ(s)W (s)              W (s)p−1 (s)T (s) ∞ ≤ 1
                                                                              n
                                                              −1
                                 p(s) = pn (s)(1 + δ(s)W (s))           W (s)S(s) ∞ ≤ 1
                                 p(s) = pn (s)(1 + δ(s)W (s)pn (s))−1   W (s)pn (s)S(s) ∞ ≤ 1


   Cualquiera que sea su representaci´n, la incertidumbre que afecta al sistema siempre lo hace de manera global
                                      o
y de all´ que reciba com´nmente en la literatura ese nombre, i.e., incertidumbre global o no estructurada. Si, por
        ı                u
el contrario, podemos identificar c´mo las diferentes fuentes de incertidumbre afectan elementos particulares del
                                   o
sistema, entonces estar´ıamos frente a una incertidumbre estructurada.

  Como ejemplo podemos mencionar modelos de incertidumbre de baja y alta frecuencia y que se traducen en
una representaci´n de la forma:
                o
                                                  1 + δ1 (s)W1 (s)
                                    p(s) = pn (s)
                                                  1 + δ2 (s)W2 (s)
|δ1 (s)|, |δ2 (s)| < 1.



                                                                                                               19
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas
Diseño Robusto y Multiobjetivos de Sistemas

Más contenido relacionado

La actualidad más candente

La actualidad más candente (7)

Calculo diferencial
Calculo diferencialCalculo diferencial
Calculo diferencial
 
Max
MaxMax
Max
 
GUIA UCV
GUIA UCVGUIA UCV
GUIA UCV
 
Algebra lineal
Algebra linealAlgebra lineal
Algebra lineal
 
Guia de matematicas
Guia de matematicasGuia de matematicas
Guia de matematicas
 
Introducción a la Informática
Introducción a la InformáticaIntroducción a la Informática
Introducción a la Informática
 
VXC: Computer Vision
VXC: Computer VisionVXC: Computer Vision
VXC: Computer Vision
 

Similar a Diseño Robusto y Multiobjetivos de Sistemas

Similar a Diseño Robusto y Multiobjetivos de Sistemas (20)

Rarepaso
RarepasoRarepaso
Rarepaso
 
Apuntes termo
Apuntes termoApuntes termo
Apuntes termo
 
Analisis
AnalisisAnalisis
Analisis
 
Gestión moderna del mantenimiento
Gestión moderna del mantenimientoGestión moderna del mantenimiento
Gestión moderna del mantenimiento
 
Manual ingeniero mantenimiento
Manual ingeniero mantenimientoManual ingeniero mantenimiento
Manual ingeniero mantenimiento
 
Análisis Matemático
Análisis MatemáticoAnálisis Matemático
Análisis Matemático
 
Econometria aplicada con gretl
Econometria aplicada con gretlEconometria aplicada con gretl
Econometria aplicada con gretl
 
Manual ingeniero mantenimiento diseñado para estudiantes universitarios
Manual ingeniero mantenimiento diseñado para estudiantes universitariosManual ingeniero mantenimiento diseñado para estudiantes universitarios
Manual ingeniero mantenimiento diseñado para estudiantes universitarios
 
CONTROLADORES
CONTROLADORESCONTROLADORES
CONTROLADORES
 
Calculo vectorial
Calculo vectorialCalculo vectorial
Calculo vectorial
 
Tutorial c18
Tutorial c18Tutorial c18
Tutorial c18
 
Matemáticas Computacionales
Matemáticas ComputacionalesMatemáticas Computacionales
Matemáticas Computacionales
 
Informatica3
Informatica3Informatica3
Informatica3
 
Introduccion a la informatica
Introduccion a  la informaticaIntroduccion a  la informatica
Introduccion a la informatica
 
Librocompleto
LibrocompletoLibrocompleto
Librocompleto
 
Inforrmatica pdf 1
Inforrmatica pdf 1Inforrmatica pdf 1
Inforrmatica pdf 1
 
Librocompleto
LibrocompletoLibrocompleto
Librocompleto
 
Librocompleto
LibrocompletoLibrocompleto
Librocompleto
 
Librocompleto
LibrocompletoLibrocompleto
Librocompleto
 
Librocompleto
LibrocompletoLibrocompleto
Librocompleto
 

Más de William Colmenares

Como producir cursos virtuales con sólo´una conexión a internet y no morir en...
Como producir cursos virtuales con sólo´una conexión a internet y no morir en...Como producir cursos virtuales con sólo´una conexión a internet y no morir en...
Como producir cursos virtuales con sólo´una conexión a internet y no morir en...William Colmenares
 
Conocimiento y aprendizaje en el siglo XXI
Conocimiento y  aprendizaje en el siglo XXIConocimiento y  aprendizaje en el siglo XXI
Conocimiento y aprendizaje en el siglo XXIWilliam Colmenares
 
Gestión Administrativa y Financiera. Parte II
Gestión Administrativa y Financiera. Parte IIGestión Administrativa y Financiera. Parte II
Gestión Administrativa y Financiera. Parte IIWilliam Colmenares
 
Gestión Administrativa y Financiera. Parte I
Gestión Administrativa y Financiera. Parte IGestión Administrativa y Financiera. Parte I
Gestión Administrativa y Financiera. Parte IWilliam Colmenares
 
Ideas on Snoring. CCiC Challenge Assumptions 2
Ideas on Snoring. CCiC Challenge Assumptions 2Ideas on Snoring. CCiC Challenge Assumptions 2
Ideas on Snoring. CCiC Challenge Assumptions 2William Colmenares
 
Crash Course in Creativity. Assignment 3
Crash Course in Creativity. Assignment 3Crash Course in Creativity. Assignment 3
Crash Course in Creativity. Assignment 3William Colmenares
 
Sobre la Gobernanza Universitaria
Sobre la Gobernanza UniversitariaSobre la Gobernanza Universitaria
Sobre la Gobernanza UniversitariaWilliam Colmenares
 
Linealización de Sistemas No Lineales
Linealización de Sistemas No LinealesLinealización de Sistemas No Lineales
Linealización de Sistemas No LinealesWilliam Colmenares
 
Foro Vicerrectores Administrativos
Foro Vicerrectores AdministrativosForo Vicerrectores Administrativos
Foro Vicerrectores AdministrativosWilliam Colmenares
 

Más de William Colmenares (19)

Como producir cursos virtuales con sólo´una conexión a internet y no morir en...
Como producir cursos virtuales con sólo´una conexión a internet y no morir en...Como producir cursos virtuales con sólo´una conexión a internet y no morir en...
Como producir cursos virtuales con sólo´una conexión a internet y no morir en...
 
Conocimiento y aprendizaje en el siglo XXI
Conocimiento y  aprendizaje en el siglo XXIConocimiento y  aprendizaje en el siglo XXI
Conocimiento y aprendizaje en el siglo XXI
 
10 reglas
10 reglas10 reglas
10 reglas
 
como crear
como crearcomo crear
como crear
 
Gestionpor indicadoresitesm
Gestionpor indicadoresitesmGestionpor indicadoresitesm
Gestionpor indicadoresitesm
 
Gestión Administrativa y Financiera. Parte II
Gestión Administrativa y Financiera. Parte IIGestión Administrativa y Financiera. Parte II
Gestión Administrativa y Financiera. Parte II
 
Gestión Administrativa y Financiera. Parte I
Gestión Administrativa y Financiera. Parte IGestión Administrativa y Financiera. Parte I
Gestión Administrativa y Financiera. Parte I
 
Ideas on Snoring. CCiC Challenge Assumptions 2
Ideas on Snoring. CCiC Challenge Assumptions 2Ideas on Snoring. CCiC Challenge Assumptions 2
Ideas on Snoring. CCiC Challenge Assumptions 2
 
Crash Course in Creativity. Assignment 3
Crash Course in Creativity. Assignment 3Crash Course in Creativity. Assignment 3
Crash Course in Creativity. Assignment 3
 
Presupuesto 2013 USB
Presupuesto 2013 USBPresupuesto 2013 USB
Presupuesto 2013 USB
 
Sobre la Gobernanza Universitaria
Sobre la Gobernanza UniversitariaSobre la Gobernanza Universitaria
Sobre la Gobernanza Universitaria
 
Presupuesto 2010
Presupuesto 2010Presupuesto 2010
Presupuesto 2010
 
Proyecto Presupuesto
Proyecto PresupuestoProyecto Presupuesto
Proyecto Presupuesto
 
Linealización de Sistemas No Lineales
Linealización de Sistemas No LinealesLinealización de Sistemas No Lineales
Linealización de Sistemas No Lineales
 
Presentacion Foro Rectores
Presentacion Foro RectoresPresentacion Foro Rectores
Presentacion Foro Rectores
 
Foro Vicerrectores Administrativos
Foro Vicerrectores AdministrativosForo Vicerrectores Administrativos
Foro Vicerrectores Administrativos
 
Lasimon2009
Lasimon2009Lasimon2009
Lasimon2009
 
lo hecho
lo hecholo hecho
lo hecho
 
Lasimon2009
Lasimon2009Lasimon2009
Lasimon2009
 

Diseño Robusto y Multiobjetivos de Sistemas

  • 1. Apuntes sobre control robusto y multiobjetivos de sistemas Williams Colmenares M. Universidad Sim´n Bol´ o ıvar Departamento de Procesos y Sistemas Fernando Tadeo R. Universidad de Valladolid Departamento de Ingenier´ de Sistemas y Autom´tica ıa a
  • 2.
  • 3. A Teresa y Hugo A Luisa Elena, Luis Carlos, Bruno, Daniel e Isabella
  • 4.
  • 5. ´ Indice general I. An´lisis de sistemas con m´ltiples objetivos a u 1 I.1. Controladores multiobjetivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 I.2. Sobre la norma de se˜ales y sistemas . . . . . . . . n . . . . . . . . . . . . . . . . . . . . . . . . . . 2 I.3. Evaluaci´n de las normas 2 e infinito de un sistema o . . . . . . . . . . . . . . . . . . . . . . . . . . 6 I.4. Desigualdades matriciales lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 I.5. Estabilidad robusta y desempe˜o nominal . . . . . n . . . . . . . . . . . . . . . . . . . . . . . . . . 12 II. An´lisis y s´ a ıntesis de controladores para sistemas con saturaciones 33 II.1. Introducci´n . . . . . . . . . . . . . . . . . . . o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 II.2. Especificaciones de funcionamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 II.3. An´lisis 1 . . . . . . . . . . . . . . . . . . . . a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 II.4. Estabilidad robusta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 II.5. Soluci´n mediante programaci´n lineal . . . . o o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 II.6. Control de un reformador de hidr´geno . . . . o . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 II.7. M´todo de c´lculo basado en LMIs . . . . . . e a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 II.8. Resumen del cap´ ıtulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 III. S´ıntesis de controladores mediante programaci´n semidefinida o 57 III.1. Introducci´n . . . . . . . . . . . . . . . . . . . . . . . . . . . o . . . . . . . . . . . . . . . . . . . . . 57 III.2. Estabilidad cuadr´tica . . . . . . . . . . . . . . . . . . . . . a . . . . . . . . . . . . . . . . . . . . . 58 III.3. Sistemas con incertidumbre acotada en norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 III.4. Sistemas poli´dricos . . . . . . . . . . . . . . . . . . . . . . e . . . . . . . . . . . . . . . . . . . . . 63 III.5. Condiciones menos conservadoras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 III.6. Dise˜o por realimentaci´n de la salida . . . . . . . . . . . . n o . . . . . . . . . . . . . . . . . . . . . 66 III.7. Sistemas ciertos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 III.8. Sistemas con incertidumbre acotada en norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 III.9. Sistemas con incertidumbre poli´drica . . . . . . . . . . . . e . . . . . . . . . . . . . . . . . . . . . 80 IV. Sintonizaci´n robusta de controladores industriales o 91 IV.1. Introducci´n . . . . . . . . . . . . . . . . . . . . o . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91 IV.2. Los algoritmos PID . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 IV.3. PID v´ LMIs iterativas . . . . . . . . . . . . . ıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 IV.4. El algoritmo ILMI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 IV.5. Comparaci´n de t´cnicas de entonaci´n . . . . o e o . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 IV.6. Enfoque frecuencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 i
  • 6. A. Factorizaci´n coprima o 103 A.1. Factorizaci´n coprima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 o A.2. Parametrizaci´n de Youla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 o ii
  • 7. Presentaci´n o Este libro trata sobre programaci´n convexa aplicada al control. En particular, de la programaci´n lineal y o o la semidefinida. Recientes desarrollos han despertado mucho inter´s en este campo, y entre ellos mencionamos e los asociados con la teor´ de control robusto y los m´todos num´ricos de puntos interiores. La primera permite ıa e e estudiar en un marco unificado la incertidumbre sobre el sistema y sobre las perturbaciones externas. Los segundos permiten resolver de manera muy eficiente problemas convexos. Adem´s, y esperamos convencer de ello al lector a que con paciencia avance por el libro, es muy grande el campo de las aplicaciones de la programaci´n convexa o en el control. En estos apuntes nos concentramos en el dise˜o de sistemas de control para sistemas lineales invariantes en el n tiempo, a los que imponemos m´ltiples objetivos en el desempe˜o del lazo –cerrado– de control (e.g., estabilidad, u n rapidez, atenuaci´n, sensibilidad). De particular inter´s son aquellos sistemas en los que la incertidumbre en el o e modelo o las perturbaciones externas son de tal magnitud que deben tenerse en consideraci´n expl´ o ıcitamente. As´ en este trabajo analizamos sistemas con incertidumbre surgida de imperfecciones del modelo, t´ ı, ıpicamente representada por una funci´n de transferencia que afecta globalmente al sistema en estudio. Adem´s, analizamos o a incertidumbre asociada con los par´metros y de muy alta estructura. En cuanto a las perturbaciones, al contrario a del enfoque tradicional que presupone la forma y s´lo desconoce el momento en la que afectar´ al sistema, o a unicamente asumiremos conocida alguna cota superior (e inferior si es el caso) de ella (e.g., energ´ amplitud, ´ ıa, ruido blanco). En el caso de sistemas inciertos, estudiamos sistemas con incertidumbre acotada en norma y con incertidumbre poli´drica. Ambos tipos con implicaciones pr´cticas importantes. El enfoque de partida es el cuadr´tico, esto es, e a a siempre buscamos una funci´n de Lyapunov com´n a todos los modelos que pueda tener un sistema. Desde el o u enfoque cuadr´tico, se derivan condiciones mucho menos conservadoras al encontrar ya no una sino diferentes a funciones de Lyapunov. Ambos enfoques se basan en una representaci´n del sistema en variables de estado. Esto o pone al alcance del dise˜ador herramientas sumamente poderosas de an´lisis y s´ n a ıntesis de compensadores. Ventaja adicional de este marco (variables de estado) es que no se hace ninguna distinci´n en el tratamiento de sistemas o MIMO o SISO. En esa parte del trabajo (sistemas con incertidumbre) revisamos una serie de resultados de la ahora muy conocida teor´ del control robusto y ponemos ´nfasis en un enfoque integrador de la misma. Uno de los aportes ıa e de este trabajo es sin duda la soluci´n ofrecida al dise˜o con objetivos m´ltiples cuando no todos los estados o n u est´n disponibles y solamente una parte de ellos puede retroalimentarse, us´ndose para control. Todos nuestros a a aportes est´n basados en el dise˜o de un controlador din´mico. a n a Tanto en el tratamiento de la incertidumbre como en el caso de las perturbaciones, el logro de los objetivos de
  • 8. control se eval´a a trav´s de la “norma” de una funci´n de transferencia. Observe que hasta ac´ no hemos hecho u e o a ninguna distinci´n entre sistemas continuos y discretos; la raz´n es que, en general, se desarrollar´n resultados o o a para ambos tipos de sistemas con el enfoque propuesto (normas). Notable excepci´n es la norma 1 cuyo ´mbito o a b´sicamente son los sistemas discretos y a cuyo estudio dedicamos un cap´ a ıtulo entero. A trav´s de esta norma, e se resuelve el problema de control robusto en el que la incertidumbre se describe en t´rminos de magnitud. e Las herramientas fundamentales de desarrollo son las desigualdades matriciales lineales, que se obtienen de una aplicaci´n de la f´rmula del complemento de Schur. Con ellas se puede formular una serie importante de o o problemas como uno de programaci´n convexa. De esta manera, problemas del ´mbito de H ∞ , H2 , 1 , ubicaci´n o a o de polos en regiones, pasividad y otro buen n´mero, encuentran un marco com´n de planteamiento. De all´ que, u u ı en ocasiones, hablemos de “dise˜o multiobjetivos de sistemas”, ya que especificar condiciones de desempe˜o del n n tipo antes mencionado significa sumar (en realidad intersectar) colecciones de desigualdades matriciales lineales en b´squeda de un punto factible: el controlador. u Tambi´n importante, en este trabajo proponemos un par de enfoques para entonar controladores industriales e con estructura est´ndar, siempre en el ´mbito de la programaci´n convexa. a a o El objetivo del libro es poner al alcance del lector conocimiento y t´cnicas de la programaci´n lineal y semidefi- e o nida que se aplican al an´lisis y dise˜o de sistemas de control. Como la lista de aplicaciones es extensa, en muchos a n casos hacemos demostraci´n rigurosa de algunos resultados y dejamos al lector el desarrollo de la extensi´n a o o otros casos; por ejemplo, se demuestra estabilidad y se deja para el lector las demostraciones de ubicaci´n de o polos, H2 , etc. El libro est´ originalmente pensado para cursos electivos de pre y postgrado en sistemas de control, espec´ a ıfica- mente sobre aplicaciones de la programaci´n convexa o de m´todos num´ricos en control. Tambi´n puede usarse o e e e en cursos b´sicos de sistemas de control, como complemento a las muy conocidas t´cnicas anal´ a e ıticas de dise˜o de n controladores, en cursos de sistemas multivariables y de control robusto. En el cap´ıtulo I se sientan las bases te´ricas que justifican los resultados presentados en los cap´ o ıtulos subsi- guientes. En el cap´ ıtulo II se presentan aplicaciones de la programaci´n lineal al c´lculo de controladores con o a restricciones de saturaci´n, basadas en la norma 1 . En el cap´ o ıtulo III se presentan algunas aplicaciones de la programaci´n semidefinida al c´lculo de controladores H∞ , H2 y ubicaci´n de polos. En el cap´ o a o ıtulo IV se presen- tan algunas aplicaciones espec´ ıficas al c´lculo de controladores tipo proporcional, integral y derivativo, ello por a lo extendido del uso de este tipo de controladores. Los cap´ ıtulos II, III y IV son independientes y, completado el estudio del cap´ıtulo I, el lector interesado puede ir directamente a cualquiera de ellos. Este libro es fruto de la intensa cooperaci´n cient´ o ıfica que hemos sostenido entre la Universidad Sim´n Bol´ o ıvar en Caracas, la Universidad de Valladolid en Valladolid y el Laboratoire d’Analyses et Architecture des System`s e (LAAS) en Toulouse. En particular, los autores desean expresar su agradecimiento a los colegas Ernesto Granado, Omar P´rez, Jacques Bernussou, C´sar de Prada, Francisco del Valle, Maite Ur´ y Rosalba Lamanna. A la jefa e e ıa de Producci´n de la Editorial Equinoccio, Margarita Oviedo, por su desprendido apoyo y a Jos´ Manuel Guilarte o e por su paciente correcci´n del estilo del libro. Igualmente, agradecemos a las instituciones que hicieron posible esa o cooperaci´n, a saber, los programas CYTED-RIII, PCP Automatique, PCP Optimizaci´n de Sistemas y FEDER. o o A las instituciones CICYT y al FONACIT. Finalmente, agradecemos el financiamiento de la publicaci´n que o realiza el Ministerio de Educaci´n y Ciencia Espa˜ol, a trav´s del proyecto CICYT DPI2004-07444-C04-02, y a o n e la Universidad Sim´n Bol´ o ıvar, a trav´s de la Editorial Equinoccio y de la Direcci´n de Cultura. e o Williams Colmenares, en Caracas, y Fernando Tadeo, en Valladolid iv
  • 9. CAP´ ITULO I An´lisis de sistemas con m´ltiples objetivos a u I.1. Controladores multiobjetivo El dise˜o de estrategias de control que aseguren un n´mero de objetivos (especificaciones) en un lazo de control n u ha sido objeto de intensa investigaci´n y estudio, pasando en los ultimos 50 a˜os de ser un campo intuitivo y o ´ n de sentido com´n (“de ingenio”) [Cor96], [AH95], a uno riguroso y formal en el que matem´ticos e ingenieros u a encuentran tierra f´rtil. e Dentro de las disciplinas que conforman los sistemas de control, el estudio de los sistemas lineales invariantes en el tiempo ha conocido enormes avances y cambios en los paradigmas de su estudio, en parte por su simplicidad y propiedades que permiten la aplicaci´n de poderosas herramientas matem´ticas y en parte porque esos resultados o a pueden ser aplicados a un importante n´mero de sistemas, incluyendo algunos muy complejos (e.g., multimodelos u [CGP98], no lineales [BA95], etc). De esta manera, el dise˜o de controladores para sistemas lineales ha evolucionado desde reglas muy simples de n sintonizaci´n [ZN42], ajustes de margen de fase y de ganancia [Kuo95], [PH96], dise˜o basado en representaciones o n de estado como ubicaci´n de polos [PH96], control ´ptimo, [AM89], LQG/LTR [DS81], dise˜o basado en el margen o o n del m´dulo (u operador diferencia de retorno) [DFT92], basado en los valores singulares y control robusto [San89], o [MZ89], [DGK89], llegando hasta los paradigmas basados en la manipulaci´n de normas (de se˜ales o de sistemas) o n y dentro de los que podemos mencionar H∞ , H2 , L1 , 1 . Este enfoque se ve fortalecido con la posibilidad de ubicar los modos de un sistema, no en puntos exactos del plano “s”, sino m´s bien en regiones del mismo (t´cnicas a e denominadas de root clustering) y a lo que tambi´n denominaremos ubicaci´n de polos [CGP96]. e o Todo ello encuentra adem´s un medio integrado de formulaci´n en las desigualdades matriciales lineales (LMIs) a o [Boy94] que surgen de la f´rmula del complemento de Schur, esto es, los problemas antes mencionados pueden o formularse como un conjunto de esas desigualdades (LMIs). Si, como demostraremos, los controladores H2 aseguran un buen rechazo al ruido y los controladores H∞ funcionan bien, aun en presencia de incertidumbre asociada con din´micas no modeladas y reflejadas sobre todo a en altas frecuencias o en presencia de perturbaciones no conocidas pero acotadas en energ´ y si el agrupamiento ıa, de polos permite especificar algunas caracter´ ısticas de la respuesta temporal del sistema, entonces entenderemos
  • 10. c´mo “el dise˜o de controladores multiobjetivos” se refiere a una estrategia de control que permite, de manera o n expl´ ıcita, establecer todas (o algunas) de esas especificaciones —antes mencionadas— en el c´lculo del contro- a lador. Observe que la lista de especificaciones no es agotadora y que, adicionalmente, pueden incluirse otras especificaciones como cero error en estado estacionario (offset), estructura del controlador, etc., aunque ya no como LMIs y de all´ que su inclusi´n conlleve un tratamiento especial en cada caso. ı o Adicionalmente, bajo el mismo enfoque puede considerarse incertidumbre param´trica en el modelo, esto es, e incertidumbre en bajas frecuencias normalmente asociada con variaci´n —o desconocimiento— en los par´metros o a del modelo. En este texto nos proponemos presentar una visi´n integrada del dise˜o de controladores multiobjetivo, con o n particular ´nfasis en los casos en los que aparece incertidumbre param´trica en los sistemas. Aunque la aplicaci´n e e o a sistemas perfectamente conocidos tiene no poca importancia, la extensi´n a ese tipo de sistemas ciertos, en o la mayor´ de los casos, es inmediata y hace del enfoque una herramienta aun m´s poderosa para el dise˜o de ıa a n controladores. En este trabajo entenderemos como controlador multiobjetivos a aquel que satisface simult´neamente ciertos a criterios de desempe˜o (performance/prestaci´n) medidos a trav´s de: n o e la norma H2 la norma H∞ la ubicaci´n de polos o la norma 1. Sin embargo, a´n no hemos definido formalmente tales elementos de medida, de all´ que este primer cap´ u ı ıtulo lo consagremos a sentar las bases de tal meta, es decir, las definiciones y demostraciones que luego ser´n usadas a en todo el resto del trabajo. Cuando nos referimos a una representaci´n de estados, lo hacemos con respecto a un sistema como el descrito o en (I.1), basado en una representaci´n en variables de estado de un sistema (LTI), que en su forma gen´rica es: o e x(t) = Ax(t) + Bu(t) + B1 w(t) ˙ y(t) = Cx(t) + Dw(t) (I.1) z(t) = C1 x(t) + D1 u(t) donde x(t) ∈ IRn es el vector de estados, u(t) ∈ IRm es el vector de control, w(t) ∈ IRnw es el vector de perturbaciones externas, y(t) ∈ IRp es el vector de salidas medibles y z(t) ∈ IRnz es el vector de salidas a controlar. Las matrices A, B, B1 , C, C1 , D, D1 son matrices reales de dimensiones apropiadas que pueden o no ser matrices constantes. I.2. Sobre la norma de se˜ ales y sistemas n Las normas son operaciones matem´ticas (funciones) realizadas sobre un operando (un vector, una matriz, una a se˜al, un sistema, etc.) que nos permiten compararla con sus similares (otro vector, matriz, etc.). En ese sentido, n son m´tricas (medidas) que dan informaci´n sobre el tama˜o del elemento al cual se le aplica la norma. e o n De particular inter´s para este texto son las normas de se˜ales y sistemas. Para facilitar la presentaci´n de las e n o normas que usaremos de se˜ales y sistemas, comenzamos con las de vectores y matrices. n 2
  • 11. Normas de vectores y matrices Sea Cn el espacio lineal de los n´meros complejos de dimensi´n n. Diremos x ∈ C n implicando: u o x = (x1 , x2 , . . . , xn ) con xi ∈ C. Las normas m´s comunes en Cn est´n dadas por: a a x p = (|x1 |p + |x2 |p + . . . + |xn |p )1/p p = 1, 2, ∞ donde |xi | es la magnitud de xi y x ∞ se interpreta como: m´x |xi |. a i La norma x 2 , cuando x ∈ IRn , es simplemente la longitud euclideana del vector x. Sea ahora Cn×n , el espacio de matrices en n × n con elementos en C. Normas comunes de A ∈ C n×n son (i = 1, . . . , n; j = 1, . . . , n): n A 1 = m´x a |aij | j i=1 n A ∞ = m´x a |aij | i j=1 y la norma espectral A 2 = m´x σi (A) = σ (A) a ¯ i donde σi (A) es el valor singular i-´simo de A, que se calcula de la forma: e σi (A) = λi (AH A) y AH es el conjugado hermitiano de A –transpuesto m´s complejo conjugado de la matriz–. Podemos observar a que, de acuerdo con la definici´n, todos los valores singulares son n´meros reales. o u Normas de se˜ ales y sistemas n Sea Y (s) una funci´n de C → Cn y sea Ln el conjunto de todas las funciones de dimensi´n n para las que la o 2 o siguiente cantidad es finita: ∞ 1/2 1 Y (s) 2 = Y (jω)H Y (jω)dω . (I.2) 2π −∞ (I.2) define la norma-2 de la funci´n Y (s). Para el caso en el que Y (s) no tenga polos en el semiplano derecho o (cerrado), el teorema de Parseval nos da el equivalente en el dominio del tiempo de esa norma. Para ello, sea Y (s) la transformada de Laplace de y(t). Entonces se cumple que: ∞ 1/2 Y (s) 2 = y(t) 2 = y(t)T y(t)dt . 0 En el caso de que el sistema Y (s) sea una matriz de sistemas (funciones) de dimensiones m × n se tiene que: ∞ 1/2 1 Y (s) 2 = T r Y (jω)H Y (jω) dω . 2π −∞ 3
  • 12. Observe que Y H (jω) = Y (−jω)T . Si Y (s) ∈ Lm×n entonces 2 Y (s) ∞ = sup σ (Y (jω)) ¯ (I.3) ω donde σ es el valor singular m´ximo, esto es: ¯ a σ (Y (jω)) = m´x ¯ a λi (Y (jω)H Y (jω)). i El siguiente teorema establece que la norma infinita es la norma inducida de la norma 2. Teorema I.1 ([MZ89] y [San89]) Sea el sistema (I.1) en el que la perturbaci´n –w(t)– es cero y sean Y (s) o y U (s) las transformadas de y(t) y u(t). Sabemos que Y (s) = G(s)U (s), con, G(s) = C(sI − A) −1 B y g(t) la transformada inversa de G(s). Consideremos igualmente que deseamos conocer la cota m´ ınima superior de la salida cuando u 2 ≤ 1. Entonces: G(s) ∞ = sup y(t) 2 . (I.4) u(t) 2 ≤1 G(s) 2 = sup y(t) ∞. (I.5) u(t) 2 ≤1 La demostraci´n de este teorema puede encontrarse en las referencias mencionadas en el enunciado y se basa en o el hecho de que el lado izquierdo de (I.4) y (I.5) en general sobreestima las normas y(t) 2 y y(t) ∞ , pero si no hay restricci´n en la se˜al de control u(t) salvo la de su cota en la norma 2, siempre puede construirse una se˜al o n n u(t) ∈ Lm (de hecho, para el caso de la norma infinito, escogiendo u(t) como una sinusoide cuyo espectro sean 2 dos pulsos centrados en −ω0 y ω0 , la frecuencia de la norma infinito, de ancho 2ε y altura π/2ε y en el caso de la norma 2, como g(−t)/ G 2 ) tal que esa cota superior sea alcanzada. Observaci´n I.1 Observe que (I.4) puede interpretarse como que la norma infinita y dos de la funci´n de o o transferencia entre “u(t)” y “y(t)” en el sistema (I.1) da la m´xima amplificaci´n de la energ´ de la se˜al de a o ıa n entrada u(t) medidas como energ´ y valor pico respectivamente. ıa Observaci´n I.2 En este libro nos concentraremos en las normas dos e infinito que son las de uso m´s com´n. o a u Ellas, sin embargo, son s´lo un subconjunto de restricciones que de forma gen´rica se denominan Restricciones o e Integrales Cuadr´ticas (ICQ por sus siglas en ingl´s) [Boy94]. Estas restricciones pueden igualmente ser descrita a e como LMIs. Ejemplo normas 2 e infinito Se desea calcular la norma infinito y 2 del siguiente sistema: 1 G(s) = s+5 Para el c´lculo de la norma 2 se puede usar el teorema de Parseval, esto es: a G(s) 2 = g(t) 2 4
  • 13. donde g(t) es la respuesta al impulso de G(s), esto es: g(t) = e−5t t≥0 entonces ∞ 1/2 ∞ 1 −10t 1 G(s) 2 = {e−5t e−5t }dt =− e =√ . 0 10 0 10 En el caso de la norma infinito, se sabe que: 1 G(s) ∞ = sup |G(jω)| = sup √ = 0,2. ω ω ω 2 + 52 Ejemplo valores singulares Considere el sistema: 1 s G(s) = s2 + 9 −5 y se desea dibujar la evoluci´n de sus valores singulares cuando ω toma valores en el intervalo [0, ∞). Igualmente, o se desean esos mismos valores para G11 (s) y G12 (s). Hay que determinar tambi´n el valor de la norma infinito. e Note que en el caso de las transferencias G11 (s) y G22 (s) la respuesta graficada es simplemente el diagrama de Bode, siendo como son funciones de transferencia SISO. Un programa en Matlab que calcula y grafica los valores singulares se lista a continuaci´n: o s=tf(’s’) g11=s/(s^2+9) g12=-5/(s^2+9) G=[g11;g12] sigma(G,’k’,g11,’r’,g12,’b’) y la gr´fica de los valores singulares vs frecuencia se muestra en la figura (I.1). a Observe que en ω = 3 los valores singulares no est´n definidos, i.e., a G(s) ∞ = G11 (s) = G12 (s) = ∞. En realidad hemos abusado del lenguaje, porque para ese sistema la norma infinita no existe, siendo que no es finita o, dicho de otra manera, la norma infinita no es de ninguna utilidad para este sistema. Consideremos ahora sistemas discretos lineales invariantes en el tiempo y sea x(k) una funci´n (secuencia) de o II → IRn . La norma p de x se define como [DD95]: 1 ∞ p x p = |x(k)|p ) p k=0 si esa cantidad es finita. En la ecuaci´n anterior, | · |p es la norma p del vector x(k) e II es el conjunto de los o n´meros enteros. De particular inter´s son las normas donde p = 1, 2, ∞ y, en el caso de que p = ∞, esa norma u e se define como: x ∞ = sup m´x |xi (k)|. a ω i Finalmente, enunciamos sin demostraci´n el lema sobre la descomposici´n en valores singulares tomado de o o [GL95]: 5
  • 14. 60 40 G(ω) y G (ω) 12 20 G(ω) y G (ω) Valores singulares 11 0 −20 −40 G11(ω) −60 G12(ω) −80 −1 0 1 2 10 10 10 10 Frecuencia (rad/s) Figura I.1.: Evoluci´n de los valores singulares. o Lema I.1 Para cualquier matriz compleja Q ∈ IRm×p , existen matrices unitarias Y y U en m × x y p × p y una matriz real Σ tal que: Σ 0 Q=Y UH (I.6) 0 0 en el que Σ = diag(σ1 , . . . , σr ) con σ1 ≥ σ2 ≥ . . . ≥ σr ≥ 0 y m´ ın(m, p) ≥ r. Adem´s σi son los valores a singulares de Q. Cuando Q es real, el par (Y, U ) pueden escogerse ortonormales. La expresi´n (I.6) es com´nmente o u denominada descomposici´n en valores singulares de Q. o I.3. Evaluaci´n de las normas 2 e infinito de un sistema o En la secci´n previa hemos introducido brevemente las definiciones de normas 2 e infinito de se˜ales y sistemas. o n Salvo en muy pocos casos, estas definiciones no nos proporcionan un medio eficaz para el c´lculo de tales normas. a En esta secci´n presentamos un conjunto de medios que nos permiten el c´lculo de esas normas, en sistemas o a lineales con representaci´n de estados. o Con este prop´sito, consideremos una representaci´n simplificada del sistema (I.1) y tengamos al sistema lineal o o invariante en el tiempo (LTI): x(t) = Ax(t) + Bu(t) ˙ (I.7) y(t) = Cx(t) donde x(t) ∈ IRn es el vector de estados, u(t) ∈ IRm es el vector de entradas (control) y y(t) ∈ IRp es el vector de salidas medibles del sistema. A, B, C son matrices constantes de dimensiones apropiadas. Es f´cil demostrar que la funci´n de transferencia del sistema [PH96] es: a o Y (s) G(s) = = C(sI − A)−1 B. (I.8) U (s) Los siguientes teoremas nos dan las herramienta de c´lculo de esas normas que buscamos. a 6
  • 15. Teorema I.2 ([ZK88]) Para el sistema (I.7), las siguientes proposiciones son equivalentes: 1. A es una matriz estable y G(s) ∞ ≤γ 2. Existe una matriz P definida positiva tal que AT P + P A + γ −2 P BB T P + C T C < 0. (I.9) Demostraci´n: Una comprobaci´n muy sencilla de que (2) ⇒ (1) est´ inspirada en las propiedades del operador o o a diferencia de retorno (return difference operator) que se hace en [AM89] y es como sigue: cambiando el signo de la desigualdad (I.9) y sumando y restando sP con s = jω y ω la frecuencia en la que ocurre la norma infinito de G, tenemos que: (−sI − A)T P + P (sI − A) − γ −2 P BB T P − C T C > 0, (I.10) multiplicando la derecha de (I.10) por (sI − A)−1 B y a la izquierda por su transpuesto complejo conjugado (hermitiano) resulta en: B T P (sI − A)−1 B + B T (−sI − AT )−1 P B −γ −2 B T (−sI − AT )−1 P BB T P (sI − A)−1 B ≥ (I.11) B T (−sI − AT )−1 C T C(sI − A)−1 B 2 a la derecha de la desigualdad (I.11) reconocemos G(s) ∞ y recordando que: [γI − γ −1 B T P (sI − A)−1 B]H [γI − γ −1 B T P (sI − A)−1 B] ≥ 0, la proposici´n (1) sigue. La demostraci´n de que (1) ⇒ (2) puede encontrarse en la cita antes enunciada. o o Teorema I.3 ([San89] [PSG92]) Consideremos al sistema (I.7) y sea A una matriz hurwitz (estable), entonces 2 G(s) 2 = T r(CLc C T ) = T r(B T Lo B) (I.12) donde Lc es el gramiano de controlabilidad y Lo es el gramiano de observabilidad y satisfacen: ALc + Lc AT + BB T = 0 (I.13) A T Lo + L o A + C T C = 0. Demostraci´n: Sin p´rdida de generalidad, nos limitaremos a los sistemas de una entrada y una salida (SISO). o e Igualmente, como ambas demostraciones son similares nos limitaremos a la asociada al gramiano de controlabi- lidad. En tal sentido, recordemos que: ∞ T Lc = eAt BB T eA t dt 0 donde A n tn eAt = I + At + . . . + + ... n! luego se cumple que: d(eAt ) = AeAt = eAt A dt ahora bien, ∞ T CLc C T = CeAt BB T eA t C T dt 0 pero recordemos que la transformada inversa de G(s) es L−1 (G(s)) = g(t) = CeAt B y entonces ∞ CLc C T = g(t)g(t)T dt = g(t) 2 2 0 7
  • 16. y por el teorema de Parseval 2 2 G(s) 2 = g(t) 2 = CLc C T por otra parte ALc + Lc AT + BB T = ∞ T ∞ At T 0 AeAt BB T eA t dt + 0 e BB T eA t AT dt + BB T = ∞ d T T 0 dt eAt BB T eA t dt + BB T = eAt BB T eA t |∞ 0 + BB T T T −BB + BB = 0. Ejemplo En el sistema que se describe a continuaci´n, se desea calcular las normas 2 e infinito de: o s G(s) = s2 + s + 1 el listado de un programa de MATLAB que las calcula se muestra a continuaci´n o s=tf(’s’) G_tf=s/(s^2+s+1) G=ss(G_tf) Lc=gram(G,’c’) [a,b,c]=ssdata(G) Norma2=c*Lc*c’ Lo=gram(G,’o’) OtraN2=b’*Lo*b Respuesta=bode(G); NormaInf=max(Respuesta) obteni´ndose: e G(s) 2 = 0,5 y G(s) ∞ = 1. I.4. Desigualdades matriciales lineales Una desigualdad matricial lineal (LMI por sus siglas en ingl´s, Linear Matrix Inequality) tiene la forma [Boy94]: e m F (x) = F0 + x i Fi > 0 (I.14) i=1 donde x ∈ IRm es la variable y las matrices sim´tricas Fi (=FiT ∈ IRn×n ), i = 0, . . . , m son dadas. La desigualdad e en (I.14), entendi´ndose como que F (x) es una matriz definida positiva, i.e., u T F (x)u > 0 para todo u ∈ IRn e diferente de cero. Observaci´n I.3 Hay que se˜alar que pueden tenerse desigualdades matriciales lineales no estrictas si la des- o n igualdad es del tipo ≥. Una caracter´ıstica interesante es que desigualdades matriciales (convexas) no lineales pueden ser convertidas a LMIs a trav´s de la f´rmula del complemento de Schur y que detallamos a continuaci´n. e o o Lema I.2 ([Boy94]) Las siguientes proposiciones son equivalentes: 8
  • 17. 1. P Q S1 = >0 (I.15) QT R 2. P > 0 y R − QT P −1 Q > 0 o ´ 3. R > 0 y P − QR−1 QT > 0. Demostraci´n: Surge del hecho de que siendo (I.15) definida positiva (> 0), entonces P y R tambi´n lo son. o e Construyendo la matriz de transformaci´n T1 regular (con autovalores todos diferentes de cero, de hecho todos o iguales a uno): I −P −1 Q T1 = (I.16) 0 I entonces P 0 T S2 = = T 1 S1 T1 . (I.17) 0 R − QT P −1 Q siendo que S1 es definida positiva y T1 regular (de hecho tambi´n definida positiva), entonces S2 > 0. Por otro e lado, si S2 > 0 entonces P y R son definidas positivas, siendo que T1 es regular, entonces: −1 S1 = (T1 )−1 S2 T1 T (I.18) de donde surge que S1 > 0 y la primera proposici´n del lema (I.15) queda demostrada. o Podemos proceder de manera similar con la proposici´n 2 del Lemma (I.15) si definimos la matriz de transfor- o maci´n: o I 0 T2 = . (I.19) −R−1 QT I Dejamos al lector tal demostraci´n o Es interesante describir al lema (I.15) en su forma dual. Lema I.3 Las siguientes proposiciones son equivalentes: 1. −P Q <0 (I.20) QT −R 2. P > 0 y QT P −1 Q − R < 0 o ´ 3. R > 0 y QR−1 QT − P < 0. En conclusi´n, las LMI (I.15) y (I.20) son equivalentes a sus contrapartes no lineales. o Observaci´n I.4 Hacemos notar que en una LMI las variables son matrices que aparecen en forma lineal en la o desigualdad. Una vez escrita como una LMI, podemos invocar con certeza la convexidad de la desigualdad, lo que muchas veces no es aparente de las desigualdades no lineales. Observaci´n I.5 Una vez escrita una desigualdad matricial como una LMI, existen herramientas poderosas o para la resoluci´n de tales problemas, como por ejemplo el “Toolbox de LMIs de Matlab”, [GNL95], que utiliza o m´todos (e.g., del elipsoide [Win94]) que aprovechan la estructura particular de las LMI para su resoluci´n. e o 9
  • 18. En un sentido m´s amplio, los problemas formulados en t´rminos de desigualdades matriciales lineales no son a e m´s que problemas de programaci´n semidefinida, los que a su vez son una generalizaci´n de los muy conocidos a o o problemas de programaci´n lineal en las que las restricciones de desigualdad son reemplazadas por desigualdades o generalizadas, correspondientes al cono de matrices semidefinidas [PL03]. En su forma primal pura, un problema de programaci´n semidefinida se define como el problema de optimiza- o ci´n: o m´ın traza(CX) sujeto a traza(Ai X) = bi ∀i = 1, . . . , m, (I.21) X≥0 donde X ∈ Sn , el espacio de matrices reales y sim´tricas en n × n, b ∈ IRm y C, A1 , . . . , Am ∈ Sn , son matrices e sim´tricas dadas. e En este libro presentaremos una serie de resultados sobre el an´lisis y s´ a ıntesis de controladores H ∞ , H2 y de ubicaci´n de polos en regiones que encuentran un marco com´n en su formulaci´n a trav´s de LMIs, esto es, o u o e como un problema de programaci´n semidefinida. As´ por ejemplo, la desigualdad (I.9) puede escribirse como la o ı, siguiente LMI en P > 0: AT P + P A + C T C P B <0 (I.22) BT P −γ 2 I o en su forma dual si definimos S = P −1 , AS + SAT + γ −2 BB T SC T < 0. CS −I La demostraci´n sigue de una aplicaci´n directa del complemento de Schur. o o De la misma forma, el problema de costo garantizado [CP72] y [PSG92] que brevemente significa que: 2 G(s) 2 <γ puede escribirse como un problema de factibilidad, esto es, encontrar P > 0 tal que: 1. γI CP >0 (I.23) P CT P 2. AP + P AT + BB T < 0 (I.24) Demostraci´n: En efecto, si la segunda condici´n (I.24) es satisfecha, se cumple que P > L c , por lo que o o 2 G 2 = CLc C T ≤ CP C T pero la LMI de la condici´n (I.23) implica que CP C T < γI. o Observaci´n I.6 Cuando no hay incertidumbre en el modelo se puede, con la introducci´n de una variable o o matricial adicional W , conseguir el m´ınimo de esa norma [GPS92] y que por supuesto coincide con el que arroja el enfoque, digamos cl´sico, del control optimo [AM89]. a ´ En lo sucesivo nos referiremos a un controlador H2 (o H∞ ) como aquel que hace que la norma 2 (o infinito) de la funci´n de transferencia del sistema a lazo cerrado cumpla con alguna especificaci´n (usualmente cota superior) o o dada. Ambas normas no son m´s que un subconjunto de una clase m´s amplia de restricciones denominadas a a Restricciones integrales cuadr´ticas (o IQC por sus siglas en ingl´s) que pueden igualmente representarse por a e conjuntos de LMIs. Podemos notar que el problema de dise˜o de un controlador que satisfaga criterios en ambas normas (H 2 y n H∞ ) puede formularse como una colecci´n de LMIs. o 10
  • 19. Ejemplo Consideremos una vez m´s el sistema del ejemplo de la secci´n (I.3) y calculemos cotas para sus normas 2 e a o infinito. El listado MATLAB, destinado al c´lculo de una matriz P para una cota superior —digamos 1.01— de la a norma infinito, se muestra a continuaci´n. Se hace uso del toolbox de desigualdades matriciales lineales. o num=[1 0]; den=[1 1 1]; [a,b,c,d]=tf2ss(num,den); gamma=1.01; setlmis([]); p=lmivar(1,[2 1]); lmiterm([1 1 1 p],a’,1,’s’); % LMI #1: a’*p+p*a lmiterm([1 1 1 0],c’*c); % LMI #1: c’*c lmiterm([1 2 1 p],b’,1); % LMI #1: b’*p lmiterm([1 2 2 0],-gamma^2); % LMI #1: -gamma lmiterm([-2 1 1 p],1,1); % LMI #2: p eje14=getlmis; [tmin,popt]=feasp(eje14); p=dec2mat(eje14,popt,1) y una matriz P que verifica la condici´n (I.22) esta dada por o 1,0047 0,0037 P = . 0,0037 1,0054 √ Por otra parte, el listado MATLAB del c´lculo de una matriz P > 0, para una cota superior de 0,501 de la a norma 2, se muestra a continuaci´n. De nuevo se utiliza el toolbox de desigualdades matriciales lineales. o num=[1 0]; den=[1 1 1]; [a,b,c,d]=tf2ss(num,den); gamma=0.501; setlmis([]); p=lmivar(1,[2 1]); lmiterm([-1 1 1 0],gamma); % LMI #1: gamma^2 lmiterm([-1 2 1 p],1,c’); % LMI #1: p*c’ lmiterm([-1 2 2 p],1,1); % LMI #1: p lmiterm([2 1 1 p],a,1,’s’); % LMI #2: a*p+p*a’ lmiterm([2 1 1 0],b*b’); % LMI #2: b*b’ lmiterm([-3 1 1 p],1,1); % LMI #3: p eje142=getlmis; [tmin,popt]=feasp(eje142); p=dec2mat(eje142,popt,1) siendo una matriz P > 0 que verifica (I.23) y (I.24): 0,5006 −0,0003 P = . −0,0003 0,5008 11
  • 20. I.5. Estabilidad robusta y desempe˜ o nominal n El dise˜o de sistemas de control que aseguren un buen desempe˜o del lazo, en presencia de incertidumbre en n n el modelo y/o de perturbaciones persistentes de las cuales s´lo se conozca una cota en su energ´ ha sido objeto o ıa, de intensa investigaci´n desde finales de la d´cada de los 70’s. En efecto, el control robusto es una teor´ que ha o e ıa alcanzado madurez y que goza de amplia aceptaci´n, dada su caracter´ o ıstica de manejo expl´ ıcito del conocimiento de la incertidumbre y de las perturbaciones externas. En esta secci´n presentamos las bases sobre las que se fundamenta esta teor´ y que, de una manera muy o ıa simple, pueden resumirse en: bajo suposiciones adecuadas, tanto el problema de estabilidad robusta como el de desempe˜o nominal pueden formularse como uno de determinaci´n de un controlador H ∞ . n o Para facilitar la presentaci´n de los resultados de la teor´ de control robusto, primero nos limitaremos al caso o ıa de sistemas de una entrada y una salida (SISO), para luego extrapolar esos resultados al caso multivariable a trav´s de los valores singulares de matrices. e Sistemas de una entrada y una salida Consideremos al sistema de la figura (I.2), cuya funci´n de transferencia y(s)/r(s) viene definida por: o pc T (s) = , (I.25) 1 + pc que tradicionalmente se conoce como funci´n complementaria. o d(t) e(t) u(t) r(t) y(t) + c(s) p(s) + (-) Figura I.2.: Lazo cl´sico de control. a De nuevo, en relaci´n con la figura (I.2), la funci´n de transferencia e(s)/r(s) (´ y(s)/d(s)) viene dada por: o o o 1 S(s) = , (I.26) 1 + pc que tradicionalmente se denomina como funci´n de sensibilidad, ya que es la funci´n que determina (en el dominio o o de la frecuencia) la sensibilidad del lazo de la figura (I.2) a cambios en la planta p(s). Evidentemente, S(s) + T (s) = 1, y de all´ el nombre de T (s). ı Antes de entrar en el tema de estabilidad robusta, consideremos la estabilidad del lazo representado en la figura I.2 y demos algunas definiciones. Definici´n I.1 El lazo representado en la figura (I.2) es internamente estable si toda funci´n de transferencia, o o entre una entrada y una salida del sistema, es estable. 12
  • 21. Consideremos ahora cualquier realizaci´n m´ o ınima de T (s) de la forma: x ˙ = Acl x + Bcl r y = Ccl x + Dcl r Lema I.4 ([San89]) El sistema de la figura (I.2) es internamente estable si y s´lo si los autovalores de la matriz o Acl est´n en el semiplano izquierdo abierto. Esto es, que la matriz Acl es hurwitz. a Siendo Acl la matriz de estados (o din´mica) de cualquier funci´n de transferencia del lazo de la figura (I.2), a o la ubicaci´n de sus autovalores determina la de los polos de cualquier funci´n de transferencia. o o Si entendemos por robustez la capacidad de un sistema a lazo cerrado para responder adecuadamente ante perturbaciones externas y/o variaciones en el modelo de la planta, tradicionalmente dicha robustez se asegura ante incertidumbre en el modelo dise˜ando sistemas con amplios m´rgenes de fase (φ m ) y de ganancia (gm ) n a [PH96]. En la figura (I.3) se muestran sobre un diagrama de Nyquist, en forma gr´fica, tales m´rgenes. a a Figura I.3.: Margen de fase φm y de ganancia gm de un sistema SISO. El margen de ganancia (gm ) permite afrontar incertidumbre en la ganancia del proceso a controlar. En relaci´n o con la figura (I.4), esto significa alg´n escalar β del que s´lo se conocen sus cotas m´ximas. El margen de fase u o a (φm ) permite hacer frente a cambios —incertidumbre— en la fase. En relaci´n con la figura (I.4), alg´n escalar φ o u del que s´lo se conocen sus valores extremos. De modo que la planta real es la suma de la planta nominal (p(s)) o y la incertidumbre (βe−φs ). sistema real r(t) y(t) + c(s) βe−φs p(s) u(t) (-) Figura I.4.: Representaci´n cl´sica de lazo incierto. o a Hay que hacer notar que los enfoques de margen de fase o de ganancia presuponen que s´lo hay desconocimiento o en uno de los dos par´metros, i.e., la magnitud (β) o la fase (φ), no en ambos. En general se presenta incertidumbre a en los dos y es f´cil generar casos en los que, aun teniendo excelentes m´rgenes de fase y ganancia, una peque˜a a a n variaci´n simult´nea en ambos —magnitud y fase– sobre los valores nominales, genera plantas inestables. o a 13
  • 22. De all´ la idea de utilizar una nueva medida que conjugue variaciones simult´neas en magnitud y fase. Surge el ı a margen del m´dulo como nueva medida de robustez, basada en el operador diferencia de retorno. En relaci´n con o o el lazo cl´sico que se muestra en la figura (I.2), definiremos al operador diferencia de retorno (O(ω)) para una a frecuencia dada (ω) como la distancia desde el punto (−1, 0) —o ejπ — en el plano “s” al diagrama de Nyquist correspondiente a esa frecuencia y que es equivalente al inverso de la magnitud de la funci´n de sensibilidad o evaluada en esa frecuencia, esto es: O(ω) = |S(jω)−1 | = |1 + p(jω)c(jω)|. El margen del m´dulo se define como: o Mm = m´ O(ω). ın ω Mm determina la distancia m´s cercana, en el diagrama de Nyquist, al punto (−1, 0) del plano “s”, esto es, a el punto m´s cercano a encerrar el (-1,0) y, por ende, a convertir al lazo en inestable. M m permite afrontar a incertidumbre en magnitud y fase simult´neamente en un lazo. En la figura (I.5) mostramos gr´ficamente un a a ejemplo del operador. Figura I.5.: Operador diferencia de retorno. A continuaci´n presentamos un resultado b´sico de la teor´ de control robusto basado en esto ultimo. o a ıa ´ Estabilidad robusta Para poder establecer qu´ condiciones se requieren para garantizar la robustez de un sistema ante incertidumbre e en el modelo de la planta, primero debemos establecer un modelo adecuado de la incertidumbre a considerar. En el caso de margen de fase y de ganancia, la robustez la establecen esos m´rgenes en la forma de l´ a ımites soportables de variaci´n. o Es relativamente sencillo, a trav´s de ensayos en el sistema, obtener cotas para la incertidumbre en la magnitud e y para la incertidumbre en la fase de un sistema dado. Sin embargo, ello conducir´ a una cantidad innumerable ıa de “formas” de la incertidumbre para las que ser´ muy dif´ desarrollar una teor´ general. ıa ıcil ıa En vista de que cualquiera que sea la forma de la incertidumbre del sistema siempre, de manera m´s o menos a conservativa, ella puede ser aproximada por una circunferencia, en el paradigma de control robusto, ´sta es la e 14
  • 23. descripci´n m´s com´n de la incertidumbre y equivale a suponer que se conocen los l´ o a u ımites m´ximos de desviaci´n a o de la magnitud sobre un valor nominal, pero se desconoce totalmente la fase. En relaci´n con el diagrama de la figura (I.2) supondremos que la planta real es descrita por: o p(s) = pn (s) + la (s) (I.27) y entonces, |p(jω) − pn (jω)| ≤ l¯ (ω). a (I.28) Esquem´ticamente podemos llevar esta incertidumbre al diagrama de Nyquist del sistema, tal como se muestra a en (I.6). Figura I.6.: Modelo de la incertidumbre. Se desprende de la descripci´n de la incertidumbre que, para una frecuencia ω dada, ¯a (ω) es la cota m´xima o l a de la magnitud de la incertidumbre y que no hay informaci´n sobre la fase (incertidumbre total en la fase). o A t´ ıtulo de ejemplo, consideremos un sistema de control de temperatura de un tanque de agua, que tenga circulaci´n de agua permanente y nivel constante. El agua es calentada a trav´s de unas resistencias el´ctricas. o e e El ejemplo lo tomamos de [Qui04]. La funci´n de transferencia entre la potencia suministrada y la temperatura o del agua se determinan de manera experimental, dando escalones de potencia en la entrada y observando la respuesta en la salida. Se realizan 4 pruebas, dos escalones positivos y dos negativos, resultando las 4 funciones de transferencia que describimos a continuaci´n: o 0,6125 −32s G1 (s) = 254s+1 e 0,75 −25s G2 (s) = 215s+1 e 0,7 −20s G3 (s) = 100s+1 e 0,6 −34s G4 (s) = 200s+1 e . Promediando las ganancias, las constantes de tiempo y los retrasos obtenemos como sistema nominal: 0, 6656 −28s Gn (s) = e 192s + 1 de donde es muy f´cil generar una funci´n m´xima de desviaci´n —en magnitud— para cada frecuencia. a o a o En la figura (I.7) hemos incluido la respuesta en frecuencia de magnitud de los sistemas encontrados con ensayos y la respuesta del sistema nominal obtenido promediando los par´metros. a En la figura (I.8) se muestra, para el ejemplo anterior, la diferencia entre la magnitud de la respuesta en frecuencia de los sistemas obtenidos en las pruebas menos la del sistema nominal. Ello para determinar una cota superior al error en todo el rango de frecuencias. 15
  • 24. 0 −10 −20 |G (jω)| n Magnitud (dB) −30 −40 −50 −60 −6 −5 −4 −3 −2 −1 0 10 10 10 10 10 10 10 Frecuencia (rad/s) Figura I.7.: Diagramas de Bode de sistema de calentamiento. En forma normalizada, com´nmente denominada descripci´n multiplicativa de la incertidumbre, la expresi´n u o o (I.27) puede escribirse como: p(s) = pn (s)(1 + δ(s)W (s)) (I.29) donde |δ(s)| < 1 es una funci´n de transferencia que representa la incertidumbre, de la que s´lo se conoce que su o o magnitud es menor que uno y W (s) es la funci´n de peso que recoge, para cada frecuencia y de forma normalizada, o la cota m´xima de la magnitud de la incertidumbre. Observe que cuando δ(s) es cero, no hay incertidumbre y la a planta p(s) es precisamente la nominal —pn (s). De (I.29) es claro que: ¯a (ω) l p(jω) |W (jω)| = ≥ −1 . |pn (jω)| pn (jω) En la figura (I.9) hemos colocado los valores normalizados del error, esto es: (l a (w)/|Gn (jω)|). Observamos que, bajo esta descripci´n de incertidumbre, ya no tenemos un solo modelo del sistema (digamos o el nominal) sino, m´s bien, una familia (infinita) de ellos. a La condici´n de estabilidad para toda la familia de sistemas, estabilidad robusta, viene dada por el siguiente o resultado: Teorema I.4 ([San89] y [MZ89]) Consideremos al sistema de la figura (I.2) en el que la planta p(s) es descrita por la familia de modelos (I.29) y los cuales tienen el mismo n´mero de polos en el semiplano derecho. Adem´s, sea u a c(s) un controlador que estabiliza la planta nominal pn (s). Entonces toda la familia de modelos ser´ estabilizado a por el controlador c(s) si y s´lo si o W (s)T (s) ∞ = sup |W (jω)T (jω)| ≤ 1 (I.30) ω donde T (s) es la funci´n complementaria definida en (I.25). o Demostraci´n: Es conveniente considerar que la familia de modelos del sistema de la figura (I.2), que satisfacen o (I.29), forman un conjunto representado por P. El sistema de la figura (I.2) es estable si y s´lo si para todo o 16
  • 25. 0.2 0.18 0.16 |G (jω)−G (jω)| 3 n Magnitud del error. la(ω)=|Gi(jω)−Gnjω)| 0.14 0.12 0.1 0.08 0.06 0.04 0.02 0 −6 −5 −4 −3 −2 −1 0 10 10 10 10 10 10 10 Frecuencia (rad/s) Figura I.8.: Magnitud de la incertidumbre para cada frecuencia. miembro p(s) ∈ P se cumple que la ecuaci´n 1 + p(s)c(s) = 0 no tiene ra´ o ıces en el semiplano derecho cerrado (que denominaremos C+ ). Luego ello es equivalente a: 1 + pn (s)c(s)[1 + W (s)δ(s)] = 0 ∀|δ| < 1 y s ∈ C+ ⇐⇒ 1 + pn (s)c(s) = δ(s)W (s)pn (s)c(s) ∀|δ| < 1 y s ∈ C+ ⇐⇒ |1 + pn (s)c(s)| ≥ |W (s)pn (s)c(s)| s = jω; ω ∈ [0, ∞) (I.31) ⇐⇒ |T (s)W (s)| ≤ 1 s = jω; ω ∈ [0, ∞) ⇐⇒ W (s)T (s) ∞ ≤ 1 Este resultado, fundamental para la teor´ de control robusto, tiene una interpretaci´n gr´fica en el diagrama ıa o a de Nyquist (ver figura (I.10)). En efecto, en (I.31) el t´rmino |W (s)pn (s)c(s)| = ¯a (ω)|c(s)| no es m´s que el radio e l a de la circunferencia que determina el tama˜o de la incertidumbre (para cada frecuencia) y entonces se infiere que n una condici´n necesaria y suficiente para estabilidad robusta es que, para cualquier frecuencia, la distancia del o −1 al diagrama nominal de Nyquist, i.e. la magnitud del Operador diferencia de retorno, sea mayor que ese radio (que acota la incertidumbre en esa frecuencia). En otros t´rminos y visto que toda la familia de sistemas tiene el e mismo n´mero de polos en el semiplano derecho, la condici´n de estabilidad robusta implica que la “banda” de u o Nyquist, determinada por la familia de sistemas, no encierra al −1. En (I.31) se us´ el hecho derivado del teorema del m´ximo m´dulo que se˜ala que: o a o n F (s) ∞ = sup |F (s)| = sup |F (jω)|, Re{s}>0 ω es decir, que el m´ximo de una funci´n continua en un conjunto cerrado y acotado ocurre en su frontera. a o Podemos incluir esquem´ticamente la representaci´n de la incertidumbre multiplicativa en la descripci´n cl´sica a o o a del lazo realimentado. Ello se muestra en la figura (I.11). En relaci´n con la misma figura (I.11), observe que el resultado para la estabilidad robusta es equivalente a o “abrir” el lazo en los dos extremos del bloque de la incertidumbre (δ(s)) y verificar que la funci´n de transferencia o W (s)T (s) entre d(t) y z(t), nuevas entrada y salida al abrir el lazo, est´ acotada en magnitud. a La incertidumbre multiplicativa, representada por W (s), es s´lo una forma entre muchas para describir lo que o desconocemos en un lazo. Las funciones W (s) tienen normalmente la forma mostrada en la figura (I.12). La incertidumbre es m´s peque˜a en bajas frecuencias y crece a medida que la frecuencia aumenta. Es importante a n 17
  • 26. 3.5 Magnitud del error normalizada. W(ω)=|Gi(jω)−Gn(jω)|/|Gn(jω)| 3 |G3(jω)/Gn(jω)−1| 2.5 2 1.5 1 0.5 0 −6 −5 −4 −3 −2 −1 0 10 10 10 10 10 10 10 Frecuencia (rad/s) Figura I.9.: Magnitud de la incertidumbre para cada frecuencia, normalizada. Figura I.10.: Condici´n de an´lisis de estabilidad robusta. o a mencionar que de la funci´n de incertidumbre W (s) lo unico importante es su magnitud. La consideramos como o ´ una funci´n de transferencia s´lo por tener una representaci´n consistente de un lazo de control (figura I.11). o o o La condici´n de estabilidad robusta impone que la funci´n complementaria T (s) satisfaga: o o |T (jω)| < |W (jω)|−1 ∀ω. Luego, un modelo poco ajustado de la incertidumbre puede imponer cotas extremadamente restrictivas (muy peque˜as) en la funci´n complementaria y, por ende, en el controlador. n o De la misma forma que la magnitud de la incertidumbre debe ser lo m´s entallada posible, a fin de evitar ser a excesivamente conservadores en el dise˜o del control, el mismo razonamiento se extiende a la “topolog´ del n ıa” modelo de la incertidumbre. Hasta ahora hemos mencionado dos tipos, a saber: Aditiva: p(s) = pn (s) + δ(s)W (s) |δ(s)| < 1 Multiplicativa: p(s) = pn (s)(1 + δ(s)W (s)) |δ(s)| < 1. Adem´s, entre otras, tambi´n podemos representar la incertidumbre como [San89], [DFT92]: a e 18
  • 27. z(t) d(t) δ(s) W (s) e(t) r(t) u(t) y(t) + c(s) pn (s) + (-) Figura I.11.: Representaci´n del lazo con incertidumbre multiplicativa. o Figura I.12.: Modelo de variaci´n de la incertidumbre. o p(s) = pn (s)(1 + δ(s)W (s))−1 p(s) = pn (s)(1 + δ(s)W (s)pn (s))−1 ; algunas son equivalentes y, en cualquiera que sea la representaci´n, la estabilidad robusta viene determinada o por la norma infinita de alguna funci´n de transferencia. En la tabla (I.1) se recogen las equivalencias [San89], o [DFT92]. Tabla I.1.: Equivalencias entre medidas de incertidumbre p(s) = pn (s)(1 + δ(s)W (s)) W (s)T (s) ∞ ≤ 1 p(s) = pn (s) + δ(s)W (s) W (s)p−1 (s)T (s) ∞ ≤ 1 n −1 p(s) = pn (s)(1 + δ(s)W (s)) W (s)S(s) ∞ ≤ 1 p(s) = pn (s)(1 + δ(s)W (s)pn (s))−1 W (s)pn (s)S(s) ∞ ≤ 1 Cualquiera que sea su representaci´n, la incertidumbre que afecta al sistema siempre lo hace de manera global o y de all´ que reciba com´nmente en la literatura ese nombre, i.e., incertidumbre global o no estructurada. Si, por ı u el contrario, podemos identificar c´mo las diferentes fuentes de incertidumbre afectan elementos particulares del o sistema, entonces estar´ıamos frente a una incertidumbre estructurada. Como ejemplo podemos mencionar modelos de incertidumbre de baja y alta frecuencia y que se traducen en una representaci´n de la forma: o 1 + δ1 (s)W1 (s) p(s) = pn (s) 1 + δ2 (s)W2 (s) |δ1 (s)|, |δ2 (s)| < 1. 19