Équation de Liapounov

En théorie du contrôle, l'équation discrète de Liapounov (également connue sous le nom d'équation de Stein ) est une équation de la forme

A X A H X + Q = 0 {\displaystyle AXA^{H}-X+Q=0} ,

Q {\displaystyle Q} est une matrice hermitienne et A H {\displaystyle A^{H}} est la matrice adjointe de A {\displaystyle A} .

L'équation continue de Liapounov est de la forme

A X + X A H + Q = 0 {\displaystyle AX+XA^{H}+Q=0} .

L'équation de Liapounov apparaît dans de nombreuses branches de la théorie du contrôle, telles que la stabilité de Liapounov et la commande optimale. Cette équation et des équations associées portent le nom du mathématicien russe Alexandre Liapounov[1],[2].

Application à la stabilité

Dans les énoncés suivants A , P , Q R n × n {\displaystyle A,P,Q\in \mathbb {R} ^{n\times n}} , et P {\displaystyle P} et Q {\displaystyle Q} sont des matrices symétriques. La notation P > 0 {\displaystyle P>0} signifie que la matrice P {\displaystyle P} est définie positive.

Théorème (version temps continu) — Étant donné Q > 0 {\displaystyle Q>0} , il existe un unique P > 0 {\displaystyle P>0} satisfaisant

A T P + P A + Q = 0 {\displaystyle A^{T}P+PA+Q=0}

si et seulement si le système linéaire x ˙ = A x {\displaystyle {\dot {x}}=Ax} est globalement asymptotiquement stable.

La fonction quadratique V ( x ) = x T P x {\displaystyle V(x)=x^{T}Px} est une fonction de Liapounov qui peut être utilisée pour vérifier la stabilité.

Théorème (version en temps discret) — Étant donné Q > 0 {\displaystyle Q>0} , il existe un unique P > 0 {\displaystyle P>0} satisfaisant

A T P A P + Q = 0 {\displaystyle A^{T}PA-P+Q=0}

si et seulement si le système linéaire x t + 1 = A x t {\displaystyle x_{t+1}=Ax_{t}} est globalement asymptotiquement stable.

Comme ci-dessus, x T P x {\displaystyle x^{T}Px} est une fonction de Liapounov.

Calcul numérique de la solution

L'équation de Liapounov est linéaire, et donc si X {\displaystyle X} est de taille n {\displaystyle n} , il peut être calculé en temps O ( n 3 ) {\displaystyle {\mathcal {O}}(n^{3})} en utilisant les méthodes standard de factorisation matricielle.

Cependant, la structure spécifique de l'équation de Liapounov permet l'usage d'algorithmes beaucoup plus rapides. Dans le cas discret, la méthode de Schur de Kitagawa est souvent utilisée[3]. Dans le cas de l'équation de Liapounov continue, l'algorithme de Bartels-Stewart peut être utilisé[4].

Solution analytique

On considère l'opérateur de vectorisation vec ( A ) {\displaystyle \operatorname {vec} (A)} qui empile les colonnes d'une matrice A {\displaystyle A} , et on note A B {\displaystyle A\otimes B} le produit de Kronecker de A {\displaystyle A} et de B {\displaystyle B} . Les équations de Liapounov en temps continu et en temps discret peuvent être exprimées comme des solutions d'une équation matricielle. De plus, si la matrice A {\displaystyle A} est stable, la solution peut également être exprimée sous la forme d'une intégrale (cas du temps continu) ou d'une somme infinie (cas du temps discret).

Temps discret

En utilisant le fait que vec ( A B C ) = ( C T A ) vec ( B ) {\displaystyle \operatorname {vec} (ABC)=(C^{T}\otimes A)\operatorname {vec} (B)} , on a

( I n 2 A ¯ A ) vec ( X ) = vec ( Q ) {\displaystyle (I_{n^{2}}-{\bar {A}}\otimes A)\operatorname {vec} (X)=\operatorname {vec} (Q)} ,

I n 2 {\displaystyle I_{n^{2}}} est la matrice identité de taille n 2 {\displaystyle n^{2}} et A ¯ {\displaystyle {\bar {A}}} est la matrice adjointe de A {\displaystyle A} [5]. On peut alors résoudre vec ( X ) {\displaystyle \operatorname {vec} (X)} par inversion ou en résolvant les équations linéaires. Pour obtenir X {\displaystyle X} , il suffit de recomposer la matrice depuis vec ( X ) {\displaystyle \operatorname {vec} (X)} .

De plus, si A {\displaystyle A} est stable, la solution X {\displaystyle X} peut aussi s'écrire sous la forme

X = k = 0 A k Q ( A H ) k {\displaystyle X=\sum _{k=0}^{\infty }A^{k}Q(A^{H})^{k}} .

À titre d'exemple, considérons le cas unidimensionnel, où la formule dit simplement que la solution de ( 1 a 2 ) x = q {\displaystyle (1-a^{2})x=q} est la fraction

x = q 1 a 2 = k = 0 q a 2 k {\displaystyle x={\frac {q}{1-a^{2}}}=\sum _{k=0}^{\infty }qa^{2k}} .

Temps continu

En utilisant à nouveau le produit de Kronecker et l'opérateur de vectorisation, on a l'équation matricielle

( I n A + A ¯ I n ) vec X = vec Q , {\displaystyle (I_{n}\otimes A+{\bar {A}}\otimes I_{n})\operatorname {vec} X=-\operatorname {vec} Q,}

A ¯ {\displaystyle {\bar {A}}} est la matrice adjointe de A {\displaystyle A} .

Comme dans le cas discret, si A {\displaystyle A} est stable, la solution X {\displaystyle X} peut aussi s'écrire comme

X = 0 e A τ Q e A H τ d τ {\displaystyle X=\int _{0}^{\infty }{e}^{A\tau }Q\mathrm {e} ^{A^{H}\tau }d\tau } .

À titre d'exemple, considérons le cas unidimensionnel ; l'expression dit simplement que la solution de 2 a x = q {\displaystyle 2ax=-q} est

x = q 2 a = 0 q e 2 a τ d τ {\displaystyle x={\frac {-q}{2a}}=\int _{0}^{\infty }q{e}^{2a\tau }d\tau } .

Relation entre les équations de Liapounov discrètes et continues

On considère la dynamique linéaire en temps continu :

x ˙ = A x {\displaystyle {\dot {\mathbf {x} }}=\mathbf {A} \mathbf {x} } .

On la discrétise en :

x ˙ x t + 1 x t δ {\displaystyle {\dot {\mathbf {x} }}\approx {\frac {\mathbf {x} _{t+1}-\mathbf {x} _{t}}{\delta }}} ,

δ > 0 {\displaystyle \delta >0} indique un petit déplacement dans le temps. En explicitant l'équation et en mélangeant les termes, on obtient une équation en temps discret pour x t + 1 {\displaystyle \mathbf {x} _{t+1}}  :

x t + 1 = x t + δ A x t = ( I + δ A ) x t = B x t {\displaystyle \mathbf {x} _{t+1}=\mathbf {x} _{t}+\delta \mathbf {A} \mathbf {x} _{t}=(\mathbf {I} +\delta \mathbf {A} )\mathbf {x} _{t}=\mathbf {B} \mathbf {x} _{t}}

B I + δ A {\displaystyle \mathbf {B} \equiv \mathbf {I} +\delta \mathbf {A} } . Maintenant, on peut utiliser l'équation de Liapounov en temps discret pour B {\displaystyle \mathbf {B} }  :

B T M B M = δ Q {\displaystyle \mathbf {B} ^{T}\mathbf {M} \mathbf {B} -\mathbf {M} =-\delta \mathbf {Q} } .

Avec la définition de B {\displaystyle \mathbf {B} } , on a :

( I + δ A ) T M ( I + δ A ) M = δ Q {\displaystyle (\mathbf {I} +\delta \mathbf {A} )^{T}\mathbf {M} (\mathbf {I} +\delta \mathbf {A} )-\mathbf {M} =-\delta \mathbf {Q} } .

En développant cette expression, on obtient :

( M + δ A T M ) ( I + δ A ) M = δ ( A T M + M A ) + δ 2 A T M A = δ Q {\displaystyle (\mathbf {M} +\delta \mathbf {A} ^{T}\mathbf {M} )(\mathbf {I} +\delta \mathbf {A} )-\mathbf {M} =\delta (\mathbf {A} ^{T}\mathbf {M} +\mathbf {M} \mathbf {A} )+\delta ^{2}\mathbf {A} ^{T}\mathbf {M} \mathbf {A} =-\delta \mathbf {Q} } .

Comme δ {\displaystyle \delta } est petit, si δ {\displaystyle \delta } tend zéro, on s'approche de plus en plus d'une dynamique continue, et c'est ce qu'on obtient à la limite. On peut également récupérer les équations de Lyapounov en temps continu à la limite. Pour cela, on divise par δ {\displaystyle \delta } des deux côtés, puis quand δ 0 {\displaystyle \delta \to 0} , on trouve que :

A T M + M A = Q {\displaystyle \mathbf {A} ^{T}\mathbf {M} +\mathbf {M} \mathbf {A} =-\mathbf {Q} }

qui est l'équation de Liapounov en temps continu, comme indiqué.

Articles liés

Références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Lyapunov equation » (voir la liste des auteurs).
  1. P. C. Parks, « A. M. Lyapunov's stability theory — 100 years on », IMA Journal of Mathematical Control and Information, vol. 9, no 4,‎ , p. 275–303 (DOI 10.1093/imamci/9.4.275, lire en ligne).
  2. Valeria Simoncini, « Computational Methods for Linear Matrix Equations », SIAM Review, vol. 58, no 3,‎ , p. 377–441 (DOI 10.1137/130912839, hdl 11585/586011, lire en ligne).
  3. G. Kitagawa, « An Algorithm for Solving the Matrix Equation X = F X F' + S », International Journal of Control, vol. 25, no 5,‎ , p. 745–753 (DOI 10.1080/00207177708922266).
  4. R. H. Bartels et G. W. Stewart, « Algorithm 432: Solution of the matrix equation AX + XB = C », Comm. ACM, vol. 15, no 9,‎ , p. 820–826 (DOI 10.1145/361573.361582).
  5. J. Hamilton, Time Series Analysis, Princeton University Press, (ISBN 0-691-04289-6).
  • icône décorative Portail des mathématiques
  • icône décorative Portail de l'informatique théorique