Estabilidade assimptótica
As referências deste artigo necessitam de formatação. (Outubro de 2012) |
Este artigo ou secção contém uma lista de referências no fim do texto, mas as suas fontes não são claras porque não são citadas no corpo do artigo, o que compromete a confiabilidade das informações. (Outubro de 2012) |
Na teoria dos sistemas dinâmicos, a estabilidade de um sistema é a capacidade que um sistema possui de esquecer o seu passado conforme o tempo tende a infinito. Mais precisamente, um sistema dinâmico é dito assimptoticamente estável se tende ao seu(s) ponto(s) de equilíbrio(s) quando submetido à ingresso constante. No caso dos sistemas lineares isto significa que o movimento livre do sistema tende para zero com o passar do tempo. Quando um sistema atinge o ponto de equilibrio se diz entrou em regime estacionário.
Sistemas lineares
editarO movimento de um sistema linear invariante no tempo descrito pela quaterna (A,B,C,D) é dado pela fórmula de Lagrange:
onde:
x(t) é o movimento do sistema
- é o movimento livre do sistema
- é o movimento forçado do sistema
- para sistemas a tempo continuo e para sistemas a tempo discreto e se chama matriz de transição
- é a função de ingresso do sistema definida do intervalo [0,t)
- é 1 operador linear aplicado à função de ingresso
Um sistema linear é dito assimptoticamente estável quando:
Ou seja o movimento livre do sistema tende a zero quando o tempo tende a infinito para toda condição inicial x(0). Isso só é possível se a matriz de transição tender a zero para o tempo tendente a infinito.
Estabilidade segundo Lyapunov
editarConsidere um sistema do tipo ou , isto é um sistema não-linear ou linear com ingresso nulo. Seja um ponto de equilibrio e uma sua vizinhança. Um ponto de equilíbrio é local e assimptoticamente estável se:
onde é uma vizinhança pequena quanto se queira de . Nos sistemas lineares, se existe um ponto de equilíbrio ou é único ou existe um infinidade não enumerável destes. As vizinhanças de tais equilíbrios podem ser todo o espaço . Assim sendo, a definição de estabilidade segundo Lyapunov para sistemas lineares coincide com a definição anterior. Isso implica que em sistemas lineares o comportamento global do sistema pode ser estudado a partir do comportamento local, algo que muitas vezes não é possível em sistemas não-lineares devido à presença de um conjunto enumerável de equilíbrios.
Ver também
editarBibliografia
editar- S. Rinaldi e C. Piccardi. I sistemi lineari: teoria, modelli, applicazioni. CittàStudi Edizioni, 1998. ISBN 8825172176