Controle ótimo

No mundo de hoje, Controle ótimo é um tema que tem gerado muito interesse e debate. Desde as suas origens até à sua relevância hoje, Controle ótimo tem sido objeto de estudo e investigação por especialistas em diversas disciplinas. O seu impacto na sociedade, na cultura e na economia tem sido significativo e a sua influência espalhou-se globalmente. Neste artigo exploraremos as diferentes facetas de Controle ótimo, desde a sua evolução ao longo do tempo até às suas implicações no mundo contemporâneo. Analisaremos a sua importância e refletiremos sobre a sua relevância no contexto atual, com o objetivo de proporcionar uma visão abrangente e atualizada sobre este tema.

Referência de problema de controle ótimo (Luus) com objetivo integral, desigualdade e restrição diferencial

Teoria do controle ótimo é um ramo da teoria do controle que trata de encontrar um controle para um sistema dinâmico ao longo de um período de tempo de modo que uma função objetivo seja otimizada.[1] Tem inúmeras aplicações em ciência, engenharia e pesquisa operacional. Por exemplo, o sistema dinâmico pode ser uma nave espacial com controles correspondentes aos propulsores de foguetes, e o objetivo pode ser chegar à Lua com o mínimo gasto de combustível.[2] Ou o sistema dinâmico poderia ser a economia de uma nação, com o objetivo de minimizar o desemprego; os controles neste caso poderiam ser a política fiscal e monetária.[3] Um sistema dinâmico também pode ser introduzido para incorporar problemas de pesquisa operacional dentro da estrutura da teoria de controle ótimo.[4][5]

O controle ótimo é uma extensão do cálculo variacional e é um método de otimização matemática para derivar políticas de controle.[6] O método deve-se em grande parte ao trabalho de Lev Pontryagin e Richard Bellman na década de 1950, após contribuições ao cálculo de variações por Edward J. McShane.[7] O controle ótimo pode ser visto como uma estratégia de controle na teoria de controle.[1]

Referências

  1. a b Ross, Isaac (2015). A primer on Pontryagin's principle in optimal control. San Francisco: Collegiate Publishers. ISBN 978-0-9843571-0-9. OCLC 625106088 
  2. Luenberger, David G. (1979). «Optimal Control». Introduction to Dynamic Systems. New York: John Wiley & Sons. pp. 393–435. ISBN 0-471-02594-1 
  3. Kamien, Morton I. (2013). Dynamic Optimization: the Calculus of Variations and Optimal Control in Economics and Management. : Dover Publications. ISBN 978-1-306-39299-0. OCLC 869522905 
  4. Ross, I. M.; Proulx, R. J. (6 de maio de 2020). «An Optimal Control Theory for the Traveling Salesman Problem and Its Variants». arXiv:2005.03186Acessível livremente  
  5. Ross, Isaac M.; Karpenko, Mark; Proulx, Ronald J. (1 de janeiro de 2016). «A Nonsmooth Calculus for Solving Some Graph-Theoretic Control Problems**This research was sponsored by the U.S. Navy.». IFAC-PapersOnLine. 10th IFAC Symposium on Nonlinear Control Systems NOLCOS 2016 (em inglês). 49 (18): 462–467. ISSN 2405-8963. doi:10.1016/j.ifacol.2016.10.208Acessível livremente 
  6. Sargent, R. W. H. (2000). «Optimal Control». Journal of Computational and Applied Mathematics. 124 (1–2): 361–371. Bibcode:2000JCoAM.124..361S. doi:10.1016/S0377-0427(00)00418-0Acessível livremente 
  7. Bryson, A. E. (1996). «Optimal Control—1950 to 1985». IEEE Control Systems Magazine. 16 (3): 26–33. doi:10.1109/37.506395