跳至內容

控制 (最佳控制理論)

維基百科,自由的百科全書

最優控制中的控制是指控制器選定用來調整狀態變數的變數,類似控制閥英語control valve的應用。控制和狀態變數不同,沒有事先指定的運動方程[1]。最優控制理論的目標是要在可行集內找到控制量的序列,讓狀態變數在最佳路徑上,使損失函數最小。

若某控制只是時間的函數,會稱為是開迴路控制。相反的,若提供最佳解的控制在某段時間內是這段時間開始時狀態變數的函數,則為閉迴路控制英語Closed-loop controller[2]

參考資料

[編輯]
  1. ^ Ferguson, Brian S.; Lim, G. C. Introduction to Dynamic Economic Problems. Manchester: Manchester University Press. 1998: 162. ISBN 0-7190-4996-2. 
  2. ^ Léonard, Daniel; Long, Ngo Van. Optimal Control Theory and Static Optimization in Economics. New York: Cambridge University Press. 1992: 181. ISBN 0-521-33158-7.