آموزش سیستم های کنترل بهینه
درس «سیستم های کنترل بهینه» (Optimal Control Systems)، و یا به اختصار کنترل بهینه، یکی از دروس اصلی و پایه رشته مهندسی کنترل است، که در مقطع کارشناسی ارشد مورد مطالعه قرار می گیرد. این درس دسته مهمی از مطالب و مفاهیم مهندسی کنترل را به همراه خود دارد و اصولا همه دانشجویان مهندسی کنترل در مقاطع تحصیلات تکمیلی (کارشناسی ارشد و دکترا)، می بایست این درس را بگذرانند.
درس «سیستم های کنترل بهینه» (Optimal Control Systems)، و یا به اختصار کنترل بهینه، یکی از دروس اصلی و پایه رشته مهندسی کنترل است، که در مقطع کارشناسی ارشد مورد مطالعه قرار می گیرد. این درس دسته مهمی از مطالب و مفاهیم مهندسی کنترل را به همراه خود دارد و اصولا همه دانشجویان مهندسی کنترل در مقاطع تحصیلات تکمیلی (کارشناسی ارشد و دکترا)، می بایست این درس را بگذرانند.
سیستم های کنترل بهینه، دسته مهمی از روش ها را شامل می شوند که در کنار کاربردهای فنی و صنعتی، کاربردهای فراوانی در حوزه های مختلف مدیریت، اقتصاد و علوم مالی دارد، به نحوی که در دانشگاه های متعددی در سراسر دنیا، این درس به عنوان یکی از دروس مهم، در مقطع دکترای این رشته ها، به دانشجویان ارائه می شود.
در طراحی سیستم های کنترل بهینه، علاوه بر این که صحت عملکرد سیستم کنترلی مورد بحث قرار می گیرد، میزان بهینگی آن در برآورده کردن خواسته های طراح نیز، مورد توجه است. یعنی نه تنها رسیده به هدف بلکه چطور و چگونه رسیدن به هدف نیز مهم است. از این نظر، عملکرد یک سیستم کنترل بهینه، صرفا نیازهای اولیه و بدیهی یک سیستم های را برآورده نمی کنید و در کنار آن، بر بهینگی عملکرد نیز توجه ویژه ای دارد.
غالبا در طراحی سیستم های کنترل بهینه، معیارهایی در قالب شاخص عملکرد (Performance Index) و یا تابع هزینه (Cost Function) تعریف می شوند که نهایتا برآورده شدن آن ها و بهینه شدن مقدارشان، باعث ایجاد سیستم هایی با بهترین زمان پاسخگویی، یا کمترین میزان انرژی و یا کمترین خطا نسبت به یک سیگنال مرجع می شود.
از طرفی، مباحث مربوط به کنترل بهینه، در نهایت ارتباط بسیار نزدیکی با روش های «یادگیری تقویتی» (Reinforcement Learning) پیدا می کند و از نظر، یک حلقه وصل میان یادگیری ماشین و علم مهندسی کنترل محسوب می شود. ضمن این که، پیوندهای عمیقی میان نظریه بازی ها (Game Theory) و مباحث کنترل بهینه وجود دارد که از این نظر، روش های کنترل بهینه را، مستعد به کارگیری در همه زمینه های نیازمند تصمیم گیری می کند.
موضوع طراحی سیستم های کنترل و مسائلی که در این حوزه مطرح هستند، شامل گستره وسیعی از مفاهیم می شوند که بحث بر روی آن ها به صورت کلی، بسیار بالاتر از سطح درس «سیستم کنترل بهینه» در مقطع کارشناسی ارشد است و اساسا این درس در اکثر دانشگاه ها، به بررسی و مطالعه سیستم های کنترل خطی اختصاص دارد و اشاره مختصری به موضوع سیستم های کنترل بهینه و غیر خطی انجام می شود. اما در دوره آموزشی فرادرس در زمینه «سیستم های کنترل بهینه»، به مباحثی که کمتری در دانشگاه ها مجال طرح پیدا می کنند نیز، پرداخته می شود. به ویژه، در کنار مباحث تئوری، همچون اکثریت مطلق آموزش های فرادرس، برنامه نویسی و پیاده سازی عملی روش ها و الگوریتم های مطرح شده نیز، در دستور کار قرار گرفته است.
کاربرد متلب در دینامیک سازه ها — کلیک کنید (+)
فهرست سرفصل های مطرح شده در این دوره آموزش، در ادامه آمده اند:
- درس یکم: مروری بر بهینه سازی ایستا
- بهینه سازی ایستا و بدون قید (نامقید)
- بهینه سازی ایستا با قید مساوی
- بهینه سازی ایستای مقید
- مروری بر روش های حل عددی مسائل بهینه سازی
- درس دوم: کنترل بهینه سیستم های گسسته-زمان
- حل کنترل بهینه گسسته-زمان در حالت عمومی
- کنترل بهینه سیستم های خطی گسسته-زمان
- رگولاتور مرتبه دوم خطی یا LQR گسسته-زمان
- درس سوم: کاربرد کنترل گسسته-زمان با سیستم های پیوسته-زمان
- شیوه عمومی استفاده از کنترل کننده های گسسته زمان برای سیستم های پیوسته-زمان
- کنترل دیجیتال برای سیستم های پیوسته-زمان
- درس چهارم: مباحث تکمیلی بر روی LQR گسسته زمان
- کنترل کننده حالت ماندگار و زیر بهینه LQR
- معادله جبری ریکاتی و شیوه حل آن
- تحلیل و بررسی LQR در حوزه فرکانس
- درس پنجم: کنترل بهینه سیستم های پیوسته-زمان
- مروری بر حساب تغییرات
- حل کنترل بهینه پیوسته-زمان در حالت عمومی
- کنترل بهینه سیستم های خطی پیوسته-زمان
- رگولاتور مرتبه دوم خطی یا LQR پیوسته-زمان
- درس ششم: مباحث تکمیلی بر روی LQR پیوسته زمان
- کنترل کننده حالت ماندگان و زیر بهینه LQR
- تحلیل و بررسی LQR پیوسته زمان در حوزه فرکانس
- درس هفتم: مسائل تعقیب یا Tracking پیوسته زمان
- تعریف کلی مسأله تعقیب
- تنظیم کننده با تابع حالت نهایی ثابت
- تغییرات مرتبه دو در تابع عملکرد
- درس هشتم: مسائل تعقیب یا Tracking گسسته زمان
- مسأله تعقیب گسسته زمان
- تنظیم کننده گسسته-زمان با تابع حالت نهایی ثابت
- تغییرات مرتبه دو در تابع عملکرد سیستم های گسسته-زمان
- درس نهم: مسائل کنترل بهینه خاص
- کنترل بهینه با زمان انتهایی آزاد
- کنترل بهینه با فرض محدودیت ورودی
- درس دهم: برنامه ریزی پویا یا Dynamic Programming
- اصل بهینگی بلمن (Bellman)
- کاربرد برنامه ریزی پویا در سیستم های گسسته زمان
- کاربرد برنامه ریزی پویا در سیستم های پیوسته زمان
- درس یازدهم: کنترل بهینه سیستم های چند جمله ای
- کنترل بهینه گسسته-زمان برای سیستم های چند جمله ای (Polynomial Systems)
- کنترل بهینه پیوسته-زمان برای سیستم های چند جمله ای (Polynomial Systems)
- درس دوازدهم: فیدبک خروجی
- پیاده سازی LQR در قالب فیدبک خروجی
- تعقیب ورودی مرجع
- تعقیب مدل با استفاده از فیدبک خروجی
- کاربرد فیدبک خروجی در نظریه بازی ها و بازی های دینامیک
- کاربرد فیدبک خروجی در کنترل غیر متمرکز
- درس سیزدهم: مقدمه ای بر کنترل مقاوم و سیستم های چند متغیره
- روش های حوزه فرکانس برای تحلیل سیستم های کنترل چند متغیره
- طراحی کنترل مقاوم توسط فیدبک خروجی
- فیلتر کالمن
- کنترل کننده خطی درجه دو گوسی یا LQG
- طراحی کنترل مقاوم با رویکرد H-infinity
- درس چهاردهم: بازی های تفاضلی
- سیاست کنترل بهینه با اصل پونتریاگین (Pontryagin) و معادله بلمن
- بازی های مجموع صفر و دو نفره
- کاربرد های بازی های مجموع صفر در طراحی کنترل مقاوم
- بازی های چند نفره با مجموع غیر صفر
- درس پانزدهم: یادگیری تقویتی و برنامه ریزی پویای تقریبی
- تعریف مسأله یادگیری تقویتی یا RL
- فرایندهای تصمیم گیری مارکوف یا MDP
- الگوریتم های پایه در یادگیری تقویتی
- ارزیابی سیاست یا Policy Evaluation
- بهبود سیاست یا Policy Improvement
- درس شانزدهم: کاربرد یادگیری تقویتی در کنترل بهینه
- الگوریتم یادگیری تفاضل موقت یا Temporal Difference Learning
- کاربرد یادگیری تقویتی به عنوان کنترل بهینه تطبیقی
- کنترل بهینه تطبیقی سیستم های گسسته-زمان
- اعمال بر روی سیستم های پیوسته زمان
مجموعه: اخبار و تازه ها برچسب ها: Approximate Dynamic Programming, Dynamic Programming, Final Time Free, Game Theory, Kalman Filter, Linear Quadratic Regulator, LQG, LQR, LQR پیوسته زمان, LQR گسسته زمان, Markov Decision Process, MDP, Optimal Adaptive Control, Optimal Control, Optimal Control Systems, Policy Evaluation, Policy Improvement, Reinforcement Learning, Tracking, ارزیابی سیاست, اصل Bellman, اصل بلمن, اصل بهینگی Bellman, اصل بهینگی بلمن, بازی های تفاضلی, بازی های چند نفره, بازی های چند نفره با مجموع غیر صفر, بازی های دو نفره, بازی های دو نفره با مجموع صفر, بازی های دینامیک, بازی های مجموع صفر, برنامه ریزی پویا, برنامه ریزی پویای تقریبی, بهبود سیاست, بهینه سازی ایستا, بهینه سازی بدون قید, بهینه سازی عددی, بهینه سازی مقید, بهینه سازی نامقید, پاسخ فرکانسی, پسخور, تئوری بازی ها, تابع تبدیل, تابع عملکرد, تابع هزینه, تخمین حالت, تعقیب, تعقیب حالت, تعقیب خروجی, تعقیب ورودی, تنظیم کننده مرتبه دوم خطی, حوزه فرکانس, رگولاتور مرتبه دوم خطی, رویتگر حالت, زمان انتهای آزاد, زمان انتهایی آزاد, سیستم های پیوسته-زمان, سیستم های چند جمله ای, سیستم های دینامیکی, سیستم های کنترل, سیستم های کنترل بهینه, سیستم های کنترل چند متغیره, سیستم های کنترل هوشمند, سیستم های گسسته زمان, طراحی کنترل مقاوم, فرایند تصمیم گیری مارکوف, فیدبک, فیدبک حالت, فیدبک خروجی, فیلتر کالمن, کاربرد یادگیری تقویتی در کنترل, کارشناسی ارشد مهندسی کنترل, کنترل H بی نهایت, کنترل H بینهایت, کنترل H-infinity, کنترل بهینه, کنترل بهینه با محدودیت انرژی, کنترل بهینه با محدودیت ورودی, کنترل بهینه تطبیقی, کنترل بهینه خطی, کنترل بهینه سیستم های پیوسته-زمان, کنترل بهینه سیستم های چند جمله ای, کنترل بهینه سیستم های گسسته-زمان, کنترل بهینه غیر خطی, کنترل دیجیتال, کنترل غیر متمرکز, کنترل کننده خطی درجه دو گوسی, کنترل مقاوم, گیم تئوری, مدل فضای حالت, مسأله تعقیب, معادله جبری ریکاتی, معادله ریکاتی, مهندسی کنترل, نظریه بازی ها, یادگیری تقویتی