تفاوت میان نسخه‌های «برنامه‌ریزی پارامتری»

جز
ابرابزار
جز (طاها صفحهٔ برنامه‌ریزی پرمایشی را به برنامه‌ریزی پارامتری منتقل کرد: پرمایش هنوز جا نیوفتاده)
جز (ابرابزار)
'''برنامه‌ریزی [[پرمایش|پَرمایش]]ی''' یا '''بهینه‌سازی زمان‌وردا''' از مسایل [[بهینه‌سازی ریاضی|بهینه‌سازی ریاضی]] می‌باشد که مسالهمسئله به یاری [[تابع]]ی از یک یا چند [[پارامتر|پارامون]] واکاوی می‌شود .<ref>{{Cite journal|last=Kungurtsev|first=Vyacheslav|last2=Diehl|first2=Moritz|date=2014-12|title=Sequential quadratic programming methods for parametric nonlinear optimization|url=http://link.springer.com/10.1007/s10589-014-9696-2|journal=Computational Optimization and Applications|language=en|volume=59|issue=3|pages=475–509|doi=10.1007/s10589-014-9696-2|issn=0926-6003}}</ref>. گوالش این شاخه از ریاضی به یاری '''واکاوی حساسیت''' یک مسالهمسئله بهینه‌سازی انجام شده استشده‌است.
 
== مسالهمسئله ==
مسالهمسئله بهینه‌سازی زیر را درنگرید.
: <math>
\begin{align}
</math> تابع هزینه (objective) و <math>
g(x,\theta)
</math> تابع پاوَند (constraint) می‌باشند. درنگرید که این مسالهمسئله خود، یک بهینه‌سازی پاوندیده می‌باشد. همچنین <math>J^*(\theta)</math> مقدار بهینه مسالهمسئله برحسب تابعی از <math>\theta</math> را برگردانده و <math>
\Theta
</math> فضای پارامون را نشان می‌دهد.
 
== روش حل ==
برای حل این مساله،مسئله، گمان می‌شود که پاسخ بهینه برای مقداری از در دسترس است. سپس شرایط KKT ([[شرایط کاروش–کون–تاکر]]) برای این مسالهمسئله برجسب پارامون <math>\theta</math> نوشته می‌شود. با روش '''پیداشت هوموتپی''' (Homotopy Continuation)، شرایط KKT را می‌توان به روشی گام‌به‌گام و به یاری دستگاهی از [[معادله دیفرانسیل]] حل کرد. فرجام از حل این معادلات به پاسخ بهینه دست‌دست می‌یابیم.
 
== الگوریتم حل ==
به هر روی معادلات دیفرانسیل وابسته به این گونه بهینه‌سازی، معمولامعمولاً پیچیده استپیچیده‌است که به روشی کاربردی نیاز می‌شود. روش '''پیش‌بینی-ویرایش''' ([https[://en.wikipedia.org/wiki/Predictor%E2%80%93corrector_method:Predictor–corrector method]]) یک روش کاربردی برای حل گام‌به‌گام این بهینه‌سازی است.
 
== کاربرد ==
بهینه‌سازی پرمایشی در حل مسایل بهینه‌سازی دشوار ویا نامحدبی که پاسخ بهینه آن در شرایط ویژه‌ای از تابع هزینه در دسترس است، کاربرد دارد. فرض کنید، پاسخ مسالهمسئله بالا برای مقدار ویژه‌ای از <math>\theta</math> در دسترس باشد، آنگاه به یاری واکاوی حساسیت شرایط KKT ([[شرایط کاروش–کون–تاکر]]) می توانمی‌توان برای مقادیر دلخواه از <math>\theta</math> پاسخ بهینه (و یا زیربهینه) را بدست آورد.
 
از کاربردهای دیگر آن در نگره [[کنترل بهینه]] می‌باشد. با بررسی پیوند میان [[کنترل پیش‌بینانه مدل]] و این نوع بهینه‌سازی، گرایش به این شاخه از ریاضیات فزونی‌یافت <ref>{{Cite journal|last=Bemporad|first=A.|last2=Morari|first2=M.|last3=Dua|first3=V.|last4=Pistikopoulos|first4=E.N.|date=2000|title=The explicit solution of model predictive control via multiparametric quadratic programming|url=http://ieeexplore.ieee.org/document/876624/|journal=Proceedings of the 2000 American Control Conference. ACC (IEEE Cat. No.00CH36334)|location=Chicago, IL, USA|publisher=IEEE|pages=872–876 vol.2|doi=10.1109/ACC.2000.876624|isbn=978-0-7803-5519-4}}</ref>.
 
از کاربردهای دیگر آن در نگره [[کنترل بهینه]] می‌باشد. با بررسی پیوند میان [[کنترل پیش‌بینانه مدل]] و این نوع بهینه‌سازی، گرایش به این شاخه از ریاضیات فزونی‌یافت .<ref>{{Cite journal|last=Bemporad|first=A.|last2=Morari|first2=M.|last3=Dua|first3=V.|last4=Pistikopoulos|first4=E.N.|date=2000|title=The explicit solution of model predictive control via multiparametric quadratic programming|url=http://ieeexplore.ieee.org/document/876624/|journal=Proceedings of the 2000 American Control Conference. ACC (IEEE Cat. No.00CH36334)|location=Chicago, IL, USA|publisher=IEEE|pages=872–876 vol.2|doi=10.1109/ACC.2000.876624|isbn=978-0-7803-5519-4}}</ref>.
 
== جستارهای وابسته ==
* [[بهینه‌سازی]]
* [[پارامترسازی|پَرمایش کردن]]
 
== منابع ==
{{پانویس}}