برنامه‌ریزی پارامتری: تفاوت میان نسخه‌ها

بدون خلاصۀ ویرایش
جز (ابرابزار)
بدون خلاصۀ ویرایش
'''برنامه‌ریزی [[پرمایش|پَرمایش]]ی''' یا '''بهینه‌سازی زمان‌وردا''' از مسایل [[بهینه‌سازی ریاضی]] می‌باشد که مسئلهمساله به یاری [[تابع]]ی از یک یا چند [[پارامتر|پارامون]] واکاوی می‌شود.<ref>{{Cite journal|last=Kungurtsev|first=Vyacheslav|last2=Diehl|first2=Moritz|date=2014-12|title=Sequential quadratic programming methods for parametric nonlinear optimization|url=http://link.springer.com/10.1007/s10589-014-9696-2|journal=Computational Optimization and Applications|language=en|volume=59|issue=3|pages=475–509|doi=10.1007/s10589-014-9696-2|issn=0926-6003}}</ref> گوالش و گسترش این شاخه از ریاضی به یاری '''واکاوی حساسیت''' (sensitivity analysis) و '''پیداشت هوموتپی''' (Homotopy Continuation) از یک مسئله بهینه‌سازی انجام شده‌استگرفته است.
 
== مسئله ==
</math> تابع هزینه (objective) و <math>
g(x,\theta)
</math> تابع پاوَند (constraint) می‌باشند. درنگریددر نگر داشته باشید که این مسئله خود، یک بهینه‌سازی پاوندیدهپاوَسته می‌باشد. همچنین <math>J^*(\theta)</math> مقدار بهینه مسئلهمساله برحسب تابعی از <math>\theta</math> را برگردانده و <math>
\Theta
</math> فضای پارامون را نشان می‌دهد.
 
== روش حل ==
برای حل این مسئله، گمان می‌شود که پاسخ بهینه برای مقداری از <math>\theta</math> در دسترس است. سپس شرایط KKT ([[شرایط کاروش–کون–تاکر]]) برای این مسئله برجسب پارامون <math>\theta</math> نوشته می‌شود. با روش '''پیداشت هوموتپی''' (Homotopy Continuation)، شرایط KKT را می‌توان به روشی گام‌به‌گام و به یاری دستگاهی از [[معادله دیفرانسیل]] حل کرد. فرجام از حل این معادلاتمعادلات، فرجام، به پاسخ بهینه دست می‌یابیم.
 
== الگوریتم حل ==
به هر روی معادلات دیفرانسیل وابسته به این گونه بهینه‌سازی، معمولاً پیچیده‌است که به روشی کاربردی نیاز می‌شود. [[روش '''پیش‌بینی-ویرایش''' ([[:en:Predictor–corrector method]]) یک روش کاربردی برای حل گام‌به‌گام این گونه از بهینه‌سازی است.
 
== کاربرد ==
بهینه‌سازی پرمایشی در حل مسایل بهینه‌سازی دشوار ویا نامحدبی که پاسخ بهینه آن در شرایط ویژه‌ای از تابع هزینه در دسترس است، کاربرد دارد. فرضگمان کنید، پاسخ مسئلهمساله بالا برای مقدار ویژه‌ای از <math>\theta</math> در دسترس باشد، آنگاه به یاری واکاوی حساسیت شرایط KKT ([[شرایط کاروش–کون–تاکر]]) می‌توان برای مقادیر دلخواه از <math>\theta</math> پاسخ بهینه (و یا زیربهینه) را بدست آورد.
 
از کاربردهای دیگر آن در نگره [[کنترل بهینه]] می‌باشد. با بررسی پیوند میان [[کنترل پیش‌بینانه مدل]] و این نوع بهینه‌سازی، گرایش به این شاخه از ریاضیات فزونی‌یافتفزونی‌یافته است.<ref>{{Cite journal|last=Bemporad|first=A.|last2=Morari|first2=M.|last3=Dua|first3=V.|last4=Pistikopoulos|first4=E.N.|date=2000|title=The explicit solution of model predictive control via multiparametric quadratic programming|url=http://ieeexplore.ieee.org/document/876624/|journal=Proceedings of the 2000 American Control Conference. ACC (IEEE Cat. No.00CH36334)|location=Chicago, IL, USA|publisher=IEEE|pages=872–876 vol.2|doi=10.1109/ACC.2000.876624|isbn=978-0-7803-5519-4}}</ref>
 
== جستارهای وابسته ==