بهینهسازی محدب: تفاوت میان نسخهها
محتوای حذفشده محتوای افزودهشده
بدون خلاصۀ ویرایش |
به نسخهٔ 19036464 ویرایش Sahehco واگردانده شد: Actual version. (توینکل) |
||
خط ۱:
{{ویکیسازی}}
مسئلهٔ '''بهینهسازی محدب''' یا '''بهینهسازی کوژ''' {{انگلیسی|Convex Optimization}} به یافتن مقدار حداقل یک [[تابع محدب]] (یا حداکثر یک [[تابع مقعر]]) از بین [[مجموعه محدب|مجموعهای محدب]] گفته میشود. مهمترین مزیت این نوع مسائل بهینهسازی در این است که هر نقطهٔ بهینهٔ محلی یک نقطه بهینهٔ سراسری نیز است و هر الگوریتم بهینهسازی که یک نقطه بهینهٔ محلی را یافت در حقیقت یک نقطه بهینهٔ سراسری را یافتهاست.
[[مسئله بهینه سازی]] شبه محدب، فرم استاندارد زیر را دارد:<ref name=":0">{{یادکرد کتاب|عنوان=Convex Optimization|نام خانوادگی=Boyd|نام=Stephen|ناشر=|سال=|شابک=|مکان=|صفحات=158}}</ref>▼
▲[[مسئله
<math>\min f_o(x)\quad s.t. \quad f_i(x)\leq0 \quad i=1,...,m \quad, Ax=b</math>
که قیود نامساوی محدب هستند و تابع هدف نیز شبه محدب میباشد (زمانیکه مسئله محدب باشد تابع هدف نیز محدب است). قیود شبه محدب میتوانند با معادل محدب شان جایگزین شوند. در این نوشتار بعضی از اختلافات پایهای بین مسائل
== پاسخهای بهینه محلی و شرایط بهینگی ==
مهمترین اختلاف بین
برای یک مسئله
<math> \bigtriangledown f_0(x)^T(y-x)\geq 0 \,\,\, for\,\,\, all \,\,\,y\in X </math>
انواع شرایط بهینگی برای مسائل
<math>x \in X,\quad\quad \bigtriangledown f_0(x)^T(y-x)>0 \,\,\, for\,\,\, all \,\,\,y\in X </math>
سطر ۲۳ ⟵ ۲۵:
۲-معیار فوق نیازمند این است که گرادیان تابع هدف غیر صفر باشد در حالی که در رابطه بهینگی مسائل محدب اینگونه نیست، در واقع زمانی که <math>\bigtriangledown f_0(x)=0</math>، معیار بهینگی مسائل محدب صادق است و x نقطه بهینه است.
یک روش کلی برای مسائل
<math>f_0(x)\leq t \Leftrightarrow \phi_t(x)\leq 0</math>
و برای هر
اگر مسئله امکانسنجی زیر،
سطر ۳۶ ⟵ ۳۸:
== جستارهای وابسته ==
* [[بهینهسازی محدب]]▼
* [[تکمیل ماتریس]]
* [[مسئله بهینهسازی]]
== منابع ==
{{پانویس}}
{{چپچین}}
* {{یادکرد کتاب | نام خانوادگی = Boyd| نام = Stephen| نام خانوادگی۲ = Vandenberghe| نام۲ = Lieven | عنوان = Convex Optimization| سال = | ناشر = |مکان = | شابک = 0521833787 | پیوند = http://www.stanford.edu/~boyd/cvxbook/| زبان = en}}
{{پایان چپچین}}
== پیوند به بیرون ==
{{چپچین}}
* [http://www.stanford.edu/class/ee364a/ EE364a: Convex Optimization I] and [http://www.stanford.edu/class/ee364b/ EE364b: Convex Optimization II], Stanford course homepages
* [http://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-253-convex-analysis-and-optimization-spring-2012/index.htm 6.253: Convex Analysis and Optimization], an MIT OCW course homepage
* Brian Borchers, [http://infohost.nmt.edu/~borchers/presentation.pdf An overview of software for convex optimization]
{{پایان چپچین}}
{{الگوریتمهای بهینهسازی}}
{{ریاضی-خرد}}
[[رده:آنالیز محدب]]
[[رده:بهینهسازی]]
[[رده:بهینهسازی ریاضی]]
[[رده:ویکیسازی رباتیک]]
|