شبکه عصبی مصنوعی: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
برچسب‌ها: متن دارای ویکی‌متن نامتناظر ویرایشگر دیداری
خط ۳۳:
برای بدست آوردن کمینه <math>Q(W)</math> می‌توان از روش گرادیان کاهشی استفاده کرد، به این معنی که گرادیان تابع را در حساب کرد و کمی در خلاف جهت آن حرکت کرد و این کار را آنقدر ادامه داد تا تابع ضرر خیلی کوچک شود. روش بازگشت به عقب در واقع روشی برای پیدا کردن گرادیان تابع است.
 
حال فرض کنیم می خواهیم گرادیان تابع <math>Q(W)</math> را نسبت به وزن <math>w_{pc}</math>بدست بیاوریم. برای این کار نیاز به [[قاعده زنجیری|قائده زنجیری]] در مشتق گیری داریم. قائده زنجیری به این شکل کار می کند: اگر تابعی داشته باشیم به اسم <math>f</math> که وابسته به سه ورودی <math>u</math>، <math>v</math> و <math>w</math> باشد و هرکدام از این سه ورودی به نوبه خود وابسته به <math>t</math> باشند، مشتق <math>f</math> به <math>t</math> به این شکل محاسبه می شود:
 
<math>\frac{\partial f\left(u(t),v(t),w(t)\right)}{\partial t} = \frac{\partial f}{\partial u} \frac{\partial u}{\partial t} + \frac{\partial f}{\partial v} \frac{\partial v}{\partial t} + \frac{\partial f}{\partial w} \frac{\partial w}{\partial t} </math>
 
با استفاده از این قائده زنجیری روش بازگشت به عقب را به این شکل دنبال می کنیم:‌
 
<math> \begin{cases}
\delta_c = \frac{\partial Q}{\partial a_c}\\
a_c = \sum_p w_{pc}\times b_{pc}\\
b_c = \theta_c (a_c)\\
\delta_c = \frac{\partial Q}{\partial a_c} = \frac{\partial Q}{\partial b_c}\frac{\partial b_c}{\partial a_c} = \frac{\partial Q}{\partial b_c} \times \theta^{\,\prime}_c (a_c) = \left(\sum_n \frac{\partial Q}{\partial a_n}\frac{\partial a_n}{\partial b_c}\right) \times \theta^{\,\prime}_c (a_c) = \left(\sum_n w_{cn}\delta_n \right) \times \theta^{\,\prime}_c (a_c)\\
\frac{\partial Q}{\partial w_{cn}} = \frac {\partial Q}{\partial a_n} \frac {\partial a_n}{\partial w_{cn}} = \delta_n b_c
\end{cases} </math>
 
== تاریخچه شبکه‌های عصبی مصنوعی ==