شبکه عصبی مصنوعی: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
FreshmanBot (بحث | مشارکت‌ها)
جز replaced: می کند ← می‌کند (2)، پیشبینی ← پیش‌بینی ، به طور ← به‌طور ، آنها ← آن‌ها ، آنرا ← آن را با ویرایشگر خودکار فارسی
Alim1369 (بحث | مشارکت‌ها)
جزبدون خلاصۀ ویرایش
خط ۲۲:
 
== یادگیری ==
یادگیری ماشینی با نظارت (supervised learning) به دنبال تابعی از میان یک سری توابع هست که [[تابع هزینه]] (loss function) [[داده ها]] را بهینه سازد. به عنوان مثال در مسئله رگرسیون تابع ضرر می‌تواند اختلاف بین پیش‌بینی و مقدار واقعی خروجی به توان دو باشد، یا در مسئله [[طبقه بندی]] ضرر منفی لگاریتم احتمال خروجی باشد. مشکلی که در یادگیری [[شبکه های عصبی]] وجود دارد این است که این [[مسئله بهینه سازی]] دیگر محدب (convex) نیست <ref name=":0">{{یادکرد کتاب|عنوان=Deep learning|نام خانوادگی=Ian Goodfellow and Yoshua Bengio and Aaron Courville|نام=|ناشر=MIT Press|سال=2016|شابک=|مکان=|صفحات=200}}</ref>. ازینرو با مشکل کمینه‌های محلی روبرو هستیم. یکی از روشهای متداول [[حل مسئله]] بهینه سازی در شبکه‌های عصبی [[بازگشت به عقب]] یا همان back propagation است<ref name=":0"/>. روش بازگشب به عقب گرادیانِ تابع هزینه را برای تمام وزنهای شبکه عصبی مصاحبهمحاسبه می‌کند و بعد از روشهای [[گرادیان کاهشی]] (gradient descent) برای پیدا کردمکردن مجموعه وزنهای بهینه استفاده می‌کند.<ref name=":1">{{Cite journal|last=Heaton|first=Jeff|date=2017-10-29|title=Ian Goodfellow, Yoshua Bengio, and Aaron Courville: Deep learning|url=http://dx.doi.org/10.1007/s10710-017-9314-z|journal=Genetic Programming and Evolvable Machines|volume=19|issue=1-2|pages=305–307|doi=10.1007/s10710-017-9314-z|issn=1389-2576}}</ref> روشهای گرادیان کاهشی سعی میکنند بصورت متناوب در خلاف جهت گرادیان حرکت کنند و با این کار تابع هزینه را به حداقل برسانند.<ref name=":1" /> پیدا کردن گرادیانِ لایه آخر ساده است و با استفاده از مشتق جزئی بدست می آید. گرادیانِ لایه‌های میانی اما بصورت مستقیم بدست نمی آید و باید از روشهایی مانند [[قاعده زنجیری|قائده زنجیری]] در مشتق گیری استفاده کرد.<ref name=":1" />
 
== تاریخچه شبکه‌های عصبی مصنوعی ==