شبکه عصبی مصنوعی: تفاوت میان نسخهها
محتوای حذفشده محتوای افزودهشده
FreshmanBot (بحث | مشارکتها) جز replaced: می کند ← میکند (2)، پیشبینی ← پیشبینی ، به طور ← بهطور ، آنها ← آنها ، آنرا ← آن را با ویرایشگر خودکار فارسی |
جزبدون خلاصۀ ویرایش |
||
خط ۲۲:
== یادگیری ==
یادگیری ماشینی با نظارت (supervised learning) به دنبال تابعی از میان یک سری توابع هست که [[تابع هزینه]] (loss function) [[داده ها]] را بهینه سازد. به عنوان مثال در مسئله رگرسیون تابع ضرر میتواند اختلاف بین پیشبینی و مقدار واقعی خروجی به توان دو باشد، یا در مسئله [[طبقه بندی]] ضرر منفی لگاریتم احتمال خروجی باشد. مشکلی که در یادگیری [[شبکه های عصبی]] وجود دارد این است که این [[مسئله بهینه سازی]] دیگر محدب (convex) نیست <ref name=":0">{{یادکرد کتاب|عنوان=Deep learning|نام خانوادگی=Ian Goodfellow and Yoshua Bengio and Aaron Courville|نام=|ناشر=MIT Press|سال=2016|شابک=|مکان=|صفحات=200}}</ref>. ازینرو با مشکل کمینههای محلی روبرو هستیم. یکی از روشهای متداول [[حل مسئله]] بهینه سازی در شبکههای عصبی [[بازگشت به عقب]] یا همان back propagation است<ref name=":0"/>. روش بازگشب به عقب گرادیانِ تابع هزینه را برای تمام وزنهای شبکه عصبی
== تاریخچه شبکههای عصبی مصنوعی ==
|