قانون اویا
قانون یادگیری اویا Oja's learning rule یا به صورت مختصر قانون اویا Oja's rule از روی اسم دانشمند فنلاندی علوم کامپیوتر Erkki Oja گرفته شدهاست. یک مدل است که نورونها در مغز یا در یک هوش مصنوعی میزان قدرت پیوندها را چگونه تغییر میدهند یا چگونه در طول زمان یادگیری انجام میدهند. این قانون تغییر یافته قانون استاندارد Hebb میباشد. این قانون فرم محاسباتی اثری است که ما باور داریم در نورونهای بیولوژیک رخ میدهد.
تئوری ویرایش
قانون Oja در تلاش برای رفع برخی مشکلات قانون Hebb با اضافه کردن عبارات به قانون Hebb میباشد. این قانون یک جفت نورون متصل را بررسی میکند اما میتوان آن را تعمیم داد.
- فرمول
یک مدل سادهسازی شده از نورون y که یک ترکیب خطی از ورودیهای x با استفاده از وزنهای presynaptic , w را در نظر میگیرم یعنی یک نورون postsynaptic به تعداد نورون presynaptic وصل است و قدرت این اتصالات با w مشخص میشود حال خروجی که نورون به ما میدهد وابسته به یک ترکیب خطی از ورودیهای نورونهای قبلی و وزنهای اتصال آنها است که فرمول به صورت زیر میشود.
قانون Oja تغییرات در وزنهای presynaptic , w را باتوجه به خروجی نورون y و ورودیهای آن x به صورت زیر مشخص میکند.
که در معادله فوق همان نرخ یادگیری (learning rate) میباشد که میتواند در طول زمان تغییر کند و ثابت نباشد. نکته ای که باید توجه است این است که n بیان گر گامهای گسسته اجرا میباشد و فرمول بالا میتوان برای حالت پیوسته به صورت زیر بازنویسی کرد که خواهیم داشت: