یادگیری انتقال

انتقال یادگیری (TL) یک موضوع تحقیقاتی در یادگیری ماشین (ML) است که بر روی ذخیره دانش به دست آمده در هنگام حل یک مسئله و استفاده از آن در یک مسئله متفاوت ولی مرتبط متمرکز است. [۱] به عنوان مثال ، دانش به دست آمده در هنگام یادگیری شناخت ماشین می تواند هنگام تلاش برای شناسایی کامیون ها به کار رود.از دیدگاه عملی، استفاده دوباره یا انتقال اطلاعات از وظایف قبلاً یاد گرفته شده برای یادگیری وظایف جدید این توانایی را دارد که به طور قابل توجهی کارایی نمونه یک عامل یادگیری تقویت کننده را بهبود بخشد. [۲]

تاریخ

در سال 1976 استوو بوزینوفسکی(Stevo Bozinovski) و آنته فولگوسی( Ante Fulgosi) مقاله ای را منتشر کردند که صریحاً به یادگیری انتقال در آموزش شبکه های عصبی می پردازد. [۱]

در سال 1997 ، لورین پرت(Lorien Pratt) و سباستین ترون ( Sebastian Thrun) یک نسخه ویژه از یادگیری ماشین را که به انتقال یادگیری اختصاص یافته بود ،تولید کردند [۳] و تا سال 1998 ، این رشته شامل یادگیری چند کاره بود ، [۴] همراه با تجزیه و تحلیل رسمی تر از مبانی نظری آن. پایه ها [۵] یادگیری برای یاد گرفتن(Learning to Learn) ، [۶] ویرایش شده توسط Thrun و Pratt ، مروری بر این موضوع در سال 1998 است.

Andrew Ng در آموزش NIPS 2016 خود [۷] [۸] [۹] گفت که TL پس از یادگیری نظارت شده برای برجسته کردن اهمیت TL ، عامل بعدی موفقیت تجاری ML خواهد بود.

تعریف

  • تعریف یادگیری انتقالی از نظر حوزه ها و وظایف ارائه شده است. یک دامنه شامل: یک فضای ویژگی و یک توزیع احتمال حاشیه ای ، به طوری که . با توجه به یک دامنه خاص ، ، یک کار از دو جز تشکیل شده است: فضای برچسب و یک عملکرد پیش بینی عینی . تابع برای پیش بینی برچسب مربوطه استفاده می شود از یک نمونه جدید . این وظیفه ، مشخص شده توسط ، از داده های آموزشی متشکل از جفت آموخته می شود ، به طوری که که و . [۱۰]

با توجه به دامنه منبع و کار یادگیری ، یک دامنه هدف و یادگیری کار ، به طوری که ، یا ، یادگیری انتقال با هدف کمک به بهبود یادگیری عملکرد پیش بینی تابع که در با استفاده از دانش در و است . [۱۱]

برنامه های کاربردی ویرایش

الگوریتم ها برای یادگیری انتقال در شبکه های منطقی مارکوف(Markov logic networks) [۱۲] و شبکه های بیزی (Bayesian networks)در دسترس هستند. [۱۳] یادگیری انتقال نیز در کشف زیر نوع سرطان ، [۱۴] استفاده از ساختمان ، [۱۵] [۱۶] بازی عمومی ، [۱۷] طبقه بندی متن ، [۱۸] [۱۹] تشخیص رقم ، [۲۰] تصویربرداری پزشکی و فیلتر کردن هرزنامه(spam) اعمال شده است. . [۲۱]

در سال 2020 کشف شد که، با توجه به طبیعت جسمی مشابه خود، یادگیری انتقال بین سیگنال های الکترومایوگرافی (EMG) از ماهیچه ها به هنگام طبقه بندی رفتار امواج مغزی (EEG) ممکن است. همچنین اشاره شد که این رابطه برعکس عمل می کند ، نشان می دهد که می توان از EEG برای طبقه بندی EMG علاوه بر این استفاده کرد. [۲۲] این آزمایش‌ها نشان داد که دقت شبکه های عصبی و شبکه های عصبی کانولوشن [۲۳] با یادگیری انتقال هم در دوره اول (قبل از هرگونه یادگیری ، یعنی در مقایسه با توزیع وزن تصادفی استاندارد) و هم در مجانب (انتهای فرایند یادگیری). یعنی الگوریتم ها با قرار گرفتن در دامنه دیگری بهبود می یابند. علاوه بر این ، کاربر نهایی یک مدل از پیش آموزش دیده می تواند ساختار لایه های کاملاً متصل را برای دستیابی به عملکرد برتر تغییر دهد. [۲۴]

همچنین ببینید

منابع ویرایش

  1. ۱٫۰ ۱٫۱ West, Jeremy; Ventura, Dan; Warnick, Sean (2007). "Spring Research Presentation: A Theoretical Foundation for Inductive Transfer". Brigham Young University, College of Physical and Mathematical Sciences. Archived from the original on 2007-08-01. Retrieved 2007-08-05.
  2. George Karimpanal, Thommen; Bouffanais, Roland (2019). "Self-organizing maps for storage and transfer of knowledge in reinforcement learning". Adaptive Behavior. 27 (2): 111–126. arXiv:1811.08318. doi:10.1177/1059712318818568. ISSN 1059-7123.
  3. Pratt, L. Y.; Thrun, Sebastian (July 1997). "Machine Learning - Special Issue on Inductive Transfer". link.springer.com. Springer. Retrieved 2017-08-10.
  4. Caruana, R., "Multitask Learning", pp. 95-134 in (Thrun و Pratt 2012)
  5. Baxter, J., "Theoretical Models of Learning to Learn", pp. 71-95 (Thrun و Pratt 2012)
  6. Thrun & Pratt 2012.
  7. NIPS 2016 tutorial: "Nuts and bolts of building AI applications using Deep Learning" by Andrew Ng (به انگلیسی), retrieved 2019-12-28
  8. "NIPS 2016 Schedule". nips.cc. Retrieved 2019-12-28.
  9. Nuts and bolts of building AI applications using Deep Learning, slides
  10. Lin, Yuan-Pin; Jung, Tzyy-Ping (27 June 2017). "Improving EEG-Based Emotion Classification Using Conditional Transfer Learning". Frontiers in Human Neuroscience. 11: 334. doi:10.3389/fnhum.2017.00334. PMC 5486154. PMID 28701938.   Material was copied from this source, which is available under a Creative Commons Attribution 4.0 International License.
  11. Lin, Yuan-Pin; Jung, Tzyy-Ping (27 June 2017). "Improving EEG-Based Emotion Classification Using Conditional Transfer Learning". Frontiers in Human Neuroscience. 11: 334. doi:10.3389/fnhum.2017.00334. PMC 5486154. PMID 28701938.   Material was copied from this source, which is available under a Creative Commons Attribution 4.0 International License.
  12. Mihalkova, Lilyana; Huynh, Tuyen; Mooney, Raymond J. (July 2007), "Mapping and Revising Markov Logic Networks for Transfer" (PDF), Learning Proceedings of the 22nd AAAI Conference on Artificial Intelligence (AAAI-2007), Vancouver, BC, retrieved 2007-08-05
  13. Niculescu-Mizil, Alexandru; Caruana, Rich (March 21–24, 2007), "Inductive Transfer for Bayesian Network Structure Learning" (PDF), Proceedings of the Eleventh International Conference on Artificial Intelligence and Statistics (AISTATS 2007), archived from the original (PDF) on 20 June 2010, retrieved 2007-08-05
  14. Hajiramezanali, E. & Dadaneh, S. Z. & Karbalayghareh, A. & Zhou, Z. & Qian, X. Bayesian multi-domain learning for cancer subtype discovery from next-generation sequencing count data. 32nd Conference on Neural Information Processing Systems (NeurIPS 2018), Montréal, Canada. آرخیو:1810.09433
  15. {{cite conference}}: Empty citation (help)
  16. Arief-Ang, I.B.; Hamilton, M.; Salim, F.D. (2018-12-01). "A Scalable Room Occupancy Prediction with Transferable Time Series Decomposition of CO2 Sensor Data". ACM Transactions on Sensor Networks. 14 (3–4): 21:1–21:28. doi:10.1145/3217214.
  17. Banerjee, Bikramjit, and Peter Stone. "General Game Learning Using Knowledge Transfer بایگانی‌شده در ۱ مه ۲۰۲۱ توسط Wayback Machine." IJCAI. 2007.
  18. {{cite conference}}: Empty citation (help)
  19. {{cite conference}}: Empty citation (help)
  20. Maitra, D. S.; Bhattacharya, U.; Parui, S. K. (August 2015). "CNN based common approach to handwritten character recognition of multiple scripts". 2015 13th International Conference on Document Analysis and Recognition (ICDAR): 1021–1025. doi:10.1109/ICDAR.2015.7333916. ISBN 978-1-4799-1805-8.
  21. {{cite conference}}: Empty citation (help)
  22. Bird, Jordan J.; Kobylarz, Jhonatan; Faria, Diego R.; Ekart, Aniko; Ribeiro, Eduardo P. (2020). "Cross-Domain MLP and CNN Transfer Learning for Biological Signal Processing: EEG and EMG". IEEE Access. Institute of Electrical and Electronics Engineers (IEEE). 8: 54789–54801. doi:10.1109/access.2020.2979074. ISSN 2169-3536.
  23. Maitra, Durjoy Sen; Bhattacharya, Ujjwal; Parui, Swapan K. (August 2015). "CNN based common approach to handwritten character recognition of multiple scripts". 2015 13th International Conference on Document Analysis and Recognition (ICDAR): 1021–1025. doi:10.1109/ICDAR.2015.7333916.
  24. Kabir, H. M., Abdar, M., Jalali, S. M. J., Khosravi, A., Atiya, A. F., Nahavandi, S., & Srinivasan, D. (2020). Spinalnet: Deep neural network with gradual input. arXiv preprint arXiv:2007.03347.