یادگیری مشابه (به انگلیسی = Similarity learning) بخشی از یادگیری نظارت شده ماشینی در هوش مصنوعی است. هدف از یادگیری تابع شباهت این است که میزان شباهت یا مرتبط بودن دو شی را اندازه‌گیری کند. کاربرد این یادگیری در زمینه‌هایی اعم از رتبه‌بندی، در سیستم‌های توصیه، ردیابی هویت بصری، تأیید چهره و تأیید سخنران است.

همچنین یادگیری مشابه از نظرهای زیادی مرتبط با تحلیل رگرسیون و طبقه‌بندی اماری است.

راه اندازی ویرایش

چهار روش راه اندازی برای یادگیری مشابه و یادگیری متریک وجود دارد.

یادگیری مشابه: تحلیل رگرسیونی
در این روش راه اندازی، جفت اشیاء  به همراه معیاری از شباهت میان آنها   به ما داده می‌شوند. هدف، یادگیری تابعی است که به صورت تقریبی برای هر نمونه سه‌گانه جدید   نشان می‌دهد:   که با به حداقل رساندن ضرر منظم به دست می‌آید:  .
یادگیری مشایه: طبقه‌بندی آماری
در این روش راه اندازی جفت اشیاء مشابه  و اشیاء غیر مشابه   داده شده‌است. این معادل این است که هر جفت   همراه با یک برچسب باینری  داده می‌شود، که مشخص می‌کند این دو شی مشابه هستند یا خیر. در اینجا نیز هدف، یادگیری طبقه‌بندی کننده‌ای است که به ما نشان دهد آیا می‌تواند تصمیم بگیرد
یک جفت شی جدید مشابه هستند یا خیر.
یادگیری مشابه: رتبه بندی شده
در این روش راه اندازی، سه‌گانه ای از اشیاء   داده شده‌است که شباهت نسبی آنها از نظمی که از پیش تعیین شده پیروی می‌کند. این نظم می‌گوید:   معروف است به این که بیشتر شبیه به   است تا   . هدف یادگیری یک تابع است مانند   به طوری که برای هر سه‌گانه جدید از اشیاء   ، اطاعت کند از نامساوی زیر:   (یادگیری متضاد). این روش شکل ضعیف تری از نظارت را نسبت به تحلیل رگرسیون نشان می‌دهد، زیرا به جای ارائه معیار دقیق شباهت، فقط باید ترتیب نسبی شباهت‌ها را ارائه کند. به همین دلیل، یادگیری مشابه رتبه‌بندی شده راحت تر در معیارهای بزرگ مورد استفاده قرار می‌گیرد.
هشینگ حساس به مکان (LSH)[۱]
در این روش، موارد ورودی را هش می‌کند تا موارد مانند هم که دارای احتمال زیاد تری هستند به همان «سطل» در حافظه نگاشت شوند (تعداد سطل‌ها کوچکتر از تعداد آیتم‌های ورودی ممکن است). اغلب در جستجو نزدیک‌ترین همسایه بر روی داده‌هایی با تعداد زیاد و در مقیاس بزرگ کاربرد دارد. به عنوان مثال، پایگاه‌های داده تصاویر، مجموعه اسناد، پایگاه‌های داده سری زمانی، و پایگاه‌های داده ژنوم استفاده می‌شود.[۲]

یک رویکرد رایج در یادگیری مشابه، مدل‌سازی تابع شباهت به صورت یک فرم دوخطی است. برای مثال، در مورد یادگیری مشابه: رتبه‌بندی شده، هدف یادگیری ماتریسی مانند W داست که تابع مشابه   را پارامتری می‌کند. . هنگامی که داده‌های فراوانی وجود دارد، یک روش دیگر یادگیری یک شبکه سیامی است - یک مدل شبکه عمیق با به اشتراک گذاری پارامترها.

یادگیری متریک ویرایش

یادگیری مشابه ارتباط نزدیکی با یادگیری متریک از راه دور دارد. وظیفه یادگیری متریک این است که میزان شباهت بین نمونه‌ها را با استفاده از تابع فاصله محاسبه کند. یک تابع متریک یا فاصله باید از چهار چیز بدیهی پیروی کند: غیر منفی بودن، هویت غیرقابل تشخیص‌ها، تقارن و زیرجمع‌ها (یا نابرابری مثلث). در عمل، الگوریتم‌های یادگیری متریک شرط هویت غیرقابل تشخیص‌ها را نادیده می‌گیرند و شبه متریک را یادمی‌گیرند.

در نظر داشته باشید که وقتی اشیاء   برداری در   هستند و هر ماتریسی مانند   که نیمه مثبت معین و متقارن آن   است که شبه متریک فاصله را در فضای x از طریق فرمول 

بتوان تعریف کرد.

اما در حالتی دیگر وقتی که  یک ماتریس قطعی مثبت متقارن است،   یک متریک یا ستجه (تابع فاصله) به‌شمار می‌رود.

لازم است ذکر شود که، مانند هر ماتریس نیمه معین مثبت متقارن دیگری   می‌تواند به عنوان   نیز تجزیه و تحلیل شود فقط در زمانی که شرط‌های   و   برقرار باشند.

همچنین تابع فاصله   را که در بالا به آن اشاره کردیم می‌توان به صورت زیر نیز استفاده کرد:

  .

در نظر داشته باشید که فاصله   مطابق فاصله اقلیدسی (وابسته به هندسه اقلیدسی) بین بردارهای ویژگی   و   است.

علاوه بر فرمول‌های بالا، فرمول‌های بسیار دیگری نیز برای یادگیری متریک مطرح شده‌اند.[۳][۴] برخی از رویکردهای شناخته شده و معروف برای یادگیری متریک شامل یادگیری از مقایسه‌های نسبی است[۵] که بر اساس از دست دادن سه‌گانه، نزدیک‌ترین همسایه حاشیه بزرگ،[۶] یادگیری متریک نظری اطلاعات (ITML) هستند.[۷]

در آمار و ریاضیات، در بعضی مواقع ماتریس کوواریانس داده‌ها برای تعریف یک متریک فاصله به نام فاصله ماهالانوبیس استفاده می‌شود.

کاربردها ویرایش

یادگیری مشابه در بازیابی اطلاعات برای یادگیری رتبه‌بندی، در تأیید چهره یا شناسایی چهره،[۸][۹] و در سیستم‌های توصیه استفاده می‌شود. همچنین، بسیاری از رویکردهای یادگیری ماشینی بر معیارهای متریک تکیه دارند. این معیارها شامل یادگیری بدون نظارت مانند خوشه بندی است که اشیاء همانند و نزدیک به هم یا مشابه را با هم طبقه‌بندی می‌کند. همچنین شامل رویکردهای نظارت شده مانند الگوریتم K-نزدیکترین همسایه است که برای تصمیم‌گیری در مورد یک شی جدید نسبت به اشیاء نزدیک آن متکی است. پیشنهاد می‌شود که برای درک هرچه بهتر این رویکردها یادگیری متریک به عنوان یک مرحله پیش خوان مورد نظر قرار گیرد.

مقیاس پذیری ویرایش

یادگیری متریک ویادگیری مشابه به سادگی و با ابعاد فضای ورودی به صورت درجه دوم مورد مقیاس قرار می‌گیرند، همان‌طور که به راحتی می‌توان از روی فرم دو خطی بودن  متریک آموخته شده متوجه آن شد.

مقیاس بندی به ابعاد بالاتر را می‌توان با اعمال ساختار پراکندگی بر روی ماتریس مدل، همان‌طور که با HDSL,[۱۰] و با COMET انجام شد، به دست آورد.[۱۱]

جستارهای وابسته ویرایش

برای مطالعهٔ بیشتر ویرایش

برای کسب اطلاعات بیشتر در این موضوع، به بررسی‌های مربوط به یادگیری متریک و یادگیری مشابه که توسط بلت و همکارانش[۱۲] انجام شده و همچنین بررسی‌های کولیس[۱۳] مراجعه کنید. .

منابع ویرایش

  1. Gionis, Aristides, Piotr Indyk, and Rajeev Motwani. "Similarity search in high dimensions via hashing." VLDB. Vol. 99. No. 6. 1999.
  2. Rajaraman, A.; Ullman, J. (2010). "Mining of Massive Datasets, Ch. 3".
  3. A bot will complete this citation soon. Click here to jump the queue arXiv:[۱].
  4. Kulis, B. (2012). "Metric Learning: A Survey". Foundations and Trends in Machine Learning. 5 (4): 287–364. doi:10.1561/2200000019.
  5. Schultz, M.; Joachims, T. (2004). "Learning a distance metric from relative comparisons" (PDF). Advances in Neural Information Processing Systems. 16: 41–48.
  6. Weinberger, K. Q.; Blitzer, J. C.; Saul, L. K. (2006). "Distance Metric Learning for Large Margin Nearest Neighbor Classification" (PDF). Advances in Neural Information Processing Systems. 18: 1473–1480. Archived from the original (PDF) on 15 January 2011. Retrieved 26 June 2022.
  7. Davis, J. V.; Kulis, B.; Jain, P.; Sra, S.; Dhillon, I. S. (2007). "Information-theoretic metric learning". International Conference in Machine Learning (ICML): 209–216.
  8. Guillaumin, M.; Verbeek, J.; Schmid, C. (2009). "Is that you? Metric learning approaches for face identification" (PDF). IEEE International Conference on Computer Vision (ICCV).
  9. Mignon, A.; Jurie, F. (2012). "PCCA: A new approach for distance learning from sparse pairwise constraints" (PDF). IEEE Conference on Computer Vision and Pattern Recognition.
  10. Liu; Bellet; Sha (2015). "Similarity Learning for High-Dimensional Sparse Data" (PDF). International Conference on Artificial Intelligence and Statistics (AISTATS). arXiv:1411.2374. Bibcode:2014arXiv1411.2374L. Archived from the original (PDF) on 23 February 2016. Retrieved 26 June 2022.
  11. Atzmon; Shalit; Chechik (2015). "Learning Sparse Metrics, One Feature at a Time" (PDF). J. Mach. Learn. Research (JMLR). Archived from the original (PDF) on 26 August 2016. Retrieved 26 June 2022.
  12. Bellet, A.; Habrard, A.; Sebban, M. (2013). "A Survey on Metric Learning for Feature Vectors and Structured Data". arXiv:1306.6709 [cs.LG].
  13. Kulis, B. (2012). "Metric Learning: A Survey". Foundations and Trends in Machine Learning. 5 (4): 287–364. doi:10.1561/2200000019.