هرس کردن درخت جستجو

هرس روشی در یادگیری ماشین است که باعث کاهش اندازه درخت‌های تصمیم‌گیری با از بین بردن بخشهایی از درخت است که قدرت کمی برای طبقه‌بندی نمونه‌ها دارند. هرس باعث کاهش پیچیدگی طبقه‌بندی کنندهٔ نهایی می‌شود و از این رو باعث بهبود دقت پیش بینی و کاهش بیش برازش می‌شود.

مقدمهویرایش

یکی از پرسش‌هایی که در یک درخت تصمیم‌گیری مطرح می‌شود اندازه بهینه درخت نهایی است. یک درخت که بیش از حد بزرگ است خطرات بیش برازش بر روی داده‌های آموزش را دارد و قدرت تعمیم آن به نمونه‌های جدید ضعیف است. از سوی دیگر یک درخت کوچک ممکن است نتواند ساختارهای مهم اطلاعاتی در مورد فضای نمونه ای را پوشش بدهد. اما تصمیم‌گیری در ارتباط با اینکه چه زمانی باید الگوریتم یک درخت متوقف شود، کار دشواری است. چرا که مشخص کردن اینکه آیا افزودن گره اضافی به درخت به کاهش خطا منجر خواهد شد غیرممکن است. این مشکلی است که تحت عنوان اثر افقی (به انگلیسی: horizon effect) شناخته شده‌است. یک استراتژی مشترک این است که به رشد درخت ادامه می‌دهیم تا زمانی که هر گره دربرگیرندهٔ تعداد کمی از نمونه‌ها باشد، و سپس با استفاده از هرس گره‌های که ارائه اطلاعات اضافی دربر ندارند را حذف می‌کنیم.[۱]

منابعویرایش

  1. Trevor Hastie, Robert Tibshirani, and Jerome Friedman.

برای مطالعهٔ بیشترویرایش

پیوند به بیرونویرایش