درخت تصمیم: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
بدون خلاصۀ ویرایش
برچسب‌ها: متن دارای ویکی‌متن نامتناظر ویرایشگر دیداری
بدون خلاصۀ ویرایش
برچسب‌ها: متن دارای ویکی‌متن نامتناظر ویرایشگر دیداری
خط ۳۷:
 
== الگوریتم ساخت درخت تصمیم‌گیری ==
مجموع داده‌ها را با <math>D
اگر فرض کنیم داده‌های ما برابر است</math>نمایش بامی‌دهیم، یعنی <math>D = (x_1, y_1), \cdots, (x_i, y_i), \cdots, (x_n, y_n)</math>، به قسمی که <math>x_i \in R^d</math> و <math>y_i \in R</math>،. درخت تصمیم‌گیری بصورت بازگشتی سعی میکند داده‌ها را به قسمی از هم جدا کند که در هر گِرِه متغیرهای مستقلِ <math>y</math> به هم نزدیک باشندشده همسان شوند.<ref name=":0">{{یادکرد کتاب|نشانی=https://www.springer.com/us/book/9780387848570|عنوان=The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Second Edition|نام خانوادگی=Hastie|نام=Trevor|نام خانوادگی۲=Tibshirani|نام۲=Robert|نام خانوادگی۳=Friedman|نام۳=Jerome|تاریخ=2009|ناشر=Springer-Verlag|شابک=9780387848570|ویرایش=2|سری=Springer Series in Statistics|مکان=New York|زبان=en}}</ref> به طور دقیقتر در گره <math>m
</math> اگر داده ما <math>Q
</math> باشد سعی میکنیم یک بُعد از متغیرهایی وابسته را به همراه یک آستانه انتخاب کنیم و داده‌ها را برحسب این بُعد و آستانه به دو نیم تقسیم کنیم، به قسمی که بطور متوسط در هر دردو قسمتنیم متغیرهای مستقل یا <math>y</math> خیلی به هم نزدیک و همسان شده باشند. این بعد و آستانه را <math>\theta = (j, t_m)
 
</math> می‌نامیم. دامنه <math>j