درخت تصمیم: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
برچسب‌ها: متن دارای ویکی‌متن نامتناظر ویرایشگر دیداری
بدون خلاصۀ ویرایش
برچسب‌ها: متن دارای ویکی‌متن نامتناظر ویرایشگر دیداری
خط ۳۷:
 
== الگوریتم ساخت درخت تصمیم‌گیری ==
اگر فرض کنیم داده‌های ما برابر است با <math>D = (x_1, y_1), \cdots, (x_i, y_i), \cdots, (x_n, y_n)</math>، به قسمی که <math>x_i \in R^d</math> و <math>y_i \in R</math>، درخت تصمیم‌گیری بصورت بازگشتی سعی میکند داده‌ها را به قسمی از هم جدا کند که در هر گروه متغیرهای مستقلِ <math>y</math> به هم نزدیک باشند.<ref name=":0">{{یادکرد کتاب|نشانی=https://www.springer.com/us/book/9780387848570|عنوان=The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Second Edition|نام خانوادگی=Hastie|نام=Trevor|نام خانوادگی۲=Tibshirani|نام۲=Robert|نام خانوادگی۳=Friedman|نام۳=Jerome|تاریخ=2009|ناشر=Springer-Verlag|شابک=9780387848570|ویرایش=2|سری=Springer Series in Statistics|مکان=New York|زبان=en}}</ref> به طور دقیقتر در گره <math>m
</math> اگر داده ما <math>Q
</math> باشد ما سعی میکنیم یک بُعد از متغیرهایی وابسته را به همراه یک آستانه انتخاب کنیم و داده‌ها را برحسب این بُعد و آستانه به دو نیم تقسیم کنیم، به قسمی که در هر در قسمت متغیرهای مستقل یا <math>y</math> خیلی به هم نزدیک باشند. این بعد و آستانه را <math>\theta = (j, t_m)
خط ۵۰:
</math> به دو بخش <math>Q_{left}(\theta)
</math> و <math>Q_{right}(\theta)
</math>به شکل پایین تقسیم می شود<ref name=":0" />:
 
<math>\begin{align}