بوت‌استرپینگ (آمار): تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
S.MahdiRazavi (بحث | مشارکت‌ها)
بدون خلاصۀ ویرایش
S.MahdiRazavi (بحث | مشارکت‌ها)
بدون خلاصۀ ویرایش
خط ۴۲:
در این حالت تعداد کمی از نویزهای تصادفی با مرکز صفر (معمولا دارای توزیع نرمال) به هر بازنمونه اضافه میشوند. این معادل نمونه برداری از یک تخمین [[kernel density]] از داده ها است.
 
===بوت استرپ پارامتری===
در این حات یک مدل پارامتری به داده ها برازش میشود ،معمولا با استفاده از درستنمایی ماکزیمم، و نمونه های اعداد تصادفی از این مدل برازش شده بیرون کشیده میشوند. معمولا نمونه های بیرون کشیده شده اندازه ای برابر با اندازه داده ها اصلی دارند.
سپس کمیت یا تخمین آماره ی مورد نظر از این داده ها بدست می آید. و همانند دیگر روشهای بوت استرپ این کار چندین بار تکرار میشود. استفاده از بوت استرپ در این گونه موارد منجر به روشهایی میشود که متفائت اند با روشهای استنباط آماری پایه برای همین مدل.
 
===بازنمونه گیری باقیمانده ها===
 
روش دیگر بوت استرپینگ در مسائل رگرسیون بازنمونه گیری از [http://en.wikipedia.org/wiki/Errors_and_residuals_in_statistics باقیمانده ها] است. این روش به شکل زیر است:
#مدل را برازش کن و مقادیر <math>\hat y_i</math> و باقیمانده ها <math>\hat{\epsilon}_i = y_i - \hat{y}_i, (i = 1,\dots, n)</math>.
را بازیابی کن.
# به ازای هر جفت, (''x<sub>i</sub>'', ''y<sub>i</sub>''), که در آن ''x<sub>i</sub>'' متغیر توضیحی است،یک بازنمونه تصادفی باقیمانده اضافه کن ،<math>\hat{\epsilon}_j</math>، به جواب متغیر ''y<sub>i</sub>''.به بیان دیگر متغیرهای ساختگی جواب <math>y^*_i = \hat{y}_i + \hat{\epsilon}_j</math> را که در آن ''j'' متغیر تصادفی انتخاب شده از لیست (1, …, ''n'') است به ازای هر ''i''.
# مدل را مجددا برازش کن با استفاده از متغیرهای ساختگی ''y*<sub>i</sub>'' و بازیابی کمیتهای مورد نظر
# مراحل 2و 3 را به تعدادی که از نظر آماری معنی دار باشد تکرار کنید.
 
===پروسه گوسی رگرسیون بوت استرپ ===
===بوت استرپ ریسکی (wild) ===
===بوت استرپ بلاک متحرک===
==انتخاب آماره- گردان==
== منابع ==
{{پانویس}}