بوتاسترپینگ (آمار): تفاوت میان نسخهها
محتوای حذفشده محتوای افزودهشده
جز ربات: حذف میانویکی موجود در ویکیداده: ۱۱ میانویکی |
جز ربات: تصحیح پیوند به پروژههای خواهر و تبدیل کردن پیوندها به خنثی در برابر پروتکل |
||
خط ۴۴:
=== بازنمونه گیری باقیماندهها ===
روش دیگر بوت استرپینگ در مسائل رگرسیون بازنمونه گیری از [
# مدل را برازش کن و مقادیر <math>\hat y_i</math> و باقیماندهها <math>\hat{\epsilon}_i = y_i - \hat{y}_i, (i = 1,\dots, n)</math>.
را بازیابی کن.
خط ۶۶:
* تولید نمونههای بوت استرپ از آمارهٔ جدید (میانگین تقسیم بر انحراف معیار نمونه)، ساخت یک فاصلهٔ اطمینان برای این، سپس فاصلهٔ اطمینان نهایی برای میانگین از ضرب کردن نقاط انتهایی از فاصلهٔ اطمینان اولیه در انحراف معیار نمونهای از نمونهٔ اصلی به دست میآید.
تایج متفاوت خواهند بود و نتایج شبیه سازی نشان میدهند که روش دوم بهتر است. این روش به نوعی میتواند از روش پارامتریک استاندارد برای توزیعهای نرمال منتج شود البته کمی عمومی تر. ایده این است که از یک کمیت محوری(pivotal quantity) استفاده شود، یا اینکه آمارهای که تقریبا محوری باشد پیدا شود. همچنین بد نیست که نگاهی به[
== نتیجه گیری فاصلههای اطمینان از توزیع بوت استرپ ==
خط ۸۴:
== مثالهایی از کاربردها ی بوت استرپ ==
=== کاربردهایی مربوط به تست [
بوت استرپینگ یکی از مشهورترین متدهای آزمایش meidation است <ref>Preacher, K. J. , & Hayes, A. F. (2004). SPSS and SAS procedures for estimating indirect effects in simple mediation models. Behavior Research Methods, Instruments, and Computers, 36, 717–731 [http://www.comm.ohio-state.edu/ahayes/sobel.htm Macros for SAS and SPSS]</ref>. زیرا نیاز به فرض نرمال بودن ندارد و بعلاوه از آن میتوان در مواردی که اندازهٔ نمونه کوچک است استفاده کرد (N < 20).
خط ۱۰۴:
* پروسهٔ جک نایف (jackknife)، استفاده شده برای تخمین اریبی آمارههای نمونه و برای تخمین واریانس.
* وارسی اعتبار (cross-validation)، که در آن پارامترها (مثل وزنهای رگرسیون) در یک زیرنمونه تخمین زده میشوند و به زیرنمونهها تسری داده میشوند.
برای اطلاعات بیشتر به [
== یو-آمارهها (U-Statistics) ==
|