اریب متغیرهای حذف‌شده: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
تمیزکاری
FreshmanBot (بحث | مشارکت‌ها)
جز اصلاح فاصله مجازی + اصلاح نویسه با استفاده از AWB
خط ۶:
دو خصوصیت در زمان بروز OVB در [[رگرسیون خطی]] باید وجود داشته باشد:{{سخ}}
 
# متغیر حذف شده باید عامل تعیین کنندهٔتعیین‌کنندهٔ [[متغیر وابسته]] باشد(این زمانی اتفاق می‌افتد که ضریب رگرسیونی مخالف صفر شود.)
# متغیر حذف شده باید با یک یا بیش از یک متغیر مستقل همبستگی داشته باشد.
 
اریب ناشی از متغیرهای حذف شده نوعی از اریب حداقل مربعات است. اگرچه یک معادلهٔ پیش گویانه (معادله‌ای که بدون یک یا چند متغیر مربوط و مناسب است) لزوماً اریب حداقل مربعات شدید ندارد ولی اکثراً این اریب افزایش می‌یابد.
 
در یک رگرسیون خطی، حداقل مربعات اریب متغیرهای حذف شده می‌تواند روی شیب و (یا) [[عرض از مبدا]] تخمین‌ها تاثیرگذارتأثیرگذار باشد.
 
متغیرهای حذف شده همچنین می‌توانند باعث بی اثربی‌اثر شدن استفاده از تکنیک رگرسیون خطی چندگانه شوند. این وقتی اتفاق می‌افتد که موضوع رگرسیون خطی مضاعف شامل A باشد که C را پیش بینیپیش‌بینی می‌کند ولی یک متغیر دیگر مثل B هم وجود داشته باشدکهباشد که موضوع ما شامل آن نیست ولی B هم C را پیش بینیپیش‌بینی کند.
همچنین اگر این متغیر حذف شده وجود می‌داشت مشخص می‌شد که A و B با هم پیش بینی کنندهٔبینی‌کنندهٔ قوی تری برای C نسبت به حالتی است که یکی از آنهاآن‌ها وجود داشته باشد.
 
== مثال‌هایی از نمره آزمون ==
۱. توانایی [[زبان انگلیسی]] (چنانچه دانش آموزان از آن به عنوان زبان دوم استفاده کنند) بطور حق بجانب روی نمره آزمون استاندارد شده تاثیرتأثیر می‌گذارد.Z عامل تعیین کنندهٔتعیین‌کنندهٔ Y است.
 
۲. اجتماع مهاجر گرایش به فراوانی کمتری دارند بنابراین هزینه‌های مدرسهٔ کمتر و STR بیشتری دارند: Z با X همبستگی دارد.
خط ۴۵:
: <math> Y = \left[ \begin{array}{c} y_1 \\ \vdots \\ y_n \end{array} \right],\quad Z = \left[ \begin{array}{c} z_1 \\ \vdots \\ z_n \end{array} \right],\quad U = \left[ \begin{array}{c} u_1 \\ \vdots \\ u_n \end{array} \right] \in \mathbb{R}^{n\times 1}.</math>
 
سپس از طریق محاسبات حداقل مربعات معمولی برآورد بردار پارامتر تخمین زده شده که فقط روی مقادیر مشاهده شدهٔ x اریب است و مقادیر مشاهده شدهٔ z درآن حذف شده بصورتبه صورت زیر بدست می‌آید:
 
:<math>\hat{\beta} = (X'X)^{-1}X'Y\,</math>
 
با در نظر گرفتن مدل خطی فرض شده بجایبه جای Y عبارت معادل را جایگزین می‌کنیم:
 
:<math>
خط ۶۱:
با گرفتن [[امید ریاضی]] از دو طرف معادله ترم آخر برابر صفر شده که این با توجه به صفر بودن امید ریاضی U حاصل می‌شود.
 
در نتیجه با ساده سازیساده‌سازی داریم:
 
:<math>
خط ۷۴:
اریب متغیرهای حذف شده یک مشکل جدی است و ثابت می‌شود ضرایب تخمین زده شده از مدل‌های مشخص دارای کمترین واریانس نااریب هستند. در حقیقت ما هیچوقت با یک مدل کاملاً تعیین شده و دقیق و متغیر حذف شدهٔ منفرد یا مجموعه‌ای از متغیرهای حذف شدهٔ منفرد روبرو نیستیم، بیشتر با مدلهایی روبرو هستیم که دربهترین حالت تقریب‌های مرتبه اول هستند و تصمیم‌هایی هستند که در خصوص زیر مجموعه‌ای از متغیرهای حذف شده‌اند.
 
تاثیرات عواملی از جمله یک زیر مجموعه در معادلهٔ رگرسیون وابسته به تاثیراتتأثیرات متغیرهای برون زا و درون زا است و به همبستگی بین آنهاآن‌ها بستگی دارد، همچنین وابسته به واریانس تمامی متغیر هاست.
 
با استفاده از متغیرهای کنترلی اضافه در تشخیص‌های خود، می‌توانیم به راحتی اریب ایجاد شده را شدیدتر کنیم. در نبود چنین علم بی پایانی به دیدگاهی نیاز داریم که ما را به یک کنترل تجربی متقاعد کنندهمتقاعدکننده برساند که در آن تاثیراتتأثیرات عوامل تضعیف کنندهتضعیف‌کننده کمتر باشد. جایگزین کردن طرحی برای کنترل، این کار را انجام می‌دهد. محدود کردن و متمرکز شدن و آزمون‌های کنترلی تئوریهای گسترده تا زمانی که قطعی نشده‌اند مشاهده‌ای را فراهم می‌کنند که متقاعدکننده تر از معادله رگرسیونی است که با نصف دوجین متغیر کنترلی، وزنی کمتر دارد و مشاهدهٔ متقاعد کنندهمتقاعدکننده اساس و پایهٔ علم است.
 
== منابع ==