امید ریاضی: تفاوت میان نسخهها
محتوای حذفشده محتوای افزودهشده
بدون خلاصۀ ویرایش برچسب: نیازمند بازبینی |
2 ویرایش 134.61.144.176 (بحث) واگردانی شد: امید ریاضی رایج است. (توینکل) |
||
خط ۱:
{{ویکیسازی}}
{{کاربردهای دیگر|امید (ابهامزدایی)}}
در [[نظریه
:<math>
خط ۹:
== تعریف ریاضی ==
<math>
خط ۲۴:
=== ثابتها ===
=== یکنوایی ===
خط ۳۰:
=== خطی بودن ===
عملگر
:<math>\operatorname{E}(X + c)= \operatorname{E}(X) + c\,</math>
:<math>\operatorname{E}(X + Y)= \operatorname{E}(X) + \operatorname{E}(Y)\,</math>
خط ۴۱:
===نامساوی===
اگر متغیر تصادفی ''X'' همواره کوچکتر یا مساوی متغیر تصادفی ''Y'' باشد،
اگر ''X''≤''Y'' آنگاه [E[X]≤E[Y
در یک حالت خاص اگر ''Y'' را با |''X''| مقایسه کنیم، میدانیم که ''X''≤''Y'' و ''X''≤''Y-''. پس میتوان نتیجه گرفت که [E[X] ≤ E[Y و
[E[-X] ≤ E[Y. بنا به خاصیت خطی
در نتیجه قدر مطلق
:<math>|\operatorname{E}(X)| \leq \operatorname{E}(|X|)</math>
خط ۶۶:
\operatorname{E}[X] = 1\cdot\frac16 + 2\cdot\frac16 + 3\cdot\frac16 + 4\cdot\frac16 + 5\cdot\frac16 + 6\cdot\frac16 = 3.5.
</math>
اگر
مثال 2- [[بازی رولت]] شامل یک توپ کوچک و یک چرخ با 38 پاکت شماره گذاری شده در اطراف لبۀ آن است. همانطور که این چرخ می چرخد، توپ به طور تصادفی به چرخش در می آید تا در یکی از این پاکت ها متوقف شود. فرض کنید متغیر تصادفی ''X'' جواب یک [[شرط بندی]] 1دلاری ( شرط مستقیم) رانشان دهد. اگر این شرط برنده شود (که با احتمال 1/38 اتفاق می افتد)، حاصل 35 دلار می شود. در غیر اینصورت بازیکن شرط را می بازد. سود مورد انتظار از این چنین شرطی به صورت زیر خواهد بود:
: <math>
خط ۱۱۳:
خطی بودن
عملگر مقدار مورد انتظار (یا عملگر
:<math>\operatorname{E}(X + c)= \operatorname{E}(X) + c\,</math>
:<math>\operatorname{E}(X + Y)= \operatorname{E}(X) + \operatorname{E}(Y)\,</math>
خط ۱۲۲:
:<math>\operatorname{E}(a X + b Y) = a \operatorname{E}(X) + b \operatorname{E}(Y)\,</math>
برای هر کدام از متغیر های تصادفی ''X''و ''Y'' (که باید در همان فضای احتمال تعریف شوند) و هر عدد <math>a</math>و <math>b</math>نتیجۀ بالا در نظر گرفته می شود.
برای هر کدام از متغیر های تصافی گسستۀ ''X'', ''Y'' ما ممکن است [[
:<math> \operatorname{E}(X|Y)(y) = \operatorname{E}(X|Y=y) = \sum\limits_x x \cdot \operatorname{P}(X=x|Y=y).</math>
که بدین معنی است E[''X''|''Y''](''y'') یک تابع''Y'' است.
پس
:<math>\operatorname{E}_Y\left[ \operatorname{E}_{X|Y=y}(x) \right]=</math>
خط ۱۵۵:
:<math>\operatorname{E}_X(x) = \operatorname{E}_Y\left[ \operatorname{E}_{X|Y=y}(x) \right].</math>
طرف راست معادله به
این پیش فرض در قانون کل
امید مکرر برای متغیر های تصادفی پیوسته
در مورد متغیر های پیوسته، نتایج ما کاملاً قابل قیاس هستند. تعریف
:<math>\operatorname{E}(X) = \operatorname{E} \left( \operatorname{E}(X|Y) \right).</math>
نابرابری ها
اگر یک متغیر تصادفی ''x'' همیشه کمتر یا مساوی با متغیر تصادفی دیگری ''Y'' باشد، پس
اگر {{nowrap|''X'' ≤ ''Y''}}, است، پس {{nowrap|E[''X''] ≤ E[''Y'']}}. است.
به ویژه، اگر y را با {{!}}''X''{{!}} منطبق کنیم، می دانیم {{nowrap|''X'' ≤ ''Y''}}و{{nowrap|−''X'' ≤ ''Y''}}. است. از اینرو ما می دانیم {{nowrap|E[''X''] ≤ E[''Y'']}} و {{nowrap|E[''-X''] ≤ E[''Y'']}}. با توجه به خطی بودن
:<math>|\operatorname{E}(X)| \leq \operatorname{E}(|X|)</math>
خط ۱۸۷:
مشاهده کنید که استقلال ''X'' و ''Y'' مورد نیاز است تا این معادله نوشته شود: {{nowrap|''j''(''x,y'') {{=}} ''ƒ''(''x'')''g''(''y'')}}, و این باید دومین تساوی بالا را ثابت کند. تساوی سوم از یک کاربرد اولیه و اصلی تئوری نوبینی-تونلی پیروی می کند.
ناوردایی تابعی
به طور کلی، عملگر
:<math>\operatorname{E}(g(X)) = \int_{\Omega} g(X)\, \operatorname{d}P \neq g(\operatorname{E}(X)),</math>
یک نا تساوی مهم برای این موضوع نا تساوی جنسن است، که شامل مقدار های مورد انتطار [[تابع محدب|تابع های محدب]] می شود.
خط ۱۹۳:
مقدار های مورد انتظار توان های ''X''گشتاور های ''X''می نامند؛ گشتاور ها نزدیک به میانگین ''X'' در واقع مقدار های مورد انتظار توان های {{nowrap|''X'' − E[''X'']}} هستند. گشتاور های بعضی از متغیر های تصادفی می توانند برای تعیین توزیع هایشان از طریق تابع تولیدی گشتاوریشان استفاده شوند.
برای تخمین تجربی مقدار مورد انتظار یک متغیر تصادفی، ما به طور پیوسته مشاهدات متغیر را [[اندازه گیری]] می کنیم و [[میانگین حسابی]] نتایج را محاسبه می کنیم. اگر مقدار مورد انتظار وجود دارد، این فرایند مقدار مورد انتظار حقیقی را با یک شیوۀ غیر تعصبی و غیر طرفدارانه را تخمین می زند و ویژگی به حداقل رساندن مجموع مربع های باقیمانده ها دارد (جمع تفاضل های مربع بین مشاهدات و تخمین) قانون اعداد بزرگ نشان داد که تحت شرایط نسبتاً مناسب، هنگامیکه اندازۀ نمونه بزرگتر می شود واریانس این تخمین کوچکتر می شود.
این ویژگی در بسیار از مصارف استفاده می شود مانند: مسائل کلی تخمین آماری و آموزش ماشین، بریا تخمین مقدار های (احتمالی) سود از طریق متود ها/روش های [[مونت کارلو]]، زیرا اکثر مقدار های (کمیت های) سود می تواند از لحاظ
در [[مکانیک کلاسیک]]، [[مرکز جرم]] یک مفهوم مشابه
مقدار های مورد انتظار می توانند همچنین برای محاسبۀ واریانس به وسیلۀ فرمول های محساباتی واریانس استفاده شوند.
:<math>\operatorname{Var}(X)= \operatorname{E}(X^2) - (\operatorname{E}(X))^2.</math>
|