امید ریاضی: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
بدون خلاصۀ ویرایش
جز ←‏جایگزینی با [[وپ:اشتباه|اشتباه‌یاب]]: پیشنهادات⟸پیشنهادها، راه حلهاو پیشنهادات⟸راه حل‌ها و پیشنهادها، امیدریاضی⟸امید ریاضی، انتگرالگ...
خط ۴۲:
 
در یک حالت خاص اگر ''Y'' را با |''X''| مقایسه کنیم، می‌دانیم که ''X''≤''Y'' و ''X''≤''Y-''. پس می‌توان نتیجه گرفت که [E[X] ≤ E[Y و
[E[-X] ≤ E[Y. بنا به خاصیت خطی امیدریاضیامید ریاضی داریم [E[X] ≤ E[Y-.
 
در نتیجه قدر مطلق امیدریاضیامید ریاضی یک متغیر تصادفی، کوچکتر یا مساوی امیدریاضیامید ریاضی قدر مطلق متغیر تصادفی است.
 
:<math>|\operatorname{E}(X)| \leq \operatorname{E}(|X|)</math>
خط ۷۲:
\operatorname{E}[X] = \sum_{i=1}^\infty x_i\, p_i,
</math>
مشروط بر اینکه این سری مطلقاً همگرا است (که این جمع باید در صورتی متناهی باشد که ما همهٔ ''x{{su|b=i}}'''s را با مقادیر قدرمطلقشان جایگزین کنیم). اگر این سری مطقاًمطلقاًً همگرا نباشد می گوئیم که مقدار مورد انتظار ''X'' وجود ندارد.
برای مثال فرض کنید که متغیر تصادفی X شامل مقادیر ۱, −۲, ۳, −۴, … به ترتیب با احتمالات {{frac2|''c''|1<sup>2</sup>}}, {{frac2|''c''|2<sup>2</sup>}}, {{frac2|''c''|3<sup>2</sup>}}, {{frac2|''c''|4<sup>2</sup>}}, … ,باشد که {{nowrap|''c'' {{=}} {{frac2|6|''π''<sup>2</sup>}}}} یک ثابت نرمالیزه است که مطمئن می‌سازد که مجموع احتمالات برابر یک است. پس جمع متناهی زیر همگرا است و جمعش برابر {{nowrap|[[لگاریتم طبیعی|ln]](2) ≃ ۰٫۶۹۳۱۵}}. می‌باشد:
: <math>
خط ۹۲:
:<math>\operatorname{E}(g(X)) = \int_{-\infty}^\infty g(x) f(x)\, \operatorname{d}x .</math>
 
بعضی مواقع به این قانون آماری ناخودآگاه می‌گویند. بااستفاده از نمایش‌ها به صورت [[انتگرال ریمان]] – استیلتجس و انتگرالگیریانتگرال‌گیری جزئی می‌توان این فرمول را به صورت زیر دوباره بیان کرد:
* <math>\operatorname{E}(g(X)) = \int_a^\infty g(x) \, \mathrm{d} \operatorname{P}(X \le x)= g(a)+ \int_a^\infty g'(x)\operatorname{P}(X> x) \, \mathrm{d} x</math> if <math>\operatorname{P}(g(X) \ge g(a))=1</math>,
* <math>\operatorname{E}(g(X)) = \int_{-\infty}^a g(x) \, \mathrm{d} \operatorname{P}(X \le x)= g(a)- \int_{-\infty}^a g'(x)\operatorname{P}(X \le x) \, \mathrm{d} x</math> if <math>\operatorname{P}(g(X) \le g(a))=1</math>.
خط ۱۵۶:
:<math>\operatorname{E}(X) = \operatorname{E} \left( \operatorname{E}(X|Y) \right).</math>
نابرابری‌ها
اگر یک متغیر تصادفی ''x'' همیشه کمتر یا مساوی با متغیر تصادفی دیگری ''Y'' باشد، پس امید ریاضی (یامقداریا مقدار مورد انتظار) کمتر یا مساوی با مقدار مورد انتظار ''Y'' است.
اگر {{nowrap|''X'' ≤ ''Y''}}, است، پس {{nowrap|E[''X''] ≤ E[''Y'']}}. است.
به ویژه، اگر y را با {{!}}''X''{{!}} منطبق کنیم، می‌دانیم {{nowrap|''X'' ≤ ''Y''}}و{{nowrap|−''X'' ≤ ''Y''}}. است. از اینرو ما می‌دانیم {{nowrap|E[''X''] ≤ E[''Y'']}} و {{nowrap|E[''-X''] ≤ E[''Y'']}}. با توجه به خطی بودن امید ریاضی ما می‌دانیم {{nowrap|-E[''X''] ≤ E[''Y'']}} است. از اینرو، مقدار مطلق امید ریاضی یک متغیر تصادفی کمتر یا مساوی با مقدار مطلق آن است:
خط ۱۸۴:
به طور کلی، عملگر امید ریاضی و تابع‌های متغیرهای تصادفی تبدیل نیم شوند یعنی:
:<math>\operatorname{E}(g(X)) = \int_{\Omega} g(X)\, \operatorname{d}P \neq g(\operatorname{E}(X)),</math>
یک نا تساوی مهم برای این موضوع نا تساوی جنسن است، که شامل مقدارهای مورد انتطارانتظار [[تابع محدب|تابع‌های محدب]] می‌شود.
استفاده‌ها و کاربردها
مقدارهای مورد انتظار توان‌های ''X''گشتاورهای ''X''می‌نامند؛ گشتاورها نزدیک به میانگین ''X'' در واقع مقدارهای مورد انتظار توان‌های {{nowrap|''X'' − E[''X'']}} هستند. گشتاورهای بعضی از متغیرهای تصادفی می‌توانند برای تعیین توزیع هایشان از طریق تابع تولیدی گشتاوریشان استفاده شوند.
خط ۱۹۰:
این ویژگی در بسیار از مصارف استفاده می‌شود مانند: مسائل کلی تخمین آماری و آموزش ماشین، بریا تخمین مقدارهای (احتمالی) سود از طریق متود ها/روش‌های [[مونت کارلو]]، زیرا اکثر مقدارهای (کمیت‌های) سود می‌تواند از لحاظ امید ریاضی نوشته شوند یعنی، در اینجا تابع شاخصی برای مجموعهٔ است.
در [[مکانیک کلاسیک]]، [[مرکز جرم]] یک مفهوم مشابه امید ریاضی است. برای مثال، فرض کنید ''X'' یک متغیر تصادفی گسسته با مقدارهای ''x<sub>i</sub>'' و احتمالات مرتبط ''p<sub>i</sub>'' است، حالا یک میلهٔ بدون وزن که بر روی آن وزن‌ها در موقعیت‌های ''x<sub>i</sub>'' در طول میله قرار گرفته‌اند و جرم آنها ''p<sub>i</sub>'' است (که مجموع آنها یک است) نقطه که در آن میله متعادل E[''X''] است.
مقدارهای مورد انتظار می‌توانند همچنین برای محاسبهٔ واریانس به وسیلهٔ فرمول‌های محساباتیمحاسباتی واریانس استفاده شوند.
:<math>\operatorname{Var}(X)= \operatorname{E}(X^2) - (\operatorname{E}(X))^2.</math>
 
خط ۲۵۰:
</math>
و کروشهٔ آن به صفر می‌رسد چون <math>1-F(x) = o(1/x) </math> به طوری که <math>x \to \infty</math>.
* با استفاده از یک مبادله در مرتبهٔ انتگرالگیریانتگرال‌گیری:
:<math>
\int_0^\infty P(X\ge x)\;dx =\int_0^\infty \int_x^\infty f_X(t)\;dt\;dx = \int_0^\infty \int_0^t f_X(t)\;dx\;dt = \int_0^\infty t f_X(t)\;dt = \operatorname{E}(X)
خط ۲۶۱:
</math>
تاریخ
نظریهٔ مقدارموردمقدار انتظاردرمورد انتظار در اواسط [[قرن هفدهم]] از مطالعه مشکل معروف امتیازات منشأ گرفته است. مشکل این بود: چگونه باید پولهای شرط‌بندی شده را به طور عادلانه بین دو بازیکنی که قبل از اینکه بازی کاملاً تمام شود مجبور هستند بازی را تمام کنند تقسیم کرد؟ این مشکل [[قرن‌ها]] مورد بحث وبررسی قرار گرفت و راه حلهاو پیشنهاداتپیشنهادها جنگجالجنجال برانگیز زیادی پیشنهاد شدند. این نظریه برای اولین بار توسط یک [[نجیب زاده]] ی فرانسوی دو مر((de Mere در سال ۱۶۵۴ به [[بلیز پاسکال]] ارائه شد. دو مر اظهار نظر کرد که این مشکل نمی‌تواند حل شود و این نشان می‌دهد ریاضی نمی‌تواند در دنیای واقعی استفاده شود و کمبود دارد. پاسکال، که یک ریاضیدان است، برانگیخته شد و تصمیم گرفت این مشکل را برای همیشه حل کند. اولین موضوع را از طریق نامه‌های معروفی با پیر دو فرمات (Pierre de fermat) در میان گذاشت. بعد از مدت زمان کوتاهی هر دوی آنها به دو راه حل مجزا رسیدند. آنها این مشکل را با دو راه حل محاسباتی متفاوت حل کردند، اما نتیجهٔ آنها یکسان بود زیرا محاسبات شان بر اساس اصول پایه و اساسی یکسانی بود. این اصل پایه این بود که مقدار یک یود آینده باید مستقیماً با شانس به دست آوردن آن مساوی باشد. این اصل به نظر هر دوی آنها کاملاً طبیعی بود. آنها از اینکه به راه حل رسیده بودند بسیار خوشحال بودند و از اینرو این باعث شد آنها متقاعد شوند بالاخره انی شکل را توانسته‌اند حل کنند. با این حال آنها یافته هایشان را منتشر نکردند. آنها تنها به تعدادی از دوستان مشترک محققانشان در پاریس اطلاع دادند. سه سال بعد در سال ۱۶۵۷ یک [[ریاضی‌دان]] آلمانی کریستیان هیگنز، که به پاریس سفر کرده بود، یک مقاله در مورد نظریهٔ احتمال با نام (de ratiociniis in ludo ale) چاپ کرد. در آن مقاله هیگنز مسئله امتیازات را در نظر گرفته بود و یک راه حل بر اساس همان اصلی که پاسکال و فرمات دنبال کرده بودند پیشنهاد کرد. او همچنین نظریه امید را با اضافه کردن قوانین مربوط به چگونه محاسبه کردن امیدها در موقعیت‌های پیچیده‌تر از مسئلهٔ اصلی، گسترش داد. هینگز در مقدمهٔ مقاله اش نوشت: باید گفته شود که بریا بعضی مواقع، بعضی از بهترین [[ریاضی دانان]] از فرانسه قبلاً به حل آن پرداخته بودند بنابراین هیچ‌کس نباید افتخار ابداع این نظریه را به من نسبت دهد. این به من تعلق ندارد. اما انی دانشمندان، اگر چه هر دو یکدیگر را از طریق پرسیدن سوالات دشوار از یکدیگر در معرض آزمایش قرار داده بودند ولی روش هایشان را از هم پنهان کرده بودند. از اینرو من از همان [[اصول اولیه]] شروع کردم تا به حل این مسئله رسیدم و بدین دلیل غیرممکن است تأیید کنم که از همان اصول آنها آغاز به کار کردم. اما در نهایت من در بسیاری از موارد بدین نتیجه رسیدم که پاسخ‌هایم با آنها متفاوت هستند. از اینرو هیگنز در طی سفرش به فرانسه از اظهار نظر دومر در سال ۱۶۵۵ مطلع شد، بعداً در سال ۱۶۵۶ از طریق ارتباط با کارکاوی دریافت که روش او کاملاً همانند پاسکال است، بنابراین قبل از اینکه مقاله اش برای چاپ برود، او از ارجحیت و پیش قدمی پاسکال در این زمینه آگاه بود.
پاسکال و هیگنز هیچ‌کدام کلمهٔ امید را با مفهوم امروزی استفاده نکردند. به خصوص شانس یا امید من برای بردن هر چیزی مساوی با به دست نیاوردن آن است… اگر من انتظار دارم a یا b را به دست بیاورم، شانس بدست آوردن هر کدام از آنها مساوی است، مقدار امید من (a+b)/2 است. بیش از صد سال قبل، در سال ۱۸۱۴ پیرسایمون لاپلاس مقالهٔ خود را با عنوان "Théorie analytique des probabilités" منتشر کرد، در آنجا مفهوم مقدار مورد انتظار (یا امید ریاضی) به طور واضح توضیح داده شد.
استفاده از حرف E به معنی مقدار مورد انتظار است که به نظریهٔ انتخاب و شانس دابیلیو. ای وایت ورت بر می‌گردد این سمبل در زمانی که بریا همهٔ نویسندگان انگلیسی، آلمانی و فرانسوی E به معنی انتظار شد.