امید ریاضی: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
MammothBot (بحث | مشارکت‌ها)
←‏top: در صفحه‌ای با عنوان غیراصلی نیازی به سرنویس دیگر کاربردها نیست. با استفاده از AWB
جز تمیزکاری، + ماژول ابرابزار با استفاده از AWB
خط ۲۱:
 
== ویژگی‌ها ==
 
=== ثابت‌ها ===
امید ریاضی یک عدد ثابت برابر با همان عدد ثابت است؛ یعنی اگر <math> c </math> عددی ثابت باشد، آنگاه: <math> \operatorname{E}(c)=c </math>.
سطر ۲۹ ⟵ ۲۸:
 
=== خطی بودن ===
عملگر امید ریاضی خطی است یعنی برای هر دو متغیر تصادفی <math>X</math> و <math>Y</math> و هر [[عدد حقیقی]] <math>a</math> و <math>b</math> و <math>c</math> داریم :
:<math>\operatorname{E}(X + c)= \operatorname{E}(X) + c\,</math>
:<math>\operatorname{E}(X + Y)= \operatorname{E}(X) + \operatorname{E}(Y)\,</math>
سطر ۳۸ ⟵ ۳۷:
 
=== میانگین احتمال شرطی ===
=== نامساوی ===
 
===نامساوی===
اگر متغیر تصادفی ''X'' همواره کوچکتر یا مساوی متغیر تصادفی ''Y'' باشد، امید ریاضی ''X'' کوچکتر یا مساوی امید ریاضی ''Y'' خواهد بود:
 
اگر ''X''≤''Y'' آنگاه [E[X]≤E[Y
 
در یک حالت خاص اگر ''Y'' را با |''X''| مقایسه کنیم، میدانیممی‌دانیم که ''X''≤''Y'' و ''X''≤''Y-''. پس میتوانمی‌توان نتیجه گرفت که [E[X] ≤ E[Y و
[E[-X] ≤ E[Y. بنا به خاصیت خطی امیدریاضی داریم [E[X] ≤ E[Y-.
 
سطر ۵۱ ⟵ ۴۹:
:<math>|\operatorname{E}(X)| \leq \operatorname{E}(|X|)</math>
 
==== تعریف ====
متغیر تصادفی گسسته، حالت متناهی فرض کنید که متغیر تصادفی X بتواند مقدار ''x''<sub>1</sub>با احتمال ''p''<sub>1</sub>, مقدار ''x''<sub>2</sub> با احتمال ''p''<sub>2</sub>, و غیره تا مقدار ''x<sub>k</sub>'' با احتمال ''p<sub>k</sub>'' را بگیرد. پس امید انی متغیر تصادفی X به صورت زیر تعریف می شودمی‌شود:
: <math>
\operatorname{E}[X] = x_1p_1 + x_2p_2 + \ldots + x_kp_k \;.
</math>
چون جمع همۀهمهٔ احتمالات ''p<sub>i</sub>'' برابر یک است ''p''<sub>1</sub> + ''p''<sub>2</sub> + ... + ''p<sub>k</sub>'' = 1۱ ( بنابر این می توانمی‌توان مقدار مورد انتظار را به صورت میانگین وزن دار به همراه ''p<sub>i</sub>''’sهایی که وزن هستند دید:
: <math>
\operatorname{E}[X] = \frac{x_1p_1 + x_2p_2 + \ldots + x_kp_k}{p_1 + p_2 + \ldots + p_k} \;.
</math>
اگر همۀهمهٔ جواب هایجواب‌های ''x<sub>i</sub>'' دارای احتمال یکسان باشند (یعنی ''p''<sub>1</sub> = ''p''<sub>2</sub> = ... = ''p<sub>k</sub>''), پس میانگین وزن دار به میانگین ساده تبدیل می شودمی‌شود. این شهودی است: مقدار مورد انتظار یک متغیر تصادفی میانگین همۀهمهٔ مقادیری است که می توانمی‌توان گرفت؛ بنابراین، این مقدار مورد انتظار، مقداری است که شما انتظار دارید روی میانگین اتفاق بیفتد. اگر جواب هایجواب‌های ''x<sub>i</sub>'' هم احتمال نباشند، بنابراین ممکن است میانگین ساده جایگزین میانگین وزن دار (که بعضی از جواب هایجواب‌های محتمل تر از بقیه را در نظر می گیردمی‌گیرد) شود.شود؛ ولی با این حال این شهود و کشف به همین صورت باقی می ماندمی‌ماند: مقدار مورد انتظار X، مقداری است که انتظار می رودمی‌رود روی میانگین اتفاق بیفتد.
مثال 1۱- فرض کنید ''X'' جواب یک تاس شش گوشه را نشان دهد. ''X''تعداد خال هایخال‌های روی وجه بالایی تاس بعد از پرتاب است می باشدمی‌باشد. مقادیر ممکن برای ''X''، ۱، ۲، ۳، ۴، 5و6۵و۶ (که همگی دارای احتمال برابر 1۱/6۶ هستند) می باشندمی‌باشند. امید ''X''برابر است با:
: <math>
\operatorname{E}[X] = 1\cdot\frac16 + 2\cdot\frac16 + 3\cdot\frac16 + 4\cdot\frac16 + 5\cdot\frac16 + 6\cdot\frac16 = 3.5.
</math>
اگر تاس ''n'' بار پرتاب شود و میانگین نتایج محاسبه شوند پس با افزایش ''n'' ، میانگین به مقدار مورد انتظار همگرا خواهد بود. به این موضوع قانون قوی مقادیر بزرگ می گویندمی‌گویند. برای مثال دنبالۀدنبالهٔ ده تاس به صورت 2۲, 3۳, 1۱, 2۲, 5۵, 6۶, 2۲, 2۲, 2۲, 6۶ است که میانگین آنها برابر 3.1۳٫۱ با فاصلۀفاصلهٔ 0.4۰٫۴ از مقدار مورد انتظار 3۳٫۵ می‌باشند.5 می باشند.همگرایی نسبتاً پائین است. احتمالی که میانگین در بین محدودۀمحدودهٔ 3.5۳٫۵ ± 0.1۰٫۱ افت می کندمی‌کند برای ده پرتاب 21.6%۲۱٫۶٪ و برای هزار پرتاب 93.7%۹۳٫۷٪ است. شکل که برای توضیح میانگینمیانگین‌های هایدنباله‌های دنباله های طولانی تر پرتابطولانی‌تر هاپرتاب‌ها نشان داده شده را ببینید و توجه کنید که چطور آنها به مقدار مورد انتظار 3.5۳٫۵ همگرا می شوندمی‌شوند. عموماً نسبت همگرایی را می توانمی‌توان از طریق مثلاً [[نامساوی چبیشف]] و نظریۀنظریهٔ بری-اسن (Berry-Esseen theorem) به سختی کمی کرد.
مثال 2۲- [[بازی رولت]] شامل یک توپ کوچک و یک چرخ با 38۳۸ پاکت شماره گذاری شده در اطراف لبۀلبهٔ آن است. همانطورهمان‌طور که این چرخ می چرخد،می‌چرخد، توپ به طور تصادفی به چرخش در می آیدمی‌آید تا در یکی از این پاکت هاپاکت‌ها متوقف شود. فرض کنید متغیر تصادفی ''X'' جواب یک [[شرط بندیشرط‌بندی]] 1دلاری۱دلاری ( شرط مستقیم) رانشان دهد. اگر این شرط برنده شود (که با احتمال 1۱/38۳۸ اتفاق می افتدمی‌افتد)، حاصل 35۳۵ دلار می شودمی‌شود. در غیر اینصورت بازیکن شرط را می بازدمی‌بازد. سود مورد انتظار از این چنین شرطی به صورت زیر خواهد بود:
: <math>
\operatorname{E}[\,\text{gain from }$1\text{ bet}\,] =
-$1 \cdot \frac{37}{38}\ +\ $35 \cdot \frac{1}{38} = -$0.0526.
</math>
متغیر تصادفی گسسته، حالت قابل شمارش فرض کنید''X''یک متغیر تصادفی گسسته ایگسسته‌ای باشد که مقادیر ''x''{{su|b=1}}, ''x''{{su|b=2۲}}, ... به ترتیب با احتمالاتاحتمالات، ,''p''{{su|b=1}}, ''p''{{su|b=2۲}}, ... را در خود می گیردمی‌گیرد. پس مقدار مورد انتظار این متغیر تصادفی جمع متناهی زیر می باشدمی‌باشد:
: <math>
\operatorname{E}[X] = \sum_{i=1}^\infty x_i\, p_i,
</math>
مشروط بر اینکه این سری مطلقاً همگرا است (که این جمع باید در صورتی متناهی باشد که ما همۀهمهٔ ''x{{su|b=i}}'''s را با مقادیر قدرمطلقشان جایگزین کنیم). اگر این سری مطقاً همگرا نباشد می گوئیم که مقدار مورد انتظار ''X'' وجود ندارد.
برای مثال فرض کنید که متغیر تصادفی X شامل مقادیر 1۱, −2−۲, 3۳, −4−۴, ... به ترتیب با احتمالات {{frac2|''c''|1<sup>2</sup>}}, {{frac2|''c''|2<sup>2</sup>}}, {{frac2|''c''|3<sup>2</sup>}}, {{frac2|''c''|4<sup>2</sup>}}, ...,باشد که {{nowrap|''c'' {{=}} {{frac2|6|''π''<sup>2</sup>}}}} یک ثابت نرمالیزه است که مطمئن می سازدمی‌سازد که مجموع احتمالات برابر یک است. پس جمع متناهی زیر همگرا است و جمعش برابر {{nowrap|[[لگاریتم طبیعی|ln]](2) ≃ 0.69315۰٫۶۹۳۱۵}}. می باشدمی‌باشد:
: <math>
\sum_{i=1}^\infty x_i\,p_i = c\,\bigg( 1 - \frac{1}{2} + \frac{1}{3} - \frac{1}{4} + \ldots \bigg)
</math>
با این حال صحیح نیست که ادعا کنیم مقدار مورد انتظار X با این مقدار برابر است در حقیقت E[''X''] وجود ندارد جون این سری مطلقاً همگرا نیست (سری هایسری‌های هارمونیک را ببیند).
 
==== متغیر تصادفی پیوسته یک متغیره ====
اگر [[توزیع احتمال]] ''X'' در یک تابع چگالی احتمال ''f''(''x''), صدق کند پس می توانمی‌توان مقدار مورد انتظار را به صورت زیر محاسبه کرد:
: <math>
\operatorname{E}[X] = \int_{-\infty}^\infty x f(x)\, \operatorname{d}x .
</math>
تعریف عمومی
عموماً اگر ''X''یک متغیر تصادفی تعریف شده روی یک فضای احتمال {{nowrap|(Ω, Σ, ''P'')}}, باشد پس مقدار مورد انتظار X (که به صورت E[''X''], {{nowrap|<''X''>}}, <span style="text-decoration:overline">''X''</span> or '''E'''[''X''], مشخص می شودمی‌شود) به صورت انتگرال لبسگو تعریف می شودمی‌شود:
:<math>\operatorname{E}[X] = \int_\Omega X\, \operatorname{d}P = \int_\Omega X(\omega)\, P(\operatorname{d}\omega)</math>
وقتی که این انتگرال وجود داشته باشد، پس به صورت امید ''X'' تعریف می شودمی‌شود. توجه کنید که هیچ متغیر تصادفی اصلاً مقدار مورد انتظار متناهی ندارد چون ممکن نیست که این انتگرال مطلقاً همگرا باشد؛ بعلاوه برای بعضی این اصلاً تعریف نشده است (مثلاً توزیع کوشی). دو متغیر با توزیع احتمال یکسان، مقدار مورد انتظار یکسانی خواهند داشت در صورتی که این انتگرال تعریف شده باشد
این موضوع مستقیماً از تعریف حالت گسسته پیروی می کندمی‌کند که اگر ''X''یک متغیر تصادفی ثابت باشد (یعنی {{nowrap|''X {{=}} b''}} برای چند تا مقدار حقیقی ثابت ''b'') پس مقدار مورد انتظار''X'' نیز ''b''خواهد بود.
[[مقدار مورد انتظار]] یک تابع دلخواه ''X'', ''g''(''X''), نسبت به تابع چگالی احتمال ''ƒ''(''x'') از طریق [[ضرب داخلی]] ''ƒ'' و ''g'' بدست می آیدمی‌آید.
:<math>\operatorname{E}(g(X)) = \int_{-\infty}^\infty g(x) f(x)\, \operatorname{d}x .</math>
 
بعضی مواقع به این قانون آماری ناخودآگاه می گویندمی‌گویند. بااستفاده از نمایش هانمایش‌ها به صورت [[انتگرال ریمان]] – استیلتجس و انتگرالگیری جزئی می توانمی‌توان این فرمول را به صورت زیر دوباره بیان کرد:
* <math>\operatorname{E}(g(X)) = \int_a^\infty g(x) \, \mathrm{d} \operatorname{P}(X \le x)= g(a)+ \int_a^\infty g'(x)\operatorname{P}(X> x) \, \mathrm{d} x</math> if <math>\operatorname{P}(g(X) \ge g(a))=1</math>,
* <math>\operatorname{E}(g(X)) = \int_{-\infty}^a g(x) \, \mathrm{d} \operatorname{P}(X \le x)= g(a)- \int_{-\infty}^a g'(x)\operatorname{P}(X \le x) \, \mathrm{d} x</math> if <math>\operatorname{P}(g(X) \le g(a))=1</math>.
چون در این حالت ویژه، α یک عدد حقیقی مثبت را نشان می دهدمی‌دهد پس:
:<math> \operatorname{E}(\left|X \right|^\alpha) = \alpha \int_{0}^{\infty} t^{\alpha -1}\operatorname{P}(\left|X \right|>t) \, \operatorname{d}t.</math>
به ویژه برای α = 1۱ این به شکل زیر کاهش می یابدمی‌یابد در صورتی که {{nowrap|Pr[''X'' ≥ 0۰] {{=}} 1۱}}, باشد (که F [[تابع توزیع تجمعی]] X است).
اصطلاحات متداول
* وقتی که شخصی از قیمت مورد انتظار، ارتفاع مورد انتظار و غیره صحبت می کندمی‌کند یعنی اینکه مقدار مورد انتظار یک متغیر تصادفی آن یک قیمت یا یک ارتفاع و غیره است.
* وقتی که شخصی از تعداد مورد انتظار تلاش هایتلاش‌های مورد نیاز برای موفق شدن صحبت می کند،می‌کند، ممکن است شخص به طور محافظه کارانه آن را به صورت نسبت معکوس احتمال موفقیت برای اینچنین تلاشی تقریب بزند (یعنی مقدار مورد انتظار توزیع هندسی).
[[ویژگی‌ها]]
[[ویژگی ها]]
ثابت‌ها
ثابت ها
مقدار مورد انتظار یک ثابت مساوی باخود ثابت است یعنی اگر ''c''یک ثابت است پس {{nowrap|E[''c''] {{=}} ''c''}} است.
 
یکنوایی
اگر ''X'' و''Y ''متغیر هایمتغیرهای تصادفی هستند به طوریکه {{nowrap|''X'' ≤ ''Y''}} است، پس {{nowrap|E[''X''] ≤ E[''Y'']}}.
 
خطی بودن
سطر ۱۱۷ ⟵ ۱۱۵:
:<math>\operatorname{E}(aX)= a \operatorname{E}(X)\,</math>
 
توجه داشته باشید که نتیجۀنتیجهٔ دوم حتی اگر ''X'' از لحاظ آماری مستقل از ''Y'' نباشد، معتبر و دست است. با ترکیب نتایج حاصل از سه معادلۀمعادلهٔ قبلی، ما می توانیممی‌توانیم به نتیجۀنتیجهٔ زیر برسیم:
:<math>\operatorname{E}(aX + b)= a \operatorname{E}(X) + b\,</math>
:<math>\operatorname{E}(a X + b Y) = a \operatorname{E}(X) + b \operatorname{E}(Y)\,</math>
برای هر کدام از متغیر هایمتغیرهای تصادفی ''X''و ''Y'' (که باید در همان فضای احتمال تعریف شوند) و هر عدد <math>a</math>و <math>b</math>نتیجۀنتیجهٔ بالا در نظر گرفته می شودمی‌شود.
امید ریاضی مکرر
امید ریاضی برای متغیر هایمتغیرهای تصادفی گسسته
برای هر کدام از متغیر هایمتغیرهای تصافی گسستۀگسستهٔ ''X'', ''Y'' ما ممکن است [[امید ریاضی شرطی]] را تعریف کنیم:
:<math> \operatorname{E}(X|Y)(y) = \operatorname{E}(X|Y=y) = \sum\limits_x x \cdot \operatorname{P}(X=x|Y=y).</math>
 
که بدین معنی است E[''X''|''Y''](''y'') یک تابع''Y'' است.
پس امید ریاضی ''x ''در معادلۀمعادلهٔ زیر صدق می کندمی‌کند:
:<math>\operatorname{E}_Y\left[ \operatorname{E}_{X|Y=y}(x) \right]=</math>
 
سطر ۱۴۶ ⟵ ۱۴۴:
:::<math>=\operatorname{E}_X(x).</math>
 
بنابر این معادلۀمعادلهٔ زیر برقرار است:
{{cite book |title=cited work |author=Sheldon M Ross |isbn=0125980620 0-12-598062-0 |chapter=§3.4: Computing expectations by conditioning |page=105 ''ff'' |url=http://books.google.com/books?id=12Pk5zZFirEC&pg=PA105}}</ref>
</ref>
 
:<math>\operatorname{E}(X) = \operatorname{E} \left( \operatorname{E}(X|Y) \right).</math>
سطر ۱۵۶ ⟵ ۱۵۳:
طرف راست معادله به امید ریاضی مکرر اشاره دارد و گاهی اوقات قانون برج یا احتمال برج نامیده شده است.
این پیش فرض در قانون کل امید ریاضی مورد توجه قرار گرفته است.
امید مکرر برای متغیر هایمتغیرهای تصادفی پیوسته
در مورد متغیر هایمتغیرهای پیوسته، نتایج ما کاملاً قابل قیاس هستند. تعریف امید ریاضی شرطی از نابرابرینابرابری‌ها، ها، تابع هایتابع‌های چگالی و انتگرال هاانتگرال‌ها استفاده می کندمی‌کند تا با نابرابرینابرابری‌ها، ها، تابع هایتابع‌های جزئی و مجموع هامجموع‌ها به ترتیب جایگزین کند. اما نتیجۀنتیجهٔ اصلی هنوز برقرار است:
:<math>\operatorname{E}(X) = \operatorname{E} \left( \operatorname{E}(X|Y) \right).</math>
نابرابری‌ها
نابرابری ها
اگر یک متغیر تصادفی ''x'' همیشه کمتر یا مساوی با متغیر تصادفی دیگری ''Y'' باشد، پس امید ریاضی (یامقدار مورد انتظار) کمتر یا مساوی با مقدار مورد انتظار ''Y'' است.
اگر {{nowrap|''X'' ≤ ''Y''}}, است، پس {{nowrap|E[''X''] ≤ E[''Y'']}}. است.
به ویژه، اگر y را با {{!}}''X''{{!}} منطبق کنیم، می دانیممی‌دانیم {{nowrap|''X'' ≤ ''Y''}}و{{nowrap|−''X'' ≤ ''Y''}}. است. از اینرو ما می دانیممی‌دانیم {{nowrap|E[''X''] ≤ E[''Y'']}} و {{nowrap|E[''-X''] ≤ E[''Y'']}}. با توجه به خطی بودن امید ریاضی ما می دانیممی‌دانیم {{nowrap|-E[''X''] ≤ E[''Y'']}} است. از اینرو، مقدار مطلق امید ریاضی یک متغیر تصادفی کمتر یا مساوی با مقدار مطلق آن است:
:<math>|\operatorname{E}(X)| \leq \operatorname{E}(|X|)</math>
 
غیر ضربی
اگر تابع چگالی احتمال مشترک (یا توأم) ''x ''و'' y ''را در نظر بگیریم (مثلاً ''j(x,y)'') پس امید ریاضی ''xy'' بدین صورت است:
:<math>
\operatorname{E}(XY)=\int\int xy \, j(x,y)\,dx\,dy.</math>
 
به طور کلی، عملگر مقدار مورد انتظار ضربی نیست، یعنی E[''XY''] لزوماً با E[''X'']·E[''Y''] مساوی نیست. در حقیقت، مقداری که نمی‌تواند ضرب شود، را کوواریانس می نامندمی‌نامند:
:<math>
\operatorname{Cov}(X,Y)=\operatorname{E}(XY)-\operatorname{E}(X)\operatorname{E}(Y).
</math>
از اینرو، این ضرب هنگامیکه {{nowrap|Cov(''X'', ''Y'') {{=}} 0۰}} است، برقرار است، در آن کوواریانس، ''X''و''Y'' گفته می شودمی‌شود نا همبسته هستند (متغیر هایمتغیرهای مستقل یک مورد مهم متغیر هایمتغیرهای نا همبسته هستند).
حالا اگر ''X'' و ''Y'' مستقل هستند، پس با توجه به تعریف {{nowrap|''j''(''x,y'') {{=}} ''ƒ''(''x'')''g''(''y'')}} در اینجا'' f'' و'' g ''در واقع PDF های حاشیهPDFهای ایحاشیه‌ای برای ''X'' و ''Y''هستند. پس:
:<math>
\begin{align}
سطر ۱۸۳ ⟵ ۱۸۰:
\end{align}
</math>
and {{nowrap|Cov(''X'', ''Y'') {{=}} 0۰}}.
مشاهده کنید که استقلال ''X'' و ''Y'' مورد نیاز است تا این معادله نوشته شود: {{nowrap|''j''(''x,y'') {{=}} ''ƒ''(''x'')''g''(''y'')}}, و این باید دومین تساوی بالا را ثابت کند. تساوی سوم از یک کاربرد اولیه و اصلی تئوری نوبینی-تونلی پیروی می کندمی‌کند.
ناوردایی تابعی
به طور کلی، عملگر امید ریاضی و تابعتابع‌های های متغیر هایمتغیرهای تصادفی تبدیل نیم شوند یعنی:
:<math>\operatorname{E}(g(X)) = \int_{\Omega} g(X)\, \operatorname{d}P \neq g(\operatorname{E}(X)),</math>
یک نا تساوی مهم برای این موضوع نا تساوی جنسن است، که شامل مقدار هایمقدارهای مورد انتطار [[تابع محدب|تابع هایتابع‌های محدب]] می شودمی‌شود.
استفاده‌ها و کاربردها
استفاده ها و کاربرد ها
مقدار هایمقدارهای مورد انتظار توان هایتوان‌های ''X''گشتاور هایگشتاورهای ''X''میمی‌نامند؛ نامند؛ گشتاور هاگشتاورها نزدیک به میانگین ''X'' در واقع مقدار هایمقدارهای مورد انتظار توان هایتوان‌های {{nowrap|''X'' − E[''X'']}} هستند. گشتاور هایگشتاورهای بعضی از متغیر هایمتغیرهای تصادفی می توانندمی‌توانند برای تعیین توزیع هایشان از طریق تابع تولیدی گشتاوریشان استفاده شوند.
برای تخمین تجربی مقدار مورد انتظار یک متغیر تصادفی، ما به طور پیوسته مشاهدات متغیر را [[اندازه گیریاندازه‌گیری]] می کنیممی‌کنیم و [[میانگین حسابی]] نتایج را محاسبه می کنیممی‌کنیم. اگر مقدار مورد انتظار وجود دارد، این فرایند مقدار مورد انتظار حقیقی را با یک شیوۀشیوهٔ غیر تعصبی و غیر طرفدارانه را تخمین می زندمی‌زند و ویژگی به حداقل رساندن مجموع مربع های باقی‌ماندهمربع‌های هاباقی‌مانده‌ها دارد (جمع تفاضل هایتفاضل‌های مربع بین مشاهدات و تخمین) قانون اعداد بزرگ نشان داد که تحت شرایط نسبتاً مناسب، هنگامیکه اندازۀاندازهٔ نمونه بزرگتر می شودمی‌شود واریانس این تخمین کوچکتر می شودمی‌شود.
این ویژگی در بسیار از مصارف استفاده می شودمی‌شود مانند: مسائل کلی تخمین آماری و آموزش ماشین، بریا تخمین مقدار هایمقدارهای (احتمالی) سود از طریق متود ها/روش هایروش‌های [[مونت کارلو]]، زیرا اکثر مقدار هایمقدارهای (کمیت هایکمیت‌های) سود می تواندمی‌تواند از لحاظ امید ریاضی نوشته شوند یعنی ،یعنی، در اینجا تابع شاخصی برای مجموعۀ مجموعهٔ است .
در [[مکانیک کلاسیک]]، [[مرکز جرم]] یک مفهوم مشابه امید ریاضی است. برای مثال، فرض کنید ''X'' یک متغیر تصادفی گسسته با مقدار هایمقدارهای ''x<sub>i</sub>'' و احتمالات مرتبط ''p<sub>i</sub>'' است، حالا یک میلۀمیلهٔ بدون وزن که بر روی آن وزن هاوزن‌ها در موقعیت های موقعیت‌های ''x<sub>i</sub>'' در طول میله قرار گرفته اندگرفته‌اند و جرم آنها ''p<sub>i</sub>'' است (که مجموع آنها یک است) نقطه که در آن میله متعادل E[''X''] است.
مقدار هایمقدارهای مورد انتظار می توانندمی‌توانند همچنین برای محاسبۀمحاسبهٔ واریانس به وسیلۀوسیلهٔ فرمول هایفرمول‌های محساباتی واریانس استفاده شوند.
:<math>\operatorname{Var}(X)= \operatorname{E}(X^2) - (\operatorname{E}(X))^2.</math>
 
یک کاربرد بسیار مهم مقدار مورد انتظار در زمینۀزمینهٔ [[مکانیک کوانتوم]] است. مقدار مرود انتظار یک عملگر (یا اپراتور) مکانیکی کوانتوم <math>\hat{A}</math> که در بردار حالت کوانتوم <math>|\psi\rangle</math> کار می کند،می‌کند، به این صورت نوشته می شودمی‌شود:<math>\langle\hat{A}\rangle = \langle\psi|A|\psi\rangle</math>. . ابهام در <math>\hat{A}</math> می تواندمی‌تواند با استفاده از <math>(\Delta A)^2 = \langle\hat{A}^2\rangle - \langle\hat{A}\rangle^2</math> محاسبه شود.
امید ماتریس هاماتریس‌ها
اگر <math>X</math> یک ماتریس <math>m \times n</math> [[ماتریس (ریاضی)|ماتریس]], ، باشد پس مقدار مورد انتظار ماتریس به صورت ماتریس مقادیر مورد انتظار تعریف می شودمی‌شود:
:<math>
\operatorname{E}(X)
سطر ۲۱۸ ⟵ ۲۱۵:
\end{pmatrix}.
</math>
از این در ماتریس هایماتریس‌های کوواریانس استفاده می شودمی‌شود
فرمول هافرمول‌ها برای حالت هایحالت‌های ویژه
[[توزیع گسسته]] ای که فقط مقادیر صحیح غیر منفی را می گیردمی‌گیرد
وقتی که یک مقدار تصادفی فقط مقادیر داخل <math>\{0,1,2,3,...\}</math>را می گیردمی‌گیرد پس می توانیممی‌توانیم از فرمول زیر برای محاسبۀمحاسبهٔ امیدش (حتی وقتی که این امید نا متناهی باشد) استفاده کنیم:
:<math>
\operatorname{E}(X)=\sum\limits_{i=1}^\infty P(X\geq i).
سطر ۲۳۱ ⟵ ۲۲۸:
\end{align}
</math>
با مبادلۀمبادلهٔ توان مجموع همانطورهمان‌طور که ادعا می کردیم،می‌کردیم، داریم:
:<math>
\begin{align}
سطر ۲۳۹ ⟵ ۲۳۶:
\end{align}
</math>
این جواب می تواندمی‌تواند یک میانبر محاسباتی مفید باشد. برای مثال فرض کنید که ما یک سکه ایسکه‌ای را بالا می اندازیممی‌اندازیم که احتمال عدد آمدن آن ''p''باشد. با چند پرتاب می توانمی‌توان اولین خط هاخط‌ها (نه آنهایی که شامل خود خط هستند) را انتظار داشت؟ فرض کنید ''X'' این تعداد را نشان دهد. توجه کنید که ما فقط دنباله هادنباله‌ها را میشماریممی‌شماریم و خط هاییخط‌هایی که آزمایش را پایان می دهندمی‌دهند را نمی شماریمنمی‌شماریم. ما می توانیممی‌توانیم داشته باشیم که ''X'' = 0۰. امید ''X''را می توانمی‌توان از طریق محاسبه کرد. این بدین خاطر است که تعداد پرتاب هایپرتاب‌های سکه حداقل دقیقاً ''i'' هستند (در زمانی که اولین پرتاب های پرتاب‌های ''i'' دنباله هادنباله‌ها را بدست آورده است). این امر، امید یک متغیر تصادفی را با یک [[توزیع نمایی]] منطبق می سازدمی‌سازد. ما از این فرمول برای [[تصاعد هندسی]] استفاده کردیم:
<math>
\sum_{k=1}^\infty r^k=\frac{r}{1-r}.
</math>
توزیع پیوسته ایپیوسته‌ای که مقادیر غیر منفی را می گیردمی‌گیرد
مثل حالت گسسته ایگسسته‌ای که قبلاً گفته شده وقتی که یک متغیر تصادفی پیوسته ایپیوسته‌ای مثل''X'' فقط مقادیر غیر منفی را می گیردمی‌گیرد پس می توانیممی‌توانیم از فرمول زیر برای محاسبۀمحاسبهٔ امیدش استفاده کنیم (حتی وقتی که امید نامتناهی باشد):
:<math>
\operatorname{E}(X)=\int_0^\infty P(X \ge x)\; dx
</math>
اثبات: ابتدا فرض کنید که ''X'' یک چگالی برابر <math>f_X(x)</math> داشته باشد. ما دو تکنیک ارائه می کنیممی‌کنیم:
* با استفاده از [[انتگرال گیری]] جزئی (حالت ویژه ایویژه‌ای از بخش 1.4۱٫۴ بالا):
:<math>
\operatorname{E}(X) = \int_0^\infty (-x)(-f_X(x))\;dx = \left[ -x(1 - F(x)) \right]_0^\infty + \int_0^\infty (1 - F(x))\;dx
</math>
و کروشۀکروشهٔ آن به صفر می رسدمی‌رسد چون <math>1-F(x) = o(1/x) </math> به طوری که <math>x \to \infty</math>.
* با استفاده از یک مبادله در مرتبۀمرتبهٔ انتگرالگیری:
:<math>
\int_0^\infty P(X\ge x)\;dx =\int_0^\infty \int_x^\infty f_X(t)\;dt\;dx = \int_0^\infty \int_0^t f_X(t)\;dx\;dt = \int_0^\infty t f_X(t)\;dt = \operatorname{E}(X)
</math>
در حالتی که هیچ چگالی وجود نداشته باشد دیده می شودمی‌شود که:
:<math>
\begin{align}
سطر ۲۶۵ ⟵ ۲۶۲:
</math>
تاریخ
نظریه ینظریهٔ مقدارمورد انتظاردر اواسط [[قرن هفدهم]] از مطالعه مشکل معروف امتیازات منشاءمنشأ گرفته است. مشکل این بود: چگونه باید پولهای شرط بندیشرط‌بندی شده را به طور عادلانه بین دو بازیکنی که قبل از اینکه بازی کاملاً تمام شود مجبور هستند بازی را تمام کنند تقسیم کرد؟ این مشکل [[قرن هاقرن‌ها]] مورد بحث وبررسی قرار گرفت و راه حلهاو پیشنهادات جنگجال برانگیز زیادی پیشنهاد شدند. این نظریه برای اولین بار توسط یک [[نجیب زاده]] ی فرانسوی دو مر( ( de Mere در سال 1654۱۶۵۴ به [[بلیز پاسکال]] ارائه شد. دو مر اظهار نظر کرد که این مشکل نمی‌تواند حل شود و این نشان می دهدمی‌دهد ریاضی نمی‌تواند در دنیای واقعی استفاده شود و کمبود دارد. پاسکال، که یک ریاضیدان است، برانگیخته شد و تصمیم گرفت این مشکل را برای همیشه حل کند. اولین موضوع را از طریق نامه هاینامه‌های معروفی با پیر دو فرمات (Pierre de fermat) در میان گذاشت. بعد از مدت زمان کوتاهی هر دوی آنها به دو راه حل مجزا رسیدند. آنها این مشکل را با دو راه حل محاسباتی متفاوت حل کردند، اما نتیجۀنتیجهٔ آنها یکسان بود زیرا محاسبات شان بر اساس اصول پایه و اساسی یکسانی بود. این اصل پایه این بود که مقدار یک یود آینده باید مستقیماً با شانس به دست آوردن آن مساوی باشد. این اصل به نظر هر دوی آنها کاملاً طبیعی بود. آنها از اینکه به راه حل رسیده بودند بسیار خوشحال بودند و از اینرو این باعث شد آنها متقاعد شوند بالاخره انی شکل را توانسته اندتوانسته‌اند حل کنند. با این حال آنها یافته هایشان را منتشر نکردند. آنها تنها به تعدادی از دوستان مشترک محققانشان در پاریس اطلاع دادند. سه سال بعد در سال 1657۱۶۵۷ یک [[ریاضی دانریاضی‌دان]] آلمانی کریستیان هیگنز، که به پاریس سفر کرده بود، یک مقاله در مورد نظریۀنظریهٔ احتمال با نام (de ratiociniis in ludo ale) چاپ کرد. در آن مقاله هیگنز مسئله امتیازات را در نظر گرفته بود و یک راه حل بر اساس همان اصلی که پاسکال و فرمات دنبال کرده بودند پیشنهاد کرد. او همچنین نظریه امید را با اضافه کردن قوانین مربوط به چگونه محاسبه کردن امید هاامیدها در موقعیت های پیچیدهموقعیت‌های ترپیچیده‌تر از مسئلۀمسئلهٔ اصلی، گسترش داد. هینگز در مقدمۀمقدمهٔ مقاله اش نوشت: باید گفته شود که بریا بعضی مواقع، بعضی از بهترین [[ریاضی دانان]] از فرانسه قبلاً به حل آن پرداخته بودند بنابراین هیچ کسهیچ‌کس نباید افتخار ابداع این نظریه را به من نسبت دهد. این به من تعلق ندارد. اما انی دانشمندان، اگر چه هر دو یکدیگر را از طریق پرسیدن سوالات دشوار از یکدیگر در معرض آزمایش قرار داده بودند ولی روش هایشان را از هم پنهان کرده بودند. از اینرو من از همان [[اصول اولیه]] شروع کردم تا به حل این مسئله رسیدم و بدین دلیل غیر ممکنغیرممکن است تأئیدتأیید کنم که از همان اصول آنها آغاز به کار کردم. اما در نهایت من در بسیاری از موارد بدین نتیجه رسیدم که پاسخ هایمپاسخ‌هایم با آنها متفاوت هستند. از اینرو هیگنز در طی سفرش به فرانسه از اظهار نظر دومر در سال 1655۱۶۵۵ مطلع شد، بعداً در سال 1656۱۶۵۶ از طریق ارتباط با کارکاوی دریافت که روش او کاملاً همانند پاسکال است، بنابراین قبل از اینکه مقاله اش برای چاپ برود، او از ارجحیت و پیش قدمی پاسکال در این زمینه آگاه بود.
پاسکال و هیگنز هیچکدامهیچ‌کدام کلمۀکلمهٔ امید را با مفهوم امروزی استفاده نکردند. به خصوص شانس یا امید من برای بردن هر چیزی مساوی با به دست نیاوردن آن است...است… اگر من انتظار دارم a یا b را به دست بیاورم، شانس بدست آوردن هر کدام از آنها مساوی است، مقدار امید من (a+b)/2 است. بیش از صد سال قبل، در سال 1814۱۸۱۴ پیرسایمون لاپلاس مقالۀمقالهٔ خود را با عنوان "Théorie analytique des probabilités" منتشر کرد، در آنجا مفهوم مقدار مورد انتظار (یا امید ریاضی) به طور واضح توضیح داده شد.
استفاده از حرف E به معنی مقدار مورد انتظار است که به نظریۀنظریهٔ انتخاب و شانس دابیلیو. ای وایت ورت بر میگرددمی‌گردد این سمبل در زمانی که بریا همۀهمهٔ نویسندگان انگلیسی، آلمانی و فرانسوی E به معنی انتظار شد.
 
== منابع ==
 
{{پانویس}}
 
سطر ۲۸۵ ⟵ ۲۸۱:
|بازیابی =۳۰ ژوئیهٔ ۲۰۱۲
}}
* {{یادکرد کتاب | نام خانوادگی = Casella| نام = George| نام خانوادگی۲ = Berger| نام۲ = Roger L.
| عنوان = Statistical Inference| سال = 2001| ناشر = Duxbury Press| شابک = 0534243126| فصل = ۱}}
 
{{آمار}}