== ویژگیها ==
=== ثابتها ===
امید ریاضی یک عدد ثابت برابر با همان عدد ثابت است؛ یعنی اگر <math> c </math> عددی ثابت باشد، آنگاه: <math> \operatorname{E}(c)=c </math>.
=== خطی بودن ===
عملگر امید ریاضی خطی است یعنی برای هر دو متغیر تصادفی <math>X</math> و <math>Y</math> و هر [[عدد حقیقی]] <math>a</math> و <math>b</math> و <math>c</math> داریم :
:<math>\operatorname{E}(X + c)= \operatorname{E}(X) + c\,</math>
:<math>\operatorname{E}(X + Y)= \operatorname{E}(X) + \operatorname{E}(Y)\,</math>
=== میانگین احتمال شرطی ===
اگر متغیر تصادفی ''X'' همواره کوچکتر یا مساوی متغیر تصادفی ''Y'' باشد، امید ریاضی ''X'' کوچکتر یا مساوی امید ریاضی ''Y'' خواهد بود:
اگر ''X''≤''Y'' آنگاه [E[X]≤E[Y
در یک حالت خاص اگر ''Y'' را با |''X''| مقایسه کنیم، میدانیممیدانیم که ''X''≤''Y'' و ''X''≤''Y-''. پس میتوانمیتوان نتیجه گرفت که [E[X] ≤ E[Y و
[E[-X] ≤ E[Y. بنا به خاصیت خطی امیدریاضی داریم [E[X] ≤ E[Y-.
:<math>|\operatorname{E}(X)| \leq \operatorname{E}(|X|)</math>
==== تعریف ====
متغیر تصادفی گسسته، حالت متناهی فرض کنید که متغیر تصادفی X بتواند مقدار ''x''<sub>1</sub>با احتمال ''p''<sub>1</sub>, مقدار ''x''<sub>2</sub> با احتمال ''p''<sub>2</sub>, و غیره تا مقدار ''x<sub>k</sub>'' با احتمال ''p<sub>k</sub>'' را بگیرد. پس امید انی متغیر تصادفی X به صورت زیر تعریف می شودمیشود:
: <math>
\operatorname{E}[X] = x_1p_1 + x_2p_2 + \ldots + x_kp_k \;.
</math>
چون جمع همۀهمهٔ احتمالات ''p<sub>i</sub>'' برابر یک است ''p''<sub>1</sub> + ''p''<sub>2</sub> + ...… + ''p<sub>k</sub>'' = 1۱ ( بنابر این می توانمیتوان مقدار مورد انتظار را به صورت میانگین وزن دار به همراه ''p<sub>i</sub>''’sهایی که وزن هستند دید:
: <math>
\operatorname{E}[X] = \frac{x_1p_1 + x_2p_2 + \ldots + x_kp_k}{p_1 + p_2 + \ldots + p_k} \;.
</math>
اگر همۀهمهٔ جواب هایجوابهای ''x<sub>i</sub>'' دارای احتمال یکسان باشند (یعنی ''p''<sub>1</sub> = ''p''<sub>2</sub> = ...… = ''p<sub>k</sub>''), پس میانگین وزن دار به میانگین ساده تبدیل می شودمیشود. این شهودی است: مقدار مورد انتظار یک متغیر تصادفی میانگین همۀهمهٔ مقادیری است که می توانمیتوان گرفت؛ بنابراین، این مقدار مورد انتظار، مقداری است که شما انتظار دارید روی میانگین اتفاق بیفتد. اگر جواب هایجوابهای ''x<sub>i</sub>'' هم احتمال نباشند، بنابراین ممکن است میانگین ساده جایگزین میانگین وزن دار (که بعضی از جواب هایجوابهای محتمل تر از بقیه را در نظر می گیردمیگیرد) شود.شود؛ ولی با این حال این شهود و کشف به همین صورت باقی می ماندمیماند: مقدار مورد انتظار X، مقداری است که انتظار می رودمیرود روی میانگین اتفاق بیفتد.
مثال 1۱- فرض کنید ''X'' جواب یک تاس شش گوشه را نشان دهد. ''X''تعداد خال هایخالهای روی وجه بالایی تاس بعد از پرتاب است می باشدمیباشد. مقادیر ممکن برای ''X''، 1،۱، 2،۲، 3،۳، 4،۴، 5و6۵و۶ (که همگی دارای احتمال برابر 1۱/6۶ هستند) می باشندمیباشند. امید ''X''برابر است با:
: <math>
\operatorname{E}[X] = 1\cdot\frac16 + 2\cdot\frac16 + 3\cdot\frac16 + 4\cdot\frac16 + 5\cdot\frac16 + 6\cdot\frac16 = 3.5.
</math>
اگر تاس ''n'' بار پرتاب شود و میانگین نتایج محاسبه شوند پس با افزایش ''n'' ، میانگین به مقدار مورد انتظار همگرا خواهد بود. به این موضوع قانون قوی مقادیر بزرگ می گویندمیگویند. برای مثال دنبالۀدنبالهٔ ده تاس به صورت 2۲, 3۳, 1۱, 2۲, 5۵, 6۶, 2۲, 2۲, 2۲, 6۶ است که میانگین آنها برابر 3.1۳٫۱ با فاصلۀفاصلهٔ 0.4۰٫۴ از مقدار مورد انتظار 3۳٫۵ میباشند.5 می باشند.همگرایی نسبتاً پائین است. احتمالی که میانگین در بین محدودۀمحدودهٔ 3.5۳٫۵ ± 0.1۰٫۱ افت می کندمیکند برای ده پرتاب 21.6%۲۱٫۶٪ و برای هزار پرتاب 93.7%۹۳٫۷٪ است. شکل که برای توضیح میانگینمیانگینهای هایدنبالههای دنباله های طولانی تر پرتابطولانیتر هاپرتابها نشان داده شده را ببینید و توجه کنید که چطور آنها به مقدار مورد انتظار 3.5۳٫۵ همگرا می شوندمیشوند. عموماً نسبت همگرایی را می توانمیتوان از طریق مثلاً [[نامساوی چبیشف]] و نظریۀنظریهٔ بری-اسن (Berry-Esseen theorem) به سختی کمی کرد.
مثال 2۲- [[بازی رولت]] شامل یک توپ کوچک و یک چرخ با 38۳۸ پاکت شماره گذاری شده در اطراف لبۀلبهٔ آن است. همانطورهمانطور که این چرخ می چرخد،میچرخد، توپ به طور تصادفی به چرخش در می آیدمیآید تا در یکی از این پاکت هاپاکتها متوقف شود. فرض کنید متغیر تصادفی ''X'' جواب یک [[شرط بندیشرطبندی]] 1دلاری۱دلاری ( شرط مستقیم) رانشان دهد. اگر این شرط برنده شود (که با احتمال 1۱/38۳۸ اتفاق می افتدمیافتد)، حاصل 35۳۵ دلار می شودمیشود. در غیر اینصورت بازیکن شرط را می بازدمیبازد. سود مورد انتظار از این چنین شرطی به صورت زیر خواهد بود:
: <math>
\operatorname{E}[\,\text{gain from }$1\text{ bet}\,] =
-$1 \cdot \frac{37}{38}\ +\ $35 \cdot \frac{1}{38} = -$0.0526.
</math>
متغیر تصادفی گسسته، حالت قابل شمارش فرض کنید''X''یک متغیر تصادفی گسسته ایگسستهای باشد که مقادیر ''x''{{su|b=1}}, ''x''{{su|b=2۲}}, ... … به ترتیب با احتمالاتاحتمالات، ,''p''{{su|b=1}}, ''p''{{su|b=2۲}}, ...… را در خود می گیردمیگیرد. پس مقدار مورد انتظار این متغیر تصادفی جمع متناهی زیر می باشدمیباشد:
: <math>
\operatorname{E}[X] = \sum_{i=1}^\infty x_i\, p_i,
</math>
مشروط بر اینکه این سری مطلقاً همگرا است (که این جمع باید در صورتی متناهی باشد که ما همۀهمهٔ ''x{{su|b=i}}'''s را با مقادیر قدرمطلقشان جایگزین کنیم). اگر این سری مطقاً همگرا نباشد می گوئیم که مقدار مورد انتظار ''X'' وجود ندارد.
برای مثال فرض کنید که متغیر تصادفی X شامل مقادیر 1۱, −2−۲, 3۳, −4−۴, ...… به ترتیب با احتمالات {{frac2|''c''|1<sup>2</sup>}}, {{frac2|''c''|2<sup>2</sup>}}, {{frac2|''c''|3<sup>2</sup>}}, {{frac2|''c''|4<sup>2</sup>}}, ...… ,باشد که {{nowrap|''c'' {{=}} {{frac2|6|''π''<sup>2</sup>}}}} یک ثابت نرمالیزه است که مطمئن می سازدمیسازد که مجموع احتمالات برابر یک است. پس جمع متناهی زیر همگرا است و جمعش برابر {{nowrap|[[لگاریتم طبیعی|ln]](2) ≃ 0.69315۰٫۶۹۳۱۵}}. می باشدمیباشد:
: <math>
\sum_{i=1}^\infty x_i\,p_i = c\,\bigg( 1 - \frac{1}{2} + \frac{1}{3} - \frac{1}{4} + \ldots \bigg)
</math>
با این حال صحیح نیست که ادعا کنیم مقدار مورد انتظار X با این مقدار برابر است در حقیقت E[''X''] وجود ندارد جون این سری مطلقاً همگرا نیست (سری هایسریهای هارمونیک را ببیند).
==== متغیر تصادفی پیوسته یک متغیره ====
اگر [[توزیع احتمال]] ''X'' در یک تابع چگالی احتمال ''f''(''x''), صدق کند پس می توانمیتوان مقدار مورد انتظار را به صورت زیر محاسبه کرد:
: <math>
\operatorname{E}[X] = \int_{-\infty}^\infty x f(x)\, \operatorname{d}x .
</math>
تعریف عمومی
عموماً اگر ''X''یک متغیر تصادفی تعریف شده روی یک فضای احتمال {{nowrap|(Ω, Σ, ''P'')}}, باشد پس مقدار مورد انتظار X (که به صورت E[''X''], {{nowrap|<''X''>}}, <span style="text-decoration:overline">''X''</span> or '''E'''[''X''], مشخص می شودمیشود) به صورت انتگرال لبسگو تعریف می شودمیشود:
:<math>\operatorname{E}[X] = \int_\Omega X\, \operatorname{d}P = \int_\Omega X(\omega)\, P(\operatorname{d}\omega)</math>
وقتی که این انتگرال وجود داشته باشد، پس به صورت امید ''X'' تعریف می شودمیشود. توجه کنید که هیچ متغیر تصادفی اصلاً مقدار مورد انتظار متناهی ندارد چون ممکن نیست که این انتگرال مطلقاً همگرا باشد؛ بعلاوه برای بعضی این اصلاً تعریف نشده است (مثلاً توزیع کوشی). دو متغیر با توزیع احتمال یکسان، مقدار مورد انتظار یکسانی خواهند داشت در صورتی که این انتگرال تعریف شده باشد
این موضوع مستقیماً از تعریف حالت گسسته پیروی می کندمیکند که اگر ''X''یک متغیر تصادفی ثابت باشد (یعنی {{nowrap|''X {{=}} b''}} برای چند تا مقدار حقیقی ثابت ''b'') پس مقدار مورد انتظار''X'' نیز ''b''خواهد بود.
[[مقدار مورد انتظار]] یک تابع دلخواه ''X'', ''g''(''X''), نسبت به تابع چگالی احتمال ''ƒ''(''x'') از طریق [[ضرب داخلی]] ''ƒ'' و ''g'' بدست می آیدمیآید.
:<math>\operatorname{E}(g(X)) = \int_{-\infty}^\infty g(x) f(x)\, \operatorname{d}x .</math>
بعضی مواقع به این قانون آماری ناخودآگاه می گویندمیگویند. بااستفاده از نمایش هانمایشها به صورت [[انتگرال ریمان]] – استیلتجس و انتگرالگیری جزئی می توانمیتوان این فرمول را به صورت زیر دوباره بیان کرد:
* <math>\operatorname{E}(g(X)) = \int_a^\infty g(x) \, \mathrm{d} \operatorname{P}(X \le x)= g(a)+ \int_a^\infty g'(x)\operatorname{P}(X> x) \, \mathrm{d} x</math> if <math>\operatorname{P}(g(X) \ge g(a))=1</math>,
* <math>\operatorname{E}(g(X)) = \int_{-\infty}^a g(x) \, \mathrm{d} \operatorname{P}(X \le x)= g(a)- \int_{-\infty}^a g'(x)\operatorname{P}(X \le x) \, \mathrm{d} x</math> if <math>\operatorname{P}(g(X) \le g(a))=1</math>.
چون در این حالت ویژه، α یک عدد حقیقی مثبت را نشان می دهدمیدهد پس:
:<math> \operatorname{E}(\left|X \right|^\alpha) = \alpha \int_{0}^{\infty} t^{\alpha -1}\operatorname{P}(\left|X \right|>t) \, \operatorname{d}t.</math>
به ویژه برای α = 1۱ این به شکل زیر کاهش می یابدمییابد در صورتی که {{nowrap|Pr[''X'' ≥ 0۰] {{=}} 1۱}}, باشد (که F [[تابع توزیع تجمعی]] X است).
اصطلاحات متداول
* وقتی که شخصی از قیمت مورد انتظار، ارتفاع مورد انتظار و غیره صحبت می کندمیکند یعنی اینکه مقدار مورد انتظار یک متغیر تصادفی آن یک قیمت یا یک ارتفاع و غیره است.
* وقتی که شخصی از تعداد مورد انتظار تلاش هایتلاشهای مورد نیاز برای موفق شدن صحبت می کند،میکند، ممکن است شخص به طور محافظه کارانه آن را به صورت نسبت معکوس احتمال موفقیت برای اینچنین تلاشی تقریب بزند (یعنی مقدار مورد انتظار توزیع هندسی).
[[ویژگیها]]
[[ویژگی ها]]
ثابتها
ثابت ها
مقدار مورد انتظار یک ثابت مساوی باخود ثابت است یعنی اگر ''c''یک ثابت است پس {{nowrap|E[''c''] {{=}} ''c''}} است.
یکنوایی
اگر ''X'' و''Y ''متغیر هایمتغیرهای تصادفی هستند به طوریکه {{nowrap|''X'' ≤ ''Y''}} است، پس {{nowrap|E[''X''] ≤ E[''Y'']}}.
خطی بودن
:<math>\operatorname{E}(aX)= a \operatorname{E}(X)\,</math>
توجه داشته باشید که نتیجۀنتیجهٔ دوم حتی اگر ''X'' از لحاظ آماری مستقل از ''Y'' نباشد، معتبر و دست است. با ترکیب نتایج حاصل از سه معادلۀمعادلهٔ قبلی، ما می توانیممیتوانیم به نتیجۀنتیجهٔ زیر برسیم:
:<math>\operatorname{E}(aX + b)= a \operatorname{E}(X) + b\,</math>
:<math>\operatorname{E}(a X + b Y) = a \operatorname{E}(X) + b \operatorname{E}(Y)\,</math>
برای هر کدام از متغیر هایمتغیرهای تصادفی ''X''و ''Y'' (که باید در همان فضای احتمال تعریف شوند) و هر عدد <math>a</math>و <math>b</math>نتیجۀنتیجهٔ بالا در نظر گرفته می شودمیشود.
امید ریاضی مکرر
امید ریاضی برای متغیر هایمتغیرهای تصادفی گسسته
برای هر کدام از متغیر هایمتغیرهای تصافی گسستۀگسستهٔ ''X'', ''Y'' ما ممکن است [[امید ریاضی شرطی]] را تعریف کنیم:
:<math> \operatorname{E}(X|Y)(y) = \operatorname{E}(X|Y=y) = \sum\limits_x x \cdot \operatorname{P}(X=x|Y=y).</math>
که بدین معنی است E[''X''|''Y''](''y'') یک تابع''Y'' است.
پس امید ریاضی ''x ''در معادلۀمعادلهٔ زیر صدق می کندمیکند:
:<math>\operatorname{E}_Y\left[ \operatorname{E}_{X|Y=y}(x) \right]=</math>
:::<math>=\operatorname{E}_X(x).</math>
بنابر این معادلۀمعادلهٔ زیر برقرار است:
{{cite book |title=cited work |author=Sheldon M Ross |isbn=0125980620 0-12-598062-0 |chapter=§3.4: Computing expectations by conditioning |page=105 ''ff'' |url=http://books.google.com/books?id=12Pk5zZFirEC&pg=PA105}}</ref>
</ref>
:<math>\operatorname{E}(X) = \operatorname{E} \left( \operatorname{E}(X|Y) \right).</math>
طرف راست معادله به امید ریاضی مکرر اشاره دارد و گاهی اوقات قانون برج یا احتمال برج نامیده شده است.
این پیش فرض در قانون کل امید ریاضی مورد توجه قرار گرفته است.
امید مکرر برای متغیر هایمتغیرهای تصادفی پیوسته
در مورد متغیر هایمتغیرهای پیوسته، نتایج ما کاملاً قابل قیاس هستند. تعریف امید ریاضی شرطی از نابرابرینابرابریها، ها، تابع هایتابعهای چگالی و انتگرال هاانتگرالها استفاده می کندمیکند تا با نابرابرینابرابریها، ها، تابع هایتابعهای جزئی و مجموع هامجموعها به ترتیب جایگزین کند. اما نتیجۀنتیجهٔ اصلی هنوز برقرار است:
:<math>\operatorname{E}(X) = \operatorname{E} \left( \operatorname{E}(X|Y) \right).</math>
نابرابریها
نابرابری ها
اگر یک متغیر تصادفی ''x'' همیشه کمتر یا مساوی با متغیر تصادفی دیگری ''Y'' باشد، پس امید ریاضی (یامقدار مورد انتظار) کمتر یا مساوی با مقدار مورد انتظار ''Y'' است.
اگر {{nowrap|''X'' ≤ ''Y''}}, است، پس {{nowrap|E[''X''] ≤ E[''Y'']}}. است.
به ویژه، اگر y را با {{!}}''X''{{!}} منطبق کنیم، می دانیممیدانیم {{nowrap|''X'' ≤ ''Y''}}و{{nowrap|−''X'' ≤ ''Y''}}. است. از اینرو ما می دانیممیدانیم {{nowrap|E[''X''] ≤ E[''Y'']}} و {{nowrap|E[''-X''] ≤ E[''Y'']}}. با توجه به خطی بودن امید ریاضی ما می دانیممیدانیم {{nowrap|-E[''X''] ≤ E[''Y'']}} است. از اینرو، مقدار مطلق امید ریاضی یک متغیر تصادفی کمتر یا مساوی با مقدار مطلق آن است:
:<math>|\operatorname{E}(X)| \leq \operatorname{E}(|X|)</math>
غیر ضربی
اگر تابع چگالی احتمال مشترک (یا توأم) ''x ''و'' y ''را در نظر بگیریم (مثلاً ''j(x,y)'') پس امید ریاضی ''xy'' بدین صورت است:
:<math>
\operatorname{E}(XY)=\int\int xy \, j(x,y)\,dx\,dy.</math>
به طور کلی، عملگر مقدار مورد انتظار ضربی نیست، یعنی E[''XY''] لزوماً با E[''X'']·E[''Y''] مساوی نیست. در حقیقت، مقداری که نمیتواند ضرب شود، را کوواریانس می نامندمینامند:
:<math>
\operatorname{Cov}(X,Y)=\operatorname{E}(XY)-\operatorname{E}(X)\operatorname{E}(Y).
</math>
از اینرو، این ضرب هنگامیکه {{nowrap|Cov(''X'', ''Y'') {{=}} 0۰}} است، برقرار است، در آن کوواریانس، ''X''و''Y'' گفته می شودمیشود نا همبسته هستند (متغیر هایمتغیرهای مستقل یک مورد مهم متغیر هایمتغیرهای نا همبسته هستند).
حالا اگر ''X'' و ''Y'' مستقل هستند، پس با توجه به تعریف {{nowrap|''j''(''x,y'') {{=}} ''ƒ''(''x'')''g''(''y'')}} در اینجا'' f'' و'' g ''در واقع PDF های حاشیهPDFهای ایحاشیهای برای ''X'' و ''Y''هستند. پس:
:<math>
\begin{align}
\end{align}
</math>
and {{nowrap|Cov(''X'', ''Y'') {{=}} 0۰}}.
مشاهده کنید که استقلال ''X'' و ''Y'' مورد نیاز است تا این معادله نوشته شود: {{nowrap|''j''(''x,y'') {{=}} ''ƒ''(''x'')''g''(''y'')}}, و این باید دومین تساوی بالا را ثابت کند. تساوی سوم از یک کاربرد اولیه و اصلی تئوری نوبینی-تونلی پیروی می کندمیکند.
ناوردایی تابعی
به طور کلی، عملگر امید ریاضی و تابعتابعهای های متغیر هایمتغیرهای تصادفی تبدیل نیم شوند یعنی:
:<math>\operatorname{E}(g(X)) = \int_{\Omega} g(X)\, \operatorname{d}P \neq g(\operatorname{E}(X)),</math>
یک نا تساوی مهم برای این موضوع نا تساوی جنسن است، که شامل مقدار هایمقدارهای مورد انتطار [[تابع محدب|تابع هایتابعهای محدب]] می شودمیشود.
استفادهها و کاربردها
استفاده ها و کاربرد ها
مقدار هایمقدارهای مورد انتظار توان هایتوانهای ''X''گشتاور هایگشتاورهای ''X''میمینامند؛ نامند؛ گشتاور هاگشتاورها نزدیک به میانگین ''X'' در واقع مقدار هایمقدارهای مورد انتظار توان هایتوانهای {{nowrap|''X'' − E[''X'']}} هستند. گشتاور هایگشتاورهای بعضی از متغیر هایمتغیرهای تصادفی می توانندمیتوانند برای تعیین توزیع هایشان از طریق تابع تولیدی گشتاوریشان استفاده شوند.
برای تخمین تجربی مقدار مورد انتظار یک متغیر تصادفی، ما به طور پیوسته مشاهدات متغیر را [[اندازه گیریاندازهگیری]] می کنیممیکنیم و [[میانگین حسابی]] نتایج را محاسبه می کنیممیکنیم. اگر مقدار مورد انتظار وجود دارد، این فرایند مقدار مورد انتظار حقیقی را با یک شیوۀشیوهٔ غیر تعصبی و غیر طرفدارانه را تخمین می زندمیزند و ویژگی به حداقل رساندن مجموع مربع های باقیماندهمربعهای هاباقیماندهها دارد (جمع تفاضل هایتفاضلهای مربع بین مشاهدات و تخمین) قانون اعداد بزرگ نشان داد که تحت شرایط نسبتاً مناسب، هنگامیکه اندازۀاندازهٔ نمونه بزرگتر می شودمیشود واریانس این تخمین کوچکتر می شودمیشود.
این ویژگی در بسیار از مصارف استفاده می شودمیشود مانند: مسائل کلی تخمین آماری و آموزش ماشین، بریا تخمین مقدار هایمقدارهای (احتمالی) سود از طریق متود ها/روش هایروشهای [[مونت کارلو]]، زیرا اکثر مقدار هایمقدارهای (کمیت هایکمیتهای) سود می تواندمیتواند از لحاظ امید ریاضی نوشته شوند یعنی ،یعنی، در اینجا تابع شاخصی برای مجموعۀ مجموعهٔ است .
در [[مکانیک کلاسیک]]، [[مرکز جرم]] یک مفهوم مشابه امید ریاضی است. برای مثال، فرض کنید ''X'' یک متغیر تصادفی گسسته با مقدار هایمقدارهای ''x<sub>i</sub>'' و احتمالات مرتبط ''p<sub>i</sub>'' است، حالا یک میلۀمیلهٔ بدون وزن که بر روی آن وزن هاوزنها در موقعیت های موقعیتهای ''x<sub>i</sub>'' در طول میله قرار گرفته اندگرفتهاند و جرم آنها ''p<sub>i</sub>'' است (که مجموع آنها یک است) نقطه که در آن میله متعادل E[''X''] است.
مقدار هایمقدارهای مورد انتظار می توانندمیتوانند همچنین برای محاسبۀمحاسبهٔ واریانس به وسیلۀوسیلهٔ فرمول هایفرمولهای محساباتی واریانس استفاده شوند.
:<math>\operatorname{Var}(X)= \operatorname{E}(X^2) - (\operatorname{E}(X))^2.</math>
یک کاربرد بسیار مهم مقدار مورد انتظار در زمینۀزمینهٔ [[مکانیک کوانتوم]] است. مقدار مرود انتظار یک عملگر (یا اپراتور) مکانیکی کوانتوم <math>\hat{A}</math> که در بردار حالت کوانتوم <math>|\psi\rangle</math> کار می کند،میکند، به این صورت نوشته می شودمیشود:<math>\langle\hat{A}\rangle = \langle\psi|A|\psi\rangle</math>. . ابهام در <math>\hat{A}</math> می تواندمیتواند با استفاده از <math>(\Delta A)^2 = \langle\hat{A}^2\rangle - \langle\hat{A}\rangle^2</math> محاسبه شود.
امید ماتریس هاماتریسها
اگر <math>X</math> یک ماتریس <math>m \times n</math> [[ماتریس (ریاضی)|ماتریس]], ، باشد پس مقدار مورد انتظار ماتریس به صورت ماتریس مقادیر مورد انتظار تعریف می شودمیشود:
:<math>
\operatorname{E}(X)
\end{pmatrix}.
</math>
از این در ماتریس هایماتریسهای کوواریانس استفاده می شودمیشود
فرمول هافرمولها برای حالت هایحالتهای ویژه
[[توزیع گسسته]] ای که فقط مقادیر صحیح غیر منفی را می گیردمیگیرد
وقتی که یک مقدار تصادفی فقط مقادیر داخل <math>\{0,1,2,3,...\}</math>را می گیردمیگیرد پس می توانیممیتوانیم از فرمول زیر برای محاسبۀمحاسبهٔ امیدش (حتی وقتی که این امید نا متناهی باشد) استفاده کنیم:
:<math>
\operatorname{E}(X)=\sum\limits_{i=1}^\infty P(X\geq i).
\end{align}
</math>
با مبادلۀمبادلهٔ توان مجموع همانطورهمانطور که ادعا می کردیم،میکردیم، داریم:
:<math>
\begin{align}
\end{align}
</math>
این جواب می تواندمیتواند یک میانبر محاسباتی مفید باشد. برای مثال فرض کنید که ما یک سکه ایسکهای را بالا می اندازیممیاندازیم که احتمال عدد آمدن آن ''p''باشد. با چند پرتاب می توانمیتوان اولین خط هاخطها (نه آنهایی که شامل خود خط هستند) را انتظار داشت؟ فرض کنید ''X'' این تعداد را نشان دهد. توجه کنید که ما فقط دنباله هادنبالهها را میشماریممیشماریم و خط هاییخطهایی که آزمایش را پایان می دهندمیدهند را نمی شماریمنمیشماریم. ما می توانیممیتوانیم داشته باشیم که ''X'' = 0۰. امید ''X''را می توانمیتوان از طریق محاسبه کرد. این بدین خاطر است که تعداد پرتاب هایپرتابهای سکه حداقل دقیقاً ''i'' هستند (در زمانی که اولین پرتاب های پرتابهای ''i'' دنباله هادنبالهها را بدست آورده است). این امر، امید یک متغیر تصادفی را با یک [[توزیع نمایی]] منطبق می سازدمیسازد. ما از این فرمول برای [[تصاعد هندسی]] استفاده کردیم:
<math>
\sum_{k=1}^\infty r^k=\frac{r}{1-r}.
</math>
توزیع پیوسته ایپیوستهای که مقادیر غیر منفی را می گیردمیگیرد
مثل حالت گسسته ایگسستهای که قبلاً گفته شده وقتی که یک متغیر تصادفی پیوسته ایپیوستهای مثل''X'' فقط مقادیر غیر منفی را می گیردمیگیرد پس می توانیممیتوانیم از فرمول زیر برای محاسبۀمحاسبهٔ امیدش استفاده کنیم (حتی وقتی که امید نامتناهی باشد):
:<math>
\operatorname{E}(X)=\int_0^\infty P(X \ge x)\; dx
</math>
اثبات: ابتدا فرض کنید که ''X'' یک چگالی برابر <math>f_X(x)</math> داشته باشد. ما دو تکنیک ارائه می کنیممیکنیم:
* با استفاده از [[انتگرال گیری]] جزئی (حالت ویژه ایویژهای از بخش 1.4۱٫۴ بالا):
:<math>
\operatorname{E}(X) = \int_0^\infty (-x)(-f_X(x))\;dx = \left[ -x(1 - F(x)) \right]_0^\infty + \int_0^\infty (1 - F(x))\;dx
</math>
و کروشۀکروشهٔ آن به صفر می رسدمیرسد چون <math>1-F(x) = o(1/x) </math> به طوری که <math>x \to \infty</math>.
* با استفاده از یک مبادله در مرتبۀمرتبهٔ انتگرالگیری:
:<math>
\int_0^\infty P(X\ge x)\;dx =\int_0^\infty \int_x^\infty f_X(t)\;dt\;dx = \int_0^\infty \int_0^t f_X(t)\;dx\;dt = \int_0^\infty t f_X(t)\;dt = \operatorname{E}(X)
</math>
در حالتی که هیچ چگالی وجود نداشته باشد دیده می شودمیشود که:
:<math>
\begin{align}
</math>
تاریخ
نظریه ینظریهٔ مقدارمورد انتظاردر اواسط [[قرن هفدهم]] از مطالعه مشکل معروف امتیازات منشاءمنشأ گرفته است. مشکل این بود: چگونه باید پولهای شرط بندیشرطبندی شده را به طور عادلانه بین دو بازیکنی که قبل از اینکه بازی کاملاً تمام شود مجبور هستند بازی را تمام کنند تقسیم کرد؟ این مشکل [[قرن هاقرنها]] مورد بحث وبررسی قرار گرفت و راه حلهاو پیشنهادات جنگجال برانگیز زیادی پیشنهاد شدند. این نظریه برای اولین بار توسط یک [[نجیب زاده]] ی فرانسوی دو مر( ( de Mere در سال 1654۱۶۵۴ به [[بلیز پاسکال]] ارائه شد. دو مر اظهار نظر کرد که این مشکل نمیتواند حل شود و این نشان می دهدمیدهد ریاضی نمیتواند در دنیای واقعی استفاده شود و کمبود دارد. پاسکال، که یک ریاضیدان است، برانگیخته شد و تصمیم گرفت این مشکل را برای همیشه حل کند. اولین موضوع را از طریق نامه هاینامههای معروفی با پیر دو فرمات (Pierre de fermat) در میان گذاشت. بعد از مدت زمان کوتاهی هر دوی آنها به دو راه حل مجزا رسیدند. آنها این مشکل را با دو راه حل محاسباتی متفاوت حل کردند، اما نتیجۀنتیجهٔ آنها یکسان بود زیرا محاسبات شان بر اساس اصول پایه و اساسی یکسانی بود. این اصل پایه این بود که مقدار یک یود آینده باید مستقیماً با شانس به دست آوردن آن مساوی باشد. این اصل به نظر هر دوی آنها کاملاً طبیعی بود. آنها از اینکه به راه حل رسیده بودند بسیار خوشحال بودند و از اینرو این باعث شد آنها متقاعد شوند بالاخره انی شکل را توانسته اندتوانستهاند حل کنند. با این حال آنها یافته هایشان را منتشر نکردند. آنها تنها به تعدادی از دوستان مشترک محققانشان در پاریس اطلاع دادند. سه سال بعد در سال 1657۱۶۵۷ یک [[ریاضی دانریاضیدان]] آلمانی کریستیان هیگنز، که به پاریس سفر کرده بود، یک مقاله در مورد نظریۀنظریهٔ احتمال با نام (de ratiociniis in ludo ale) چاپ کرد. در آن مقاله هیگنز مسئله امتیازات را در نظر گرفته بود و یک راه حل بر اساس همان اصلی که پاسکال و فرمات دنبال کرده بودند پیشنهاد کرد. او همچنین نظریه امید را با اضافه کردن قوانین مربوط به چگونه محاسبه کردن امید هاامیدها در موقعیت های پیچیدهموقعیتهای ترپیچیدهتر از مسئلۀمسئلهٔ اصلی، گسترش داد. هینگز در مقدمۀمقدمهٔ مقاله اش نوشت: باید گفته شود که بریا بعضی مواقع، بعضی از بهترین [[ریاضی دانان]] از فرانسه قبلاً به حل آن پرداخته بودند بنابراین هیچ کسهیچکس نباید افتخار ابداع این نظریه را به من نسبت دهد. این به من تعلق ندارد. اما انی دانشمندان، اگر چه هر دو یکدیگر را از طریق پرسیدن سوالات دشوار از یکدیگر در معرض آزمایش قرار داده بودند ولی روش هایشان را از هم پنهان کرده بودند. از اینرو من از همان [[اصول اولیه]] شروع کردم تا به حل این مسئله رسیدم و بدین دلیل غیر ممکنغیرممکن است تأئیدتأیید کنم که از همان اصول آنها آغاز به کار کردم. اما در نهایت من در بسیاری از موارد بدین نتیجه رسیدم که پاسخ هایمپاسخهایم با آنها متفاوت هستند. از اینرو هیگنز در طی سفرش به فرانسه از اظهار نظر دومر در سال 1655۱۶۵۵ مطلع شد، بعداً در سال 1656۱۶۵۶ از طریق ارتباط با کارکاوی دریافت که روش او کاملاً همانند پاسکال است، بنابراین قبل از اینکه مقاله اش برای چاپ برود، او از ارجحیت و پیش قدمی پاسکال در این زمینه آگاه بود.
پاسکال و هیگنز هیچکدامهیچکدام کلمۀکلمهٔ امید را با مفهوم امروزی استفاده نکردند. به خصوص شانس یا امید من برای بردن هر چیزی مساوی با به دست نیاوردن آن است...است… اگر من انتظار دارم a یا b را به دست بیاورم، شانس بدست آوردن هر کدام از آنها مساوی است، مقدار امید من (a+b)/2 است. بیش از صد سال قبل، در سال 1814۱۸۱۴ پیرسایمون لاپلاس مقالۀمقالهٔ خود را با عنوان "Théorie analytique des probabilités" منتشر کرد، در آنجا مفهوم مقدار مورد انتظار (یا امید ریاضی) به طور واضح توضیح داده شد.
استفاده از حرف E به معنی مقدار مورد انتظار است که به نظریۀنظریهٔ انتخاب و شانس دابیلیو. ای وایت ورت بر میگرددمیگردد این سمبل در زمانی که بریا همۀهمهٔ نویسندگان انگلیسی، آلمانی و فرانسوی E به معنی انتظار شد.
== منابع ==
{{پانویس}}
|بازیابی =۳۰ ژوئیهٔ ۲۰۱۲
}}
* {{یادکرد کتاب | نام خانوادگی = Casella| نام = George| نام خانوادگی۲ = Berger| نام۲ = Roger L.
| عنوان = Statistical Inference| سال = 2001| ناشر = Duxbury Press| شابک = 0534243126| فصل = ۱}}
{{آمار}}
|