امید ریاضی: تفاوت میان نسخهها
محتوای حذفشده محتوای افزودهشده
بدون خلاصۀ ویرایش |
Freshman404 (بحث | مشارکتها) جز ←جایگزینی با [[وپ:اشتباه|اشتباهیاب]]: پیشنهادات⟸پیشنهادها، راه حلهاو پیشنهادات⟸راه حلها و پیشنهادها، امیدریاضی⟸امید ریاضی، انتگرالگ... |
||
خط ۴۲:
در یک حالت خاص اگر ''Y'' را با |''X''| مقایسه کنیم، میدانیم که ''X''≤''Y'' و ''X''≤''Y-''. پس میتوان نتیجه گرفت که [E[X] ≤ E[Y و
[E[-X] ≤ E[Y. بنا به خاصیت خطی
در نتیجه قدر مطلق
:<math>|\operatorname{E}(X)| \leq \operatorname{E}(|X|)</math>
خط ۷۲:
\operatorname{E}[X] = \sum_{i=1}^\infty x_i\, p_i,
</math>
مشروط بر اینکه این سری مطلقاً همگرا است (که این جمع باید در صورتی متناهی باشد که ما همهٔ ''x{{su|b=i}}'''s را با مقادیر قدرمطلقشان جایگزین کنیم). اگر این سری
برای مثال فرض کنید که متغیر تصادفی X شامل مقادیر ۱, −۲, ۳, −۴, … به ترتیب با احتمالات {{frac2|''c''|1<sup>2</sup>}}, {{frac2|''c''|2<sup>2</sup>}}, {{frac2|''c''|3<sup>2</sup>}}, {{frac2|''c''|4<sup>2</sup>}}, … ,باشد که {{nowrap|''c'' {{=}} {{frac2|6|''π''<sup>2</sup>}}}} یک ثابت نرمالیزه است که مطمئن میسازد که مجموع احتمالات برابر یک است. پس جمع متناهی زیر همگرا است و جمعش برابر {{nowrap|[[لگاریتم طبیعی|ln]](2) ≃ ۰٫۶۹۳۱۵}}. میباشد:
: <math>
خط ۹۲:
:<math>\operatorname{E}(g(X)) = \int_{-\infty}^\infty g(x) f(x)\, \operatorname{d}x .</math>
بعضی مواقع به این قانون آماری ناخودآگاه میگویند. بااستفاده از نمایشها به صورت [[انتگرال ریمان]] – استیلتجس و
* <math>\operatorname{E}(g(X)) = \int_a^\infty g(x) \, \mathrm{d} \operatorname{P}(X \le x)= g(a)+ \int_a^\infty g'(x)\operatorname{P}(X> x) \, \mathrm{d} x</math> if <math>\operatorname{P}(g(X) \ge g(a))=1</math>,
* <math>\operatorname{E}(g(X)) = \int_{-\infty}^a g(x) \, \mathrm{d} \operatorname{P}(X \le x)= g(a)- \int_{-\infty}^a g'(x)\operatorname{P}(X \le x) \, \mathrm{d} x</math> if <math>\operatorname{P}(g(X) \le g(a))=1</math>.
خط ۱۵۶:
:<math>\operatorname{E}(X) = \operatorname{E} \left( \operatorname{E}(X|Y) \right).</math>
نابرابریها
اگر یک متغیر تصادفی ''x'' همیشه کمتر یا مساوی با متغیر تصادفی دیگری ''Y'' باشد، پس امید ریاضی (
اگر {{nowrap|''X'' ≤ ''Y''}}, است، پس {{nowrap|E[''X''] ≤ E[''Y'']}}. است.
به ویژه، اگر y را با {{!}}''X''{{!}} منطبق کنیم، میدانیم {{nowrap|''X'' ≤ ''Y''}}و{{nowrap|−''X'' ≤ ''Y''}}. است. از اینرو ما میدانیم {{nowrap|E[''X''] ≤ E[''Y'']}} و {{nowrap|E[''-X''] ≤ E[''Y'']}}. با توجه به خطی بودن امید ریاضی ما میدانیم {{nowrap|-E[''X''] ≤ E[''Y'']}} است. از اینرو، مقدار مطلق امید ریاضی یک متغیر تصادفی کمتر یا مساوی با مقدار مطلق آن است:
خط ۱۸۴:
به طور کلی، عملگر امید ریاضی و تابعهای متغیرهای تصادفی تبدیل نیم شوند یعنی:
:<math>\operatorname{E}(g(X)) = \int_{\Omega} g(X)\, \operatorname{d}P \neq g(\operatorname{E}(X)),</math>
یک نا تساوی مهم برای این موضوع نا تساوی جنسن است، که شامل مقدارهای مورد
استفادهها و کاربردها
مقدارهای مورد انتظار توانهای ''X''گشتاورهای ''X''مینامند؛ گشتاورها نزدیک به میانگین ''X'' در واقع مقدارهای مورد انتظار توانهای {{nowrap|''X'' − E[''X'']}} هستند. گشتاورهای بعضی از متغیرهای تصادفی میتوانند برای تعیین توزیع هایشان از طریق تابع تولیدی گشتاوریشان استفاده شوند.
خط ۱۹۰:
این ویژگی در بسیار از مصارف استفاده میشود مانند: مسائل کلی تخمین آماری و آموزش ماشین، بریا تخمین مقدارهای (احتمالی) سود از طریق متود ها/روشهای [[مونت کارلو]]، زیرا اکثر مقدارهای (کمیتهای) سود میتواند از لحاظ امید ریاضی نوشته شوند یعنی، در اینجا تابع شاخصی برای مجموعهٔ است.
در [[مکانیک کلاسیک]]، [[مرکز جرم]] یک مفهوم مشابه امید ریاضی است. برای مثال، فرض کنید ''X'' یک متغیر تصادفی گسسته با مقدارهای ''x<sub>i</sub>'' و احتمالات مرتبط ''p<sub>i</sub>'' است، حالا یک میلهٔ بدون وزن که بر روی آن وزنها در موقعیتهای ''x<sub>i</sub>'' در طول میله قرار گرفتهاند و جرم آنها ''p<sub>i</sub>'' است (که مجموع آنها یک است) نقطه که در آن میله متعادل E[''X''] است.
مقدارهای مورد انتظار میتوانند همچنین برای محاسبهٔ واریانس به وسیلهٔ فرمولهای
:<math>\operatorname{Var}(X)= \operatorname{E}(X^2) - (\operatorname{E}(X))^2.</math>
خط ۲۵۰:
</math>
و کروشهٔ آن به صفر میرسد چون <math>1-F(x) = o(1/x) </math> به طوری که <math>x \to \infty</math>.
* با استفاده از یک مبادله در مرتبهٔ
:<math>
\int_0^\infty P(X\ge x)\;dx =\int_0^\infty \int_x^\infty f_X(t)\;dt\;dx = \int_0^\infty \int_0^t f_X(t)\;dx\;dt = \int_0^\infty t f_X(t)\;dt = \operatorname{E}(X)
خط ۲۶۱:
</math>
تاریخ
نظریهٔ
پاسکال و هیگنز هیچکدام کلمهٔ امید را با مفهوم امروزی استفاده نکردند. به خصوص شانس یا امید من برای بردن هر چیزی مساوی با به دست نیاوردن آن است… اگر من انتظار دارم a یا b را به دست بیاورم، شانس بدست آوردن هر کدام از آنها مساوی است، مقدار امید من (a+b)/2 است. بیش از صد سال قبل، در سال ۱۸۱۴ پیرسایمون لاپلاس مقالهٔ خود را با عنوان "Théorie analytique des probabilités" منتشر کرد، در آنجا مفهوم مقدار مورد انتظار (یا امید ریاضی) به طور واضح توضیح داده شد.
استفاده از حرف E به معنی مقدار مورد انتظار است که به نظریهٔ انتخاب و شانس دابیلیو. ای وایت ورت بر میگردد این سمبل در زمانی که بریا همهٔ نویسندگان انگلیسی، آلمانی و فرانسوی E به معنی انتظار شد.
|