تابع چگالی احتمال: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
جز ←‏جایگزینی با [[وپ:اشتباه|اشتباه‌یاب]]: آنصورت⟸آن صورت، احتمای⟸احتمال، باالتبع⟸بالطبع، بیندیشیم⟸بیاندیشیم
خط ۴۷:
می‌توان بعضی از متغیرهای تصادفی گسسته را نیز با استفاده از تابع چگالی احتمالی توصیف کرد. به طور مثال برای متغیر تصادفی که دو مقدار ۱ و -۱ را هر کدام با احتمال ۱/۲ می‌گیرد، می‌توان چگالی احتمال زیر را نسبت داد
:<math>f(t) = \frac{1}{2}(\delta(t+1)+\delta(t-1)).</math>
به طور کلی اگر متغیر تصادفی ''n'' مقدار حقیقی را اختیار کند می‌توان تابع چگالی احتمایاحتمال آن را به این شکل نوشت
:<math>f(t) = \sum_{i=1}^np_i\, \delta(t-x_i),</math>
که مقادیر ''x''<sub>1</sub>, …, ''x<sub>n</sub>'' مقادیری هستند که متغیر تصادفی ''X'' با احتمال ''p''<sub>1</sub>, …, ''p<sub>n</sub>'' اختیار می‌کند..
خط ۵۷:
= \int_D f_{X_1,\dots,X_N}(x_1,\ldots,x_N)\,dx_1 \cdots dx_N.</math>
 
اگر(''F''(''x''<sub>1</sub>,&nbsp;…,&nbsp;''x''<sub>''n''</sub>) =&nbsp;Pr(''X''<sub>1</sub>&nbsp;≤&nbsp;''x''<sub>1</sub>,&nbsp;…,&nbsp;''X''<sub>''n''</sub>&nbsp;≤&nbsp;''x''<sub>''n''</sub> باشد، به آن [[توزیع تجمعی احتمال]] بردار (''X''<sub>1</sub>,&nbsp;…,&nbsp;''X''<sub>''n''</sub>) گوییم که در آنصورتآن صورت توزیع چگالی احتمال توأم از طریق مشتق گیری از آن بدست می‌آید:
 
: <math>
خط ۷۸:
:<math>f_{X_1,\dots,X_n}(x_1,\ldots,x_n) = f_1(x_1)\cdots f_n(x_n),</math>
 
(لزومی ندارد که هر ''f<sub>i</sub>'' یک چگالی احتمال باشد) در آنصورتآن صورت n متغیر از یکدیگر [[مستقل]] هستند و چگالی توزیع احتمال هریک به صورت زیر محاسبه می‌شود:
 
:<math>f_{X_i}(x_i) = \frac{f_i(x_i)}{\int f_i(x)\,dx}.</math>
خط ۱۰۶:
اگر تابع چگالی احتمال متغیر تصادفی X به صورت ''(f<sub>X</sub>''(''x'' داده شده باشد، می‌توان (ولی معمولاً غیر ضروری است، زیر را مشاهده کنید) تابع چگالی احتمال متغیری مانند ({{nowrap|''Y {{=}} g''(''X''}} را محاسبه کرد. به این کار «تغییر متغیر» می‌گویند و در عمل برای تولید متغیر تصادفی با شکل دلخواه {{nowrap|''f''<sub>''g''(''X'')</sub> {{=}} ''f<sub>Y</sub>''}} با استفاده از مولد عدد تصادفی شناخته شده (برای مثال یکنواخت)، مورد استفاده قرار می‌گیرد.
 
اگر تابع g [[یکنواخت]] باشد، در آنصورتآن صورت تابع چگالی حاصل به صورت زیر است:
 
: <math>f_Y(y) = \left| \frac{1}{g'(g^{-1}(y))} \right| \cdot f_X(g^{-1}(y)).</math>
خط ۱۲۴:
که در آن (''n''(''y'' تعداد جواب‌های "x" برای رابطه {{nowrap|''g''(''x'') {{=}} ''y''}} و (''g''<sup>−1</sup><sub>''k''</sub>(''y''‌ها همان جواب‌ها هستند.
 
حال وسوسه انگیز است که در مورد امید ریاضی((''E''(''g''(''X'' نیز بیندیشیمبیاندیشیم. به این منظور ابتدا باید چگالی احتمال(''f<sub>g(X</sub>'' را برای متغیر تصادفی جدید ({{nowrap|''Y {{=}} g''(''X''}} بیابیم. به جای محاسبه
 
:<math> E(g(X)) = \int_{-\infty}^\infty y f_{g(X)}(y)\,dy, </math>
خط ۱۴۱:
:<math> \int\limits_{y = g(x_0, x_1, \dots, x_{m-1})} \frac{f(x_0, x_1,\dots, x_{m-1})}{\sqrt{\sum_{j=0}^{j<m}} (\frac{\partial g}{\partial x_j}(x_0, x_1, \dots , x_{m-1}))^2} \; dV</math>
 
که در آن انتگرال روی ''m-1'' بعد است و باید ''dV'' را متناسب با این انتگرال پارامتریزه جایگزین کرد. متغیرهای تصادفی ''x''<sub>0</sub>, ''x''<sub>1</sub>, …, ''x''<sub>''m''−1</sub> باالتبعبالطبع توابعی از این پارامتریزه کردن‌ها هستند.
 
شاید بصری به نظر برسد، ولی این ناشی از مطلب زیر است: فرض کنید ''''x'''' یک متغیر تصادفی n-بعدی با تابع چگالی احتمال f است. اگر {{nowrap|'''''y''''' {{=}} ''H''('''''x''''')}} و ''H'' تابعی [[دوسویه]] و [[تشخیص پذیر]] باشد، ''y'' دارای چگالی احتمال ''g'' است: