توزیع هندسی: تفاوت میان نسخهها
محتوای حذفشده محتوای افزودهشده
FreshmanBot (بحث | مشارکتها) جز اصلاح فاصله مجازی + اصلاح نویسه با استفاده از AWB |
Europe2009 (بحث | مشارکتها) انتقال از فرایند تصادفی هندسی |
||
خط ۳۱:
char2 =<math>\frac{p}{1-(1-p)\,e^{it}}\!</math>|
}}
توزیع هندسی، توزیعی است [[توزیع گسسته|گسسته]] که بیانگر احتمال اولین پیروزی پس از k-1 شکست در فرایند [[توزیع برنولی|برنولی]] میباشد
:<math>p_X(k) = \text{P}\{X = k\} = (1 - p)^{k-1}\,p</math>
که در آن p احتمال پیروزی در یک دفعه است.
== متغیر تصادفی هندسی ==
فرض کنید آزمایشهای مستقلی با احتمال موفقیت p، آن قدر تکرار میشود تا یک موفقیت به دست آید. اگر X تعداد آزمایشهای لازم باشد، آنگاه:
<math>P\{X=n\}=(1-p)^{n-1}p\qquad n=1,2,3\ldots</math>
== اثبات ==
سطر ۴۴ ⟵ ۵۱:
:<math>\sum_{n=1}^\infty \text{Pr}\{X=n\}=p \sum_{n=1}^\infty (1-p)^{n-1}=\frac{p}{1-(1-p)}=1</math>
در نتیجه با احتمال ۱، یک موفقیت بالاخره اتفاق می افتد. هر [[متغیر تصادفی]] که تابع جرم احتمال به صورت بالا باشد را یک متغیر (فرایند) تصادفی هندسی با پارامتر p مینامیم.
== چند مثال ساده ==
سطر ۱۰۸ ⟵ ۱۱۵:
همچنین میتوان ثابت کرد اگر یک متغیر تصادفی گسسته بی حافظه باشد، هندسی است.(عکس قضیه)
== امید ریاضی متغیر تصادفی هندسی ==
امید ریاضی متغیر تصادفی هندسی با پارامتر p برابر است با:
<math>E[X]=\frac{1}{p}</math>
=== اثبات ===
میدانیم:
<math>P_X(k)=(1-p)^{k-1}p</math>
و:
<math>E[X]=\sum_{x}xP_X(x)</math>
پس با ترکیب دو رابطهٔ بالا برای متغیر تصادفی هندسی داریم:
<math>E[X]=\sum_{k=0}^\infty k(1-p)^{k-1}p</math>
حال اگر فرض کنیم:
<math>F(p)=\sum_{k=0}^\infty (1-p)^{k-1}=\frac{1}{1-(1-p)}=\frac{1}{p}</math>
داریم:
<math>\frac{dF(p)}{dp}=-\sum_{k=0}^\infty k(1-p)^{k-1}=-\frac{1}{p^{2}}</math>
در نتیجه:
<math>E[X]=p\frac{1}{p^{2}}=\frac{1}{p}</math>
== واریانس متغیر تصادفی هندسی ==
واریانس متغیر تصادفی هندسی با پارامتر p برابر است با:
<math>Var[X]=\frac{1-p}{p^{2}}</math>
=== اثبات ===
فرض میکنیم پیشامد <math>A= \{X=1\}</math> و پیشامد <math>B= \{X>1\}</math> :
با توجه به اینکه A و B افرازهای [[فضای نمونه]] ی ما هستند، داریم:
<math>E[X]=E[X|A]P(A)+E[X|B]P(B)</math>
<math>E[X^{2}]=E[X^{2}|A]P(A)+E[X^{2}|B]P(B)</math>
در نتیجه:
<math>E[X^{2}|A]=E[X^{2}|X=1]=1</math>
و:
<math>E[X^{2}|B]=E[X^{2}|X>1]=E[(X+1)^{2}]=E[X^{2}+2X+1]=E[X^{2}]+\frac{2}{p}+1</math>
پس:
<math>E[X^{2}]=1*p+(E[X^{2}+\frac{2}{p}+1)(1-p)</math>
<math>E[X^{2}]=\frac{2-p}{p^{2}}</math>
در نهایت از آنجا که میدانیم <math>Var[X]=E[X^{2}]-(E[X])^{2}</math> :
<math>Var[X]=\frac{2-p}{p^{2}}-\frac{1}{p^{2}}=\frac{1-p}{p^{2}}</math>
== منابع ==
سطر ۱۱۸ ⟵ ۱۹۰:
{{توزیعهای احتمالات}}
[[رده:توزیعهای خانواده نمایی]]
|