توزیع هندسی: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
FreshmanBot (بحث | مشارکت‌ها)
جز اصلاح فاصله مجازی + اصلاح نویسه با استفاده از AWB
خط ۳۱:
char2 =<math>\frac{p}{1-(1-p)\,e^{it}}\!</math>|
}}
 
 
توزیع هندسی، توزیعی است [[توزیع گسسته|گسسته]] که بیانگر احتمال اولین پیروزی پس از k-1 شکست در فرایند [[توزیع برنولی|برنولی]] می‌باشد
:<math>p_X(k) = \text{P}\{X = k\} = (1 - p)^{k-1}\,p</math>
که در آن p احتمال پیروزی در یک دفعه است.
 
 
== متغیر تصادفی هندسی ==
فرض کنید آزمایش‌های مستقلی با احتمال موفقیت p، آن قدر تکرار می‌شود تا یک موفقیت به دست آید. اگر X تعداد آزمایش‌های لازم باشد، آنگاه:
 
<math>P\{X=n\}=(1-p)^{n-1}p\qquad n=1,2,3\ldots</math>
 
== اثبات ==
سطر ۴۴ ⟵ ۵۱:
:<math>\sum_{n=1}^\infty \text{Pr}\{X=n\}=p \sum_{n=1}^\infty (1-p)^{n-1}=\frac{p}{1-(1-p)}=1</math>
 
در نتیجه با احتمال ۱، یک موفقیت بالاخره اتفاق می افتد. هر [[متغیر تصادفی]] که تابع جرم احتمال به صورت بالا باشد را یک متغیر (فرایند) تصادفی هندسی با پارامتر p می‌نامیم.
 
== چند مثال ساده ==
سطر ۱۰۸ ⟵ ۱۱۵:
همچنین می‌توان ثابت کرد اگر یک متغیر تصادفی گسسته بی حافظه باشد، هندسی است.(عکس قضیه)
 
 
{{توزیع‌های احتمال|discrete-infinite}}
 
== امید ریاضی متغیر تصادفی هندسی ==
امید ریاضی متغیر تصادفی هندسی با پارامتر p برابر است با:
 
<math>E[X]=\frac{1}{p}</math>
 
=== اثبات ===
می‌دانیم:
 
<math>P_X(k)=(1-p)^{k-1}p</math>
 
و:
 
<math>E[X]=\sum_{x}xP_X(x)</math>
 
پس با ترکیب دو رابطهٔ بالا برای متغیر تصادفی هندسی داریم:
 
<math>E[X]=\sum_{k=0}^\infty k(1-p)^{k-1}p</math>
 
حال اگر فرض کنیم:
 
<math>F(p)=\sum_{k=0}^\infty (1-p)^{k-1}=\frac{1}{1-(1-p)}=\frac{1}{p}</math>
 
داریم:
 
<math>\frac{dF(p)}{dp}=-\sum_{k=0}^\infty k(1-p)^{k-1}=-\frac{1}{p^{2}}</math>
 
در نتیجه:
 
<math>E[X]=p\frac{1}{p^{2}}=\frac{1}{p}</math>
 
== واریانس متغیر تصادفی هندسی ==
واریانس متغیر تصادفی هندسی با پارامتر p برابر است با:
 
<math>Var[X]=\frac{1-p}{p^{2}}</math>
 
=== اثبات ===
فرض می‌کنیم پیشامد <math>A= \{X=1\}</math> و پیشامد <math>B= \{X>1\}</math> :
 
با توجه به اینکه A و B افرازهای [[فضای نمونه]] ی ما هستند، داریم:
 
<math>E[X]=E[X|A]P(A)+E[X|B]P(B)</math>
 
<math>E[X^{2}]=E[X^{2}|A]P(A)+E[X^{2}|B]P(B)</math>
 
در نتیجه:
 
<math>E[X^{2}|A]=E[X^{2}|X=1]=1</math>
 
و:
 
<math>E[X^{2}|B]=E[X^{2}|X>1]=E[(X+1)^{2}]=E[X^{2}+2X+1]=E[X^{2}]+\frac{2}{p}+1</math>
 
پس:
 
<math>E[X^{2}]=1*p+(E[X^{2}+\frac{2}{p}+1)(1-p)</math>
 
<math>E[X^{2}]=\frac{2-p}{p^{2}}</math>
 
در نهایت از آنجا که می‌دانیم <math>Var[X]=E[X^{2}]-(E[X])^{2}</math> :
 
<math>Var[X]=\frac{2-p}{p^{2}}-\frac{1}{p^{2}}=\frac{1-p}{p^{2}}</math>
 
 
 
 
== منابع ==
سطر ۱۱۸ ⟵ ۱۹۰:
 
{{توزیع‌های احتمالات}}
 
{{آمار-خرد}}
 
[[رده:توزیع‌های خانواده نمایی]]