قانون اعداد بزرگ: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
Alliiance (بحث | مشارکت‌ها)
جز افزودن تصویر متحرک به بخش تاریخچه
برچسب‌ها: متن غیرفارسی افزوده شد افزودن پیوند به بیرون نادرست افزودن پیوند بیرونی به جای ویکی‌پیوند ویرایشگر دیداری
MahdiAnime (بحث | مشارکت‌ها)
ویراست یک پاراگراف، قالب‌بندی صفحه
خط ۳:
نکتهٔ مهم دربارهٔ قانون اعداد بزرگ این است که این قانون - همان‌طور که از نامش پیداست - تنها زمانی اعمال می‌شود که تعداد زیادی مشاهدات در نظر گرفته شود. هیچ اصلی وجود ندارد که تعداد کمی از مشاهدات با مقدار مورد انتظار منطبق شود.<ref>{{Cite journal|date=2022-01-02|title=Law of large numbers|url=https://en.wikipedia.org/w/index.php?title=Law_of_large_numbers&oldid=1063288449|journal=Wikipedia|language=en}}</ref>
 
همچنین مهم است که توجه داشته باشید که قانون اعداد بزرگ فقط برای میانگین اعمال می‌شود. صورت ریاضی آن بدین شکل است:<math display="block">\lim_{n\to\infty} \sum_{i=1}^n \frac{X_i} n - \overline{X} = 0</math>[[پرونده:Largenumbers.svg|نمایشی از قانون اعداد بزرگ برای ریختن [[تاس]]. از چپ به راست، تعداد دفعات ریختن تاس زیاد می‌شود و میانگین نتایج آزمایش به ۳٫۵ نزدیک‌تر می‌شود.|انگشتی|۴۰۰ پیکسل]]فرمول‌های دیگری که مشابه به نظر می‌رسند قابل قبول نیستند. مانند [[انحراف معیار|انحراف معیارِ]] "نتایج نظری":<math display="block">\sum_{i=1}^n X_i - n\times\overline{X}</math>این فرمول نه تنها با افزایش n به سمت صفر همگرا نمی‌شود، بلکه با افزایش n به یک مقدار ثابت میل خواهد کرد.<ref>{{Cite journal|date=2022-01-02|title=Law of large numbers|url=https://en.wikipedia.org/w/index.php?title=Law_of_large_numbers&oldid=1063288449|journal=Wikipedia|language=en}}</ref>
 
 
== مثال ها ==
فرمول‌های دیگری که مشابه به نظر می‌رسند قابل قبول نیستند. مانند [[انحراف معیار|انحراف معیارِ]] "نتایج نظری":<math display="block">\sum_{i=1}^n X_i - n\times\overline{X}</math>این فرمول نه تنها با افزایش n به سمت صفر همگرا نمی‌شود، بلکه با افزایش n به یک مقدار ثابت میل خواهد کرد.<ref>{{Cite journal|date=2022-01-02|title=Law of large numbers|url=https://en.wikipedia.org/w/index.php?title=Law_of_large_numbers&oldid=1063288449|journal=Wikipedia|language=en}}</ref>
به عنوان یک مثال، وقتی یک [[تاس]] شش‌وجهی را یک بار بریزیم، یکی از عددهای ۱، ۲، ۳، ۴، ۵ یا ۶ به دست خواهد آمد. اگر این آزمایش را تکرار کنیم، هر دفعه یکی از این اعداد به دست می‌آیند و اگر تاس [[نااریب]] باشد، احتمال دیده شدن این اعداد با هم برابر است. در نتیجه امید ریاضی عددی که با ریختن هر بار تاس به دست می‌آید طبق این فرمول:
 
== مثال‌ها ==
[[پرونده:Largenumbers.svg|نمایشی از قانون اعداد بزرگ برای ریختن [[تاس]]. از چپ به راست، تعداد دفعات ریختن تاس زیاد می‌شود و میانگین نتایج آزمایش به ۳٫۵ نزدیک‌تر می‌شود.|انگشتی|۴۰۰ پیکسل]]به عنوان یک مثال، وقتی یک [[تاس]] شش‌وجهی را یک بار بریزیم، یکی از عددهای ۱، ۲، ۳، ۴، ۵ یا ۶ به دست خواهد آمد. اگر این آزمایش را تکرار کنیم، هر دفعه یکی از این اعداد به دست می‌آیند و اگر تاس [[نااریب]] باشد، احتمال دیده شدن این اعداد با هم برابر است. در نتیجهنتیجه، امید ریاضی عددی که با ریختن هر بار تاس به دست می‌آیدمی‌آید، طبق این فرمول:
: <math> \tfrac {1+2+3+4+5+6}{6} = 3.5.</math>
 
برابر با ۳٫۵ است. طبق قانون اعداد بزرگ، هرگاه آزمایش ریختن تاس را به دفعات زیاد تکرار کنیم، میانگین اعدادی که به دست می‌آیدمی‌آید، تدریجاً به ۳٫۵ نزدیک خواهد شد.<ref name="en.wikipedia.org">http://en.wikipedia.org/w/index.php?title=Law_of_large_numbers&oldid=437185925</ref>
به‌طور مثال می‌توان به [[آزمایش پرتاب سکه]] اشاره کرد. همان‌طور که می‌دانیم نتیجه این آزمایش [[توزیع برنولی]] دارد. اگر فقط یک بار آزمایش را انجام دهیمدهیم، احتمال رو آمدن سکه برابر ۱/۲ است، طبق قانون اعداد بزرگ اگر تعداد پرتاب‌ها زیاد باشدباشد، نسبت تعداد رو آمدن‌ها به تعداد کل پرتاب‌ها به ۱/۲ میل می‌کند<ref name="en.wikipedia.org" />
مشخص است که اختلاف تعداد روها و پشت‌ها با زیاد شدن تعداد آزمایش‌ها افزایش پیدا می‌کند. پس احتمال کوچک بودن اختلاف روها و پشت‌ها به سمت عدد صفر میل می‌کند. هم چنین می‌توان نتیجه گرفت که نسبت اختلاف روها و پشت‌ها به تعداد کل پرتاب‌ها نیز به سمت صفر می‌روند. از این حقیقت در می‌یابیم که با وجود رشد اختلاف بین تعداد روها و پشت‌ها در انجام این آزمایش به دفعات زیاد، سرعت این رشد از سرعت افزایش تعداد کل پرتاب‌ها کم‌تر است.<ref name="en.wikipedia.org" />
 
== محدودیت ها ==
 
== تاریخچه ==
[[File:DiffusionMicroMacro.gif|پیوند=https://en.wikipedia.org/wiki/File:DiffusionMicroMacro.gif|بندانگشتی|250x250پیکسل|انتشار (Diffusion) نمونه‌ای از قانون اعداد بزرگ است. در ابتدا، مولکول‌های املاح در سمت چپ مانع [خط سرخابی] قرار دارند و هیچ کدام در سمت راست وجود نیستند. مانع برداشته می‌شود، و املاح پخش می‌شوند تا کل ظرف را پر کنند. شکل بالا: حرکت یک مولکول که حرکت کاملا تصادفی به نظر می‌رسد. شکل وسط: با تعداد مولکول‌های بیشتر، به وضوح روندی وجود دارد که املاح ظرف را بیشتر و بیشتر پر می‌کند. شکل پایین: با تعداد بسیار زیادی مولکول املاح (بیش از حد برای دیدن)، به نظر می‌رسد املاح به آرامی و به طور سیستماتیک از مناطق با غلظت بالا به مناطق با غلظت پایین حرکت می‌کنند.]]
[[File:DiffusionMicroMacro.gif|پیوند=https://en.wikipedia.org/wiki/File:DiffusionMicroMacro.gif|راست|بندانگشتی|250x250پیکسل|Diffusion is an example of the law of large numbers. Initially, there are solute molecules on the left side of a barrier (magenta line) and none on the right. The barrier is removed, and the solute diffuses to fill the whole container.Top: With a single molecule, the motion appears to be quite random.Middle: With more molecules, there is clearly a trend where the solute fills the container more and more uniformly, but there are also random fluctuations.
(Gerolamo Cardano (۱۵۰۱–۱۵۷۶ [[جرلامو کاردانو|جیرولامو کاردانو]] [[ریاضی‌دان]] ایتالیایی بدون [[اثبات ریاضی]] بر این باور بود که دقت نتایج تجربی در امارآمار با افزایش تعداد دفعات آزمایش بیشتر می‌شود.<ref>Mlodinow, L. ''The Drunkard's Walk.'' New York: Random House, 2008. p. 50.</ref> این فرضیه بعدها تحت عنوان قانون اعداد بزرگ اثبات شد و مورد توجه قرار گرفت. حالت خاصی از این قانون برای متغیرهای برنولی برای نخستین بر توسط Jacob Bernoulli [[ژاکوب برنولی]] اثبات شد.<ref>Jakob Bernoulli, ''Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae in Civilibus, Moralibus & Oeconomicis'', 1713, Chapter 4, (Translated into English by Oscar Sheynin)</ref> او این قانون را قضیهقضیهٔ طلایی نامید، ولی بعدها با نام قانون اعداد بزرگ مشهور شد. در سال ۱۸۳۵ [[سیمون دنی پواسون|سیمون دنیز پواسون]] Siméon Denis Poisson این قانون را با نام قانون اعداد بزرگ توضیح داد. هم‌اکنون این قضیه با هر دو نام ذکر شده شناخته می‌شود.<ref>Hacking, Ian. (1983) "19th-century Cracks in the Concept of Determinism"</ref> بعد از برنولی و پواسون ریاضیدانان دیگری مانند مارکف، چبیشف، بورل و کولموگرف برای بهبود این تعریف و اثبات آن تلاش کردند و در نهایت الکساندر کینچین برای هر [[متغیر تصادفی]] دلخواه آن را اثبات کرد. این تلاشهاتلاش‌ها منجر به پیدایش دو حالت مختلف از این قانون شد. این دو قسمت عبارت است از قانون ضعیف و قوی.
 
قانون ضعیف و قوی اعداد بزرگ دو قانون متفاوت نیستند. در بلکه این دو قانون از دو دیدگاه متفاوت موضوع همگرایی احتمال وقتی تعداد دفعات آزمایش زیاد استاست، به مقدار میانگین را توضیح می‌دهند. همچنین می‌توان قانون ضعیف را از قانون قوی نتیجه گرفت.<ref>
Bottom: With an enormous number of solute molecules (too many to see), the randomness is essentially gone: The solute appears to move smoothly and systematically from high-concentration areas to low-concentration areas. In realistic situations, chemists can describe diffusion as a deterministic macroscopic phenomenon (see Fick's laws), despite its underlying random nature.]]
(Gerolamo Cardano (۱۵۰۱–۱۵۷۶ [[جرلامو کاردانو|جیرولامو کاردانو]] [[ریاضی‌دان]] ایتالیایی بدون [[اثبات ریاضی]] بر این باور بود که دقت نتایج تجربی در امار با افزایش تعداد دفعات آزمایش بیشتر می‌شود<ref>Mlodinow, L. ''The Drunkard's Walk.'' New York: Random House, 2008. p. 50.</ref> این فرضیه بعدها تحت عنوان قانون اعداد بزرگ اثبات شد و مورد توجه قرار گرفت. حالت خاصی از این قانون برای متغیرهای برنولی برای نخستین بر توسط Jacob Bernoulli [[ژاکوب برنولی]] اثبات شد.<ref>Jakob Bernoulli, ''Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae in Civilibus, Moralibus & Oeconomicis'', 1713, Chapter 4, (Translated into English by Oscar Sheynin)</ref> او این قانون را قضیه طلایی نامید، ولی بعدها با نام قانون اعداد بزرگ مشهور شد. در سال ۱۸۳۵ [[سیمون دنی پواسون|سیمون دنیز پواسون]] Siméon Denis Poisson این قانون را با نام قانون اعداد بزرگ توضیح داد. هم‌اکنون این قضیه با هر دو نام ذکر شده شناخته می‌شود.<ref>Hacking, Ian. (1983) "19th-century Cracks in the Concept of Determinism"</ref> بعد از برنولی و پواسون ریاضیدانان دیگری مانند مارکف، چبیشف، بورل و کولموگرف برای بهبود این تعریف و اثبات آن تلاش کردند و در نهایت الکساندر کینچین برای هر [[متغیر تصادفی]] دلخواه آن را اثبات کرد. این تلاشها منجر به پیدایش دو حالت مختلف از این قانون شد. این دو قسمت عبارت است از قانون ضعیف و قوی.
قانون ضعیف و قوی اعداد بزرگ دو قانون متفاوت نیستند. در بلکه این دو قانون از دو دیدگاه متفاوت موضوع همگرایی احتمال وقتی تعداد دفعات آزمایش زیاد است به مقدار میانگین را توضیح می‌دهند. همچنین می‌توان قانون ضعیف را از قانون قوی نتیجه گرفت.<ref>
http://en.wikipedia.org/w/index.php?title=Probability_theory&action</ref>
 
گفتنی است نصرا... اعتمادی (1324 ش - ...)(1945 م - ...) احتمال داناحتمال‌دان ایرانی اثباتی بدیع برای قانون اعداد بزرگ در سال 1981۱۹۸۱ ممیلادی ارائه داد که هم اکنونهم‌اکنون در بسیاری از کتابهایکتاب‌های نظریهنظریهٔ احتمال مانند کتاب P. Billingsley) Probability and Measure) درج شده است. در این اثبات، شرط استقلال توام متغیرهای تصادفی به شرط استقلال دو به دو کاهش یافته است و افزون اینکهبر ازاین، شیوهاز ایشیوه‌ای بدیع در اثبات استفاده شده است.
== شکل هایشکل‌های قانون اعداد بزرگ ==
دو شکل متفاوت برای '''قانون اعداد بزرگ''' وجود دارد که در زیر به بررسی آنهاآن‌ها پرداخته شده است: '''''قانون ضعیف''' اعداد بزرگ'' و '''''قانون قوی''' اعداد بزرگ''.<ref>{{Cite book|title=A Course in Mathematical Statistics and Large Sample Theory|last1=Bhattacharya|first1=Rabi|last2=Lin|first2=Lizhen|last3=Patrangenaru|first3=Victor|date=2016|publisher=Springer New York|isbn=978-1-4939-4030-1|series=Springer Texts in Statistics|location=New York, NY|doi=10.1007/978-1-4939-4032-5}}</ref><ref name=":0">{{Cite book|title=A Modern Introduction to Probability and Statistics|url=https://archive.org/details/modernintroducti00fmde|url-access=limited|last=Dekking|first=Michel|publisher=Springer|year=2005|isbn=9781852338961|pages=[https://archive.org/details/modernintroducti00fmde/page/n191 181]–190}}</ref> برای دنبالهدنبالهٔ نامتناهی ''X''<sub>1</sub>, ''X''<sub>2</sub>, ... که شامل [[متغیرهای تصادفی مستقل با توزیع یکسان|متغیر های تصادفی مستقل با توزیع یکسان]] و با امید ریاضی هایریاضی‌های برابر ( E(''X''<sub>1</sub>) = E(''X''<sub>2</sub>) = ...= ''µ )'' باشد، هر دو شکل قانون - با قطعیتی نسبی - بیان می‌دارد که میانگین نمونه <math display="inline">\overline{X}_n=\frac1n(X_1+\cdots+X_n) </math> به امید ریاضی اعضای دنباله میل می‌کند: <math display="block">\overline{X}_n \to \mu \quad\textrm{as}\ n \to \infty </math>با فرض متناهی بودن واریانس<math> \operatorname{Var} (X_i)=\sigma^2 </math> (به ازای هر i) و عدم وجود همبستگی بین متغیر های تصادفی، واریانس میانگین n متغیر تصادفی برابر است با:<math display="block">
 
<math>\overline{X}_n=\frac1n(X_1+\cdots+X_n) </math>
 
به امید ریاضی اعضای دنباله میل می‌کند:
 
<math>\overline{X}_n \to \mu \quad\textrm{as}\ n \to \infty. </math>
 
با فرض متناهی بودن واریانس<math> \operatorname{Var} (X_i)=\sigma^2 </math> (به ازای هر i) و عدم وجود همبستگی بین متغیر های تصادفی، واریانس میانگین n متغیر تصادفی برابر است با:
 
<math>
\operatorname{Var}(\overline{X}_n) = \operatorname{Var}(\tfrac1n(X_1+\cdots+X_n)) = \frac{1}{n^2} \operatorname{Var}(X_1+\cdots+X_n) = \frac{n\sigma^2}{n^2} = \frac{\sigma^2}{n}.
</math>توجه کنید که فرض متناهی بودن واریانس هاواریانس‌ها <math> \operatorname{Var}(X_1) = \operatorname{Var}(X_2) = \ldots = \sigma^2 < \infty </math> '''الزامی''' نیست. نامتناهی یا بزرگ بودن واریانس باعث آرام شدن همگرایی می‌شود، اما در هر صورت قانون اعداد بزرگ صدق می‌کند. این فرض معمولا برای این استفاده می‌شود تا اثبات هااثبات‌ها راحت و کوتاه ترکوتاه‌تر شوند.
</math>
 
در هر دو شکل قانون، استقلال همزمان بین همههمهٔ ی متغیر هامتغیرها می‌تواند با استقلال دو به دوی آنهاآن‌ها جایگزین شود.<ref>{{cite journal|last1=Etemadi|first1=N.Z.|date=1981|title=An elementary proof of the strong law of large numbers|journal=Wahrscheinlichkeitstheorie Verw Gebiete|volume=55|issue=1|pages=119–122|doi=10.1007/BF01013465|s2cid=122166046}}</ref>
توجه کنید که فرض متناهی بودن واریانس ها <math> \operatorname{Var}(X_1) = \operatorname{Var}(X_2) = \ldots = \sigma^2 < \infty </math> '''الزامی''' نیست. نامتناهی یا بزرگ بودن واریانس باعث آرام شدن همگرایی می‌شود، اما در هر صورت قانون اعداد بزرگ صدق می‌کند. این فرض معمولا برای این استفاده می‌شود تا اثبات ها راحت و کوتاه تر شوند.
 
تفاوت میان شکل قوی و ضعیف به دلیل تفاوت میان همگرایی است. برای اطلاعات بیشتر در مورد این نوع ها،نوع‌ها، [[همگرایی متغیرهای تصادفی|همگرایی متغیر های تصادفی]] را ببینید.
در هر دو شکل قانون، استقلال همزمان بین همه ی متغیر ها می‌تواند با استقلال دو به دوی آنها جایگزین شود.<ref>{{cite journal|last1=Etemadi|first1=N.Z.|date=1981|title=An elementary proof of the strong law of large numbers|journal=Wahrscheinlichkeitstheorie Verw Gebiete|volume=55|issue=1|pages=119–122|doi=10.1007/BF01013465|s2cid=122166046}}</ref>
 
تفاوت میان شکل قوی و ضعیف به دلیل تفاوت میان همگرایی است. برای اطلاعات بیشتر در مورد این نوع ها، [[همگرایی متغیرهای تصادفی|همگرایی متغیر های تصادفی]] را ببینید.
 
=== قانون ضعیف ===
'''قانون ضعیف اعداد بزرگ''' (قانون [[الکساندر خینشین|خینشین]]) بیان ‌می‌دارد که میانگین نمونه به [[همگرایی متغیرهای تصادفی|صورت احتمالی]] مقدار امید ریاضی میل
[[File:Lawoflargenumbersanimation2.gif|پیوند=https://en.wikipedia.org/wiki/File:Lawoflargenumbersanimation2.gif|بندانگشتی|شبیه سازی ای که قانون اعداد بزرگ را به تصویر می‌کشد.در هر فریم، یک سکه که یک طرف آن قرمز و طرف دیگر آن آبی است انداخته می‌شود و نقطه ای به ستون مربوط به نتیجه ظاهر شده اضافه می‌شود. یک نمودار دایره ای سهم هر رنگ را در نمونه های مشاده شده نشان می‌دهد. دقت کنید که در ابتدای آزمایش نمودار تغییرات زیادی دارد، اما با افزایش تعداد پرتاب ها، سهم هر بخش نمودار به 50% نزدیک می‌شود.]]
می‌کند:<ref>{{harvnb|Loève|1977|loc=Chapter 1.4, p. 14}}</ref>
 
<math>
 
\begin{matrix}{}\\
\overline{X}_n\ \xrightarrow{P}\ \mu \qquadquad \textrm{when}\ n \to \infty.
 
\\{}\end{matrix}
</math>
 
سطر ۶۲ ⟵ ۴۹:
</math>
 
به عبارتی، این قانون بیان می‌کند که برای هر مقدار هر قدر کوچکی که برای اپسیلون در نظر بگیریم، با داشتن نمونه اینمونه‌ای به اندازهاندازهٔ کافی بزرگ، با احتمال بالایی میانگین مشاهده هامشاهده‌ها به مقدار امید ریاضی نزدیک است؛ یعنی حداکثر به اندازه اپسیلون با آن اختلاف دارد.
 
همانطورهمان‌طور که گفته شدشد، قانون ضعیف زمانی که صدق میکندمی‌کند که متغیر هایمتغیرهای تصادفی مستقل و دارای توزیع یکسان باشند، اما این قانون در بعضی حالات دیگر نیز صدق می‌کند. به عنوان مثال، واریانس متغیر هایمتغیرهای تصادفی دنباله می‌توانند متفاوت باشند، در صورتی که امید ریاضی آنهاآن‌ها یکسان باشد. [[پافنوتی چبیشف|چبیشف]] در سال 1867۱۸۶۷ ثابت کرد که اگر واریانس هاواریانس‌ها متناهی باشند، قانون ضعیف اعداد بزرگ برقرار است. در حقیقت اگر با میل کردن n به بینهایت،بی‌نهایت، مقدار واریانس میانگین به صفر میل کند، این اثبات چبیشف برقرار است.<ref name="EncMath">{{cite web|author1=Yuri Prohorov|author-link1=Yuri Vasilyevich Prokhorov|title=Law of large numbers|url=https://www.encyclopediaofmath.org/index.php/Law_of_large_numbers|website=Encyclopedia of Mathematics}}</ref> به عنوان مثال فرض کنید هر متغیر تصادفی در دنباله از [[توزیع گاوسی]] با میانگین صفر اما واریانس <math>2n/\log(n+1)</math> ( که مقداری متناهی نیست ) پیروی کند. در هر مرحله، میانگین به صورت نرمالی توزیع می‌شود. واریانس مجموع برابر مجموع واریانس هاواریانس‌ها است، که به <math>n^2/\log n</math> میل می‌کند. پس واریانس میانگین هم به <math>1/\log n</math> میل میکندمی‌کند و در نتیجه به صفر میل می‌کند.
 
همچنین مثال هاییمثال‌هایی وجود دارد که با وجود اینکه امید ریاضی وجود ندارد، قانون ضعیف صدق می‌کند.
 
=== قانون قوی ===
'''قانون قوی اعداد بزرگ''' (قانون [[آندری کولموگوروف|کولموگوروف]]) بیان می‌کند که میانگین نمونه به مقدار امید ریاضی [[همگرایی متغیرهای تصادفی|تقریبا میل]] می‌کند.<ref>{{harvnb|Loève|1977|loc=Chapter 17.3, p. 251}}</ref>
 
<math>
سطر ۸۳ ⟵ ۷۰:
</math>
 
این بدین معناست که احتمال اینکه، با میل کردن تعداد نمونه هانمونه‌ها به بینهایت،بی‌نهایت، میانگین نمونه هانمونه‌ها به مقدار امید ریاضی میل کند، برابر 1۱ است.
 
اثبات این این قانون سخت ترسخت‌تر از اثبات قانون ضعیف است.
 
همگرایی تقریبی (تقریبا میل می‌کند) با عنوان همگرایی قوی متغیر هایمتغیرهای تصادفی نیز شناخته می‌شود. این شکل از قانون به این دلیل با عنوان '''قانون قوی''' بیان می‌شود که برای متغیر های تصادفیمتغیرهای ایتصادفی‌ای که قویا همگرا هستند (تقریبا میل می‌کنند)، می‌توان تضمین کرد که به صورت احتمالی همگرا هستند (همان نوع همگرایی در قانون ضعیف). با این حال قانون ضعیف در برخی شرایط صدق می‌کند که قانون قوی صدق نمی‌کند و همگرایی فقط ضعیف است (همگرایی احتمالی است).
 
=== تفاوت قانون قوی و ضعیف ===
''قانون ضعیف'' بیان می‌کند که برای یک n مشخص بزرگ، میانگین <math style="vertical-align:-.35em">\overline{X}_n</math> به احتمال خوبی نزدیک ''μ'' است. در نتیجه، امکان اینکه <math style="vertical-align:-.4em">|\overline{X}_n -\mu| > \varepsilon</math> بینهایتبی‌نهایت بار رخ بدهد (البته در بازه هایبازه‌های خیلی نادر و اندک) را نفی نمی‌کند. (لزوما <math style="vertical-align:-.4em">|\overline{X}_n -\mu| \neq 0</math> برای همه ی nهمهٔ هاnها برقرار نیست).
 
''قانون قوی'' نشان می‌دهد که تقریبا با اطمینان می‌توان گفت که این امکان رخ نمی‌دهد. به طور ویژه، دلالت بر این می‌کند که به احتمال ۱، به ازای هر {{nowrap|''ε'' > 0}} ، نامساوی <math style="vertical-align:-.4em">|\overline{X}_n -\mu| < \varepsilon</math> به ازای n هایnهای به قدر کافی بزرگ، برقرار است.
== منابع ==
{{پانویس|۲}}