نابرابریهای تمرکزی
در نظریهٔ احتمالات، نابرابریهای تمرکزی مقدار نوسانات تصادفی تابعی از چند متغیر تصادفی مستقل را اندازه میگیرند. به زبان ساده، نابرابریهای تمرکزی معمولاً احتمال فاصله گرفتن مقدار یک تابع تصادفی از امید ریاضی (یا میانه) خود را کنترل میکنند و این نوسانات را به صورت کمّی اندازه میگیرند. به عنوان یک مثال از تمرکز متغیرهای تصادفی حول یک مقدار، طبق قانون اعداد بزرگ میدانیم میانگین چندین نمونه مستقل از یک متغیر تصادفی (در اکثر شرایط) به امید ریاضی آن متغیر تصادفی همگرا میشود یا به عبارت دیگر حول امید ریاضی متمرکز است. هرچند قانون اعداد بزرگ سرعت این همگرایی را کمّی نمیکند و فقط خود همگرایی را اثبات میکند. در مقابل، نابرابریهای تمرکزی دستهٔ وسیعی از نابرابریهای احتمالاتی هستند که سعی در کمّیسازی همگرایی توابع متغیرهای تصادفی حول یک مقدار دارند.
در نظریه احتمال کلاسیک خواص تمرکزی جمع تعدادی متغیر تصادفی مستقل بهطور گسترده بررسی شده بود، اما ابزارهای قویتر برای بررسی خواص تمرکزی دیگر توابع تا دههٔ ۱۹۷۰ و ظهور روشهای مارتینگیل معرفی نشده بودند. نابرابریهای تمرکزی امروزه در زمینههای گستردهای مانند نظریه یادگیری محاسباتی، ریاضیات گسسته، مکانیک آماری، نظریه ماتریسهای تصادفی، نظریه اطلاعات و هندسه ابعاد بالا کاربرد دارند.[۱]
در ادامه به چند نمونهٔ معروف از نابرابریهای تمرکزی به ترتیب عام بودن نتایجشان اشاره شدهاست.
نابرابری مارکوف ویرایش
اگر یک متغیر تصادفی (قریب به یقین) نامنفی باشد برای هر ثابت ،
و به عنوان یک نتیجه از نابرابری بالا:
نابرابری چبیشف ویرایش
نابرابری چبیشف با اعمال نابرابری مارکوف روی متغیر تصادفی به دست میآید. نامساوی چبیشف بیان میکند اگر متغیر تصادفی با میانگین و واریانس محدود باشد برای هر ثابت ،
یا معادلا:
که در آن انحراف معیار است.
کران چرنوف ویرایش
کران چرنوف نیز از اعمال نابرابری مارکوف روی متغیر تصادفی به دست میآید. این نابرابری کران خود را برحسب تابع مولد گشتاور متغیر تصادفی معرفی میکند. طبق این نابرابری برای هر ،
از کران چرنوف در اثبات نابرابریهای برنستاین و هوفدینگ استفاده میشود.
نابرابریهای تمرکزی برای جمع متغیرهای تصادفی مستقل ویرایش
یکی از متغیرهای تصادفی که به کرّات ظاهر میشود متغیر تصادفی حاصل از جمع تعدادی متغیر تصادفی مستقل است. به عنوان یک مثال متغیرهای تصادفی مستقل با توزیع یکسان و واریانس و میانگین محدود را در نظر بگیرید و تعریف کنید . متغیر تصادفی میتواند از مرتبهٔ باشد، هرچند این متغیر به احتمال زیادی از مرتبهٔ خواهد بود (توجه کنید که همان مرتبهٔ انحراف معیار است). نابرابریهای تمرکزی زیر سعی در کنترل احتمال فاصله گرفتن از را دارند. البته برای این کار میتوان از نابرابری چبیشف هم استفاده کرد اما نزول نمایی که در این نابرابریها حاصل میشود بسیار قویتر از نزول مربعی نابرابری چبیشف است.[۲]
نابرابری هوفدینگ ویرایش
اگر متغیرهای تصادفی مستقل باشند به طوری که (قریب به یقین) و متغیر تصادفی برابر جمع آنها باشد یعنی،
، آنگاه برای هر ،
در واقع نابرابری هوفدینگ فاصلهٔ جمع تعدادی متغیر تصادفی مستقل از امید ریاضی جمع آنها را نشان میدهد. همانطور که ذکر شد از این نامساوی نتیجه میشود احتمال نوسانات بالاتر از بسیار کوچک است.
نابرابری برنستاین ویرایش
نابرابریهای برنستاین دستهای از نابرابریهای تمرکزی هستند که توسط سرگئی برنشتاین معرفی شدند. یکی از نابرابریهای معروف نابرابریهای برنستاین به صورت زیر است.
اگر متغیرهای تصادفی مستقل باشند که برای هر دو شرط و برقرار باشند. در این صورت برای هر ،
نابرابری برنستاین در بعضی حالتها کران قویتری را نسبت به نابرابری هوفدینگ ابراز میکند.[۲]
منابع ویرایش
- ↑ Boucheron, S.; Lugosi, G.; Massart, P. (2013). "Concentration Inequalities - A Nonasymptotic Theory of Independence". www.semanticscholar.org (به انگلیسی). Retrieved 2022-12-31.
- ↑ ۲٫۰ ۲٫۱ Bandeira, A. (2015). "18.S096: Concentration Inequalities, Scalar and Matrix Versions". www.semanticscholar.org (به انگلیسی). Retrieved 2022-12-31.