نابرابری‌های تمرکزی

در نظریهٔ احتمالات، نابرابری‌های تمرکزی مقدار نوسانات تصادفی تابعی از چند متغیر تصادفی مستقل را اندازه می‌گیرند. به زبان ساده، نابرابری‌های تمرکزی معمولاً احتمال فاصله گرفتن مقدار یک تابع تصادفی از امید ریاضی (یا میانه) خود را کنترل می‌کنند و این نوسانات را به صورت کمّی اندازه می‌گیرند. به عنوان یک مثال از تمرکز متغیرهای تصادفی حول یک مقدار، طبق قانون اعداد بزرگ می‌دانیم میانگین چندین نمونه مستقل از یک متغیر تصادفی (در اکثر شرایط) به امید ریاضی آن متغیر تصادفی همگرا می‌شود یا به عبارت دیگر حول امید ریاضی متمرکز است. هرچند قانون اعداد بزرگ سرعت این همگرایی را کمّی نمی‌کند و فقط خود همگرایی را اثبات می‌کند. در مقابل، نابرابری‌های تمرکزی دستهٔ وسیعی از نابرابری‌های احتمالاتی هستند که سعی در کمّی‌سازی همگرایی توابع متغیرهای تصادفی حول یک مقدار دارند.

در نظریه احتمال کلاسیک خواص تمرکزی جمع تعدادی متغیر تصادفی مستقل به‌طور گسترده بررسی شده بود، اما ابزارهای قوی‌تر برای بررسی خواص تمرکزی دیگر توابع تا دههٔ ۱۹۷۰ و ظهور روش‌های مارتینگیل معرفی نشده بودند. نابرابری‌های تمرکزی امروزه در زمینه‌های گسترده‌ای مانند نظریه یادگیری محاسباتی، ریاضیات گسسته، مکانیک آماری، نظریه ماتریس‌های تصادفی، نظریه اطلاعات و هندسه ابعاد بالا کاربرد دارند.[۱]

در ادامه به چند نمونهٔ معروف از نابرابری‌های تمرکزی به ترتیب عام بودن نتایج‌شان اشاره شده‌است.

نابرابری مارکوف ویرایش

اگر   یک متغیر تصادفی (قریب به یقین) نامنفی باشد برای هر ثابت  ،

 

و به عنوان یک نتیجه از نابرابری بالا:

 

نابرابری چبیشف ویرایش

نابرابری چبیشف با اعمال نابرابری مارکوف روی متغیر تصادفی   به دست می‌آید. نامساوی چبیشف بیان می‌کند اگر   متغیر تصادفی با میانگین و واریانس محدود باشد برای هر ثابت  ،

 

یا معادلا:

 

که در آن   انحراف معیار   است.

کران چرنوف ویرایش

کران چرنوف نیز از اعمال نابرابری مارکوف روی متغیر تصادفی   به دست می‌آید. این نابرابری کران خود را برحسب تابع مولد گشتاور متغیر تصادفی   معرفی می‌کند. طبق این نابرابری برای هر  ،

 

از کران چرنوف در اثبات نابرابری‌های برنستاین و هوفدینگ استفاده می‌شود.

نابرابری‌های تمرکزی برای جمع متغیرهای تصادفی مستقل ویرایش

یکی از متغیرهای تصادفی که به کرّات ظاهر می‌شود متغیر تصادفی حاصل از جمع تعدادی متغیر تصادفی مستقل است. به عنوان یک مثال متغیرهای تصادفی مستقل با توزیع یکسان و واریانس و میانگین محدود   را در نظر بگیرید و تعریف کنید  . متغیر تصادفی   می‌تواند از مرتبهٔ   باشد، هرچند این متغیر به احتمال زیادی از مرتبهٔ   خواهد بود (توجه کنید که   همان مرتبهٔ انحراف معیار   است). نابرابری‌های تمرکزی زیر سعی در کنترل احتمال فاصله گرفتن   از   را دارند. البته برای این کار می‌توان از نابرابری چبیشف هم استفاده کرد اما نزول نمایی که در این نابرابری‌ها حاصل می‌شود بسیار قوی‌تر از نزول مربعی نابرابری چبیشف است.[۲]

نابرابری هوفدینگ ویرایش

اگر   متغیرهای تصادفی مستقل باشند به طوری که (قریب به یقین)   و متغیر تصادفی   برابر جمع آن‌ها باشد یعنی،

 ، آنگاه برای هر  ،

 

 

در واقع نابرابری هوفدینگ فاصلهٔ جمع تعدادی متغیر تصادفی مستقل از امید ریاضی جمع آن‌ها را نشان می‌دهد. همان‌طور که ذکر شد از این نامساوی نتیجه می‌شود احتمال نوسانات   بالاتر از   بسیار کوچک است.

نابرابری برنستاین ویرایش

نابرابری‌های برنستاین دسته‌ای از نابرابری‌های تمرکزی هستند که توسط سرگئی برنشتاین معرفی شدند. یکی از نابرابری‌های معروف نابرابری‌های برنستاین به صورت زیر است.

اگر   متغیرهای تصادفی مستقل باشند که برای هر   دو شرط   و   برقرار باشند. در این صورت برای هر  ،

 

نابرابری برنستاین در بعضی حالت‌ها کران قوی‌تری را نسبت به نابرابری هوفدینگ ابراز می‌کند.[۲]

منابع ویرایش

  1. Boucheron, S.; Lugosi, G.; Massart, P. (2013). "Concentration Inequalities - A Nonasymptotic Theory of Independence". www.semanticscholar.org (به انگلیسی). Retrieved 2022-12-31.
  2. ۲٫۰ ۲٫۱ Bandeira, A. (2015). "18.S096: Concentration Inequalities, Scalar and Matrix Versions". www.semanticscholar.org (به انگلیسی). Retrieved 2022-12-31.