رگرسیون پواسون: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
ویرایش به‌وسیلهٔ ابرابزار:
وسط‌چین به فرمول‌ها اضافه شد
خط ۱:
{{تحلیل رگرسیون}}
در [[آمار]]، '''رگرسیون پواسون''' نوعی از [[تحلیل رگرسیون]] و زیرمجموعه‌ای از [[مدل خطی تعمیم‌یافته|مدل‌های خطی تعمیم‌یافته]] است که برای تحلیل داده‌های حاصل از شمارش به کار می‌رود. اگر <math>\mathbf{x} \in \mathbb{R}^n</math> برداری از [[متغیر وابسته و مستقل]] باشد، فرم زیر را می‌گیرد:<ref>{{cite book|last=Greene|first=William H.|title=Econometric Analysis|edition=Fifth|publisher=Prentice-Hall|year=2003|pages=740–752|isbn=978-0-13-066189-0}}</ref>
{{وسط‌چین}}
 
:<math>\log (\operatorname{E}(Y|\mathbf{x}))=\mathbf{a}' \mathbf{x} + b,\,</math>
{{پایان وسط‌چین}}
 
که در آن <math>\mathbf{a} \in \mathbb{R}^n</math> و <math>b \in \mathbb{R}</math>. می‌توان فرم بالا را به این صورت نیز نوشت:
{{وسط‌چین}}
 
:<math>\log (\operatorname{E}(Y|\mathbf{x}))= \boldsymbol{\theta}' \mathbf{x},\,</math>
{{پایان وسط‌چین}}
 
که در آن '''x''' بردار (<math>\mathbf{n+1}</math>)-بعدی از متغیرهاست. با داشتن پارامتر رگرسیون پواسون '''<math>\mathbf{\theta}</math>''' و بردار ورودی <math>\mathbf{x}</math>، می‌توان پیش‌بینی را به اینصورت بدست آورد:
{{وسط‌چین}}
 
:<math>\operatorname{E}(Y|\mathbf{x})=e^\left({ \boldsymbol{\theta}' \mathbf{x}}\right).\,</math>
{{پایان وسط‌چین}}
 
== تخمین پارامترها بر اساس بیشینه درست نمایی ==
بردار متغیر وابسته <math>x</math> است و <math>\theta</math> پارامتر مدل رگرسیون پوسان است، <math>Y</math> متغیر مستقل است که آنرا با یک توزیع پوسان شبیه‌سازی می‌کنیم که میانگین آن در معادله پایین آمده‌است:<ref name=":0">{{Cite journal|last=MacDonald|first=John M.|last2=Berk|first2=Richard|date=2008-09-01|title=Overdispersion and Poisson Regression|url=https://link.springer.com/article/10.1007/s10940-008-9048-4|journal=Journal of Quantitative Criminology|language=en|volume=24|issue=3|pages=269–284|doi=10.1007/s10940-008-9048-4|issn=1573-7799}}</ref>
{{وسط‌چین}}
 
<math>\lambda := \operatorname{E}(Y\mid x)=e^{\theta'x},\,</math>
{{پایان وسط‌چین}}
 
از این رو تابع احتمال این توزیع برابر است با:
{{وسط‌چین}}
 
<math>p(y\mid x;\theta) = \frac{\lambda^y}{y!} e^{-\lambda} = \frac{e^{y \theta' x} e^{-e^{\theta' x}}}{y!}</math>
{{پایان وسط‌چین}}
 
حال اگر فرض کنیم که <math>m</math> داده داریم یعنی <math>(x_1, y_1), \cdots, (x_m, y_m)</math> و مقادیر متغیر مستقل از مجموعه اعداد طبیعی می‌آید یعنی
<math>y_1,\ldots,y_m \in \mathbb{N}</math> و متغیرهای وابسته <math>n+1</math> هستند یعنی <math>x_i \in \mathbb{R}^{n+1}, \, i = 1,\ldots,m</math> آنگاه احتمال متغیرهای مستقل به شرط مشاهده متغیرهای وابسته برابر خواهد شد با:
{{وسط‌چین}}
 
<math>p(y_1,\ldots,y_m\mid x_1,\ldots,x_m;\theta) = \prod_{i=1}^m \frac{e^{y_i \theta' x_i} e^{-e^{\theta' x_i}}}{y_i!}.</math>
{{پایان وسط‌چین}}
 
حال بر حسب اصل بیشینه‌سازی درست نمایی باید به دنبال پارامتری بگردیم که این درست نمایی به بیشترین مقدار خود برسد، یعنی تابع پایین بیشینه شود:
{{وسط‌چین}}
<math>L(\theta\mid X,Y) = \prod_{i=1}^m \frac{e^{y_i \theta' x_i} e^{-e^{\theta' x_i}}}{y_i!}.</math>
{{پایان وسط‌چین}}
 
از آنجا که تابع لگاریتم مطلقاً صعودی است بجای بیشینه کردن تابع درست نمایی می‌توان لگاریتم آن را بیشینه کرد که تابع را ساده‌تر می‌کند. به عبارتی دیگر همان پارامتری که لگاریتم تابع درست نمایی را بیشینه می‌کند، همان پارامتر، خودِ تابع درست نمایی را نیز بیشنه می‌کند. لگاریتم تابع با معادله پایین برابر خواهد شد:
{{وسط‌چین}}
 
<math>\ell(\theta\mid X,Y) = \log L(\theta\mid X,Y) = \sum_{i=1}^m \left( y_i \theta' x_i - e^{\theta' x_i} - \log(y_i!)\right). </math>
{{پایان وسط‌چین}}
 
از آنجا که <math>\sum_{i=1}^m \log(y_i!) </math> ثابت است و پارامتر <math>\theta </math> را در خود ندارد می‌توان آنرا از تابع حذف کرد و به تابع پایین رسید<ref name=":0"/>
{{وسط‌چین}}
 
<math>\ell(\theta\mid X,Y) = \sum_{i=1}^m \left( y_i \theta' x_i - e^{\theta' x_i} \right). </math>
{{پایان وسط‌چین}}
 
حال برای پیدا کردن بیشینه تابعِ <math>\ell(\theta\mid X,Y) </math> باید گرادیان آنرا با صفر یکی کرد، یعنی <math>\frac{\partial \ell(\theta\mid X,Y)}{\partial \theta} = 0 </math>. این معادله اما جوابی در فرم بسته ندارد و باید جواب آنرا از روشی دیگر پیدا کرد. از آنجا که <math>-\ell(\theta\mid X,Y) </math> تابعی محّدب است، می‌توان به پارامتر بهینه یعنی پارامتری که <math>-\ell(\theta\mid X,Y) </math> را کمینه و <math>\ell(\theta\mid X,Y) </math> را بیشینه کند با روشهای بهینه‌سازی محّدب مانند [[گرادیان کاهشی]] رسید.
 
== رگرسیون پواسون تنظیم شده ==
برای جلوگیری از [[بیش‌برازش]] در رگرسیون پواسون، جریمه‌ای برای پارامترهای بزرگ در نظر گرفته می‌شود و تابع پایین بجای تابع <math>\sum_{i=1}^m \log(p(y_i;e^{\theta' x_i}))</math> بهینه می‌گردد:<ref name="Perperoglou pp. 451–4622">{{cite journal|last=Perperoglou|first=Aris|date=2011-09-08|title=Fitting survival data with penalized Poisson regression|journal=Statistical Methods & Applications|publisher=Springer Nature|volume=20|issue=4|pages=451–462|doi=10.1007/s10260-011-0172-1|issn=1618-2510}}</ref>
{{وسط‌چین}}
 
: <math>\sum_{i=1}^m \log(p(y_i;e^{\theta' x_i})) - \lambda \left\|\theta\right\|_2^2</math>
{{پایان وسط‌چین}}
 
== ده سازی‌ها ==
Some [[statistics packages]] include implementations of Poisson regression.