رگرسیون پواسون: تفاوت میان نسخهها
محتوای حذفشده محتوای افزودهشده
ویرایش بهوسیلهٔ ابرابزار: |
وسطچین به فرمولها اضافه شد |
||
خط ۱:
{{تحلیل رگرسیون}}
در [[آمار]]، '''رگرسیون پواسون''' نوعی از [[تحلیل رگرسیون]] و زیرمجموعهای از [[مدل خطی تعمیمیافته|مدلهای خطی تعمیمیافته]] است که برای تحلیل دادههای حاصل از شمارش به کار میرود. اگر <math>\mathbf{x} \in \mathbb{R}^n</math> برداری از [[متغیر وابسته و مستقل]] باشد، فرم زیر را میگیرد:<ref>{{cite book|last=Greene|first=William H.|title=Econometric Analysis|edition=Fifth|publisher=Prentice-Hall|year=2003|pages=740–752|isbn=978-0-13-066189-0}}</ref>
{{وسطچین}}
:<math>\log (\operatorname{E}(Y|\mathbf{x}))=\mathbf{a}' \mathbf{x} + b,\,</math>
{{پایان وسطچین}}
که در آن <math>\mathbf{a} \in \mathbb{R}^n</math> و <math>b \in \mathbb{R}</math>. میتوان فرم بالا را به این صورت نیز نوشت:
{{وسطچین}}
:<math>\log (\operatorname{E}(Y|\mathbf{x}))= \boldsymbol{\theta}' \mathbf{x},\,</math>
{{پایان وسطچین}}
که در آن '''x''' بردار (<math>\mathbf{n+1}</math>)-بعدی از متغیرهاست. با داشتن پارامتر رگرسیون پواسون '''<math>\mathbf{\theta}</math>''' و بردار ورودی <math>\mathbf{x}</math>، میتوان پیشبینی را به اینصورت بدست آورد:
{{وسطچین}}
:<math>\operatorname{E}(Y|\mathbf{x})=e^\left({ \boldsymbol{\theta}' \mathbf{x}}\right).\,</math>
{{پایان وسطچین}}
== تخمین پارامترها بر اساس بیشینه درست نمایی ==
بردار متغیر وابسته <math>x</math> است و <math>\theta</math> پارامتر مدل رگرسیون پوسان است، <math>Y</math> متغیر مستقل است که آنرا با یک توزیع پوسان شبیهسازی میکنیم که میانگین آن در معادله پایین آمدهاست:<ref name=":0">{{Cite journal|last=MacDonald|first=John M.|last2=Berk|first2=Richard|date=2008-09-01|title=Overdispersion and Poisson Regression|url=https://link.springer.com/article/10.1007/s10940-008-9048-4|journal=Journal of Quantitative Criminology|language=en|volume=24|issue=3|pages=269–284|doi=10.1007/s10940-008-9048-4|issn=1573-7799}}</ref>
{{وسطچین}}
<math>\lambda := \operatorname{E}(Y\mid x)=e^{\theta'x},\,</math>
{{پایان وسطچین}}
از این رو تابع احتمال این توزیع برابر است با:
{{وسطچین}}
<math>p(y\mid x;\theta) = \frac{\lambda^y}{y!} e^{-\lambda} = \frac{e^{y \theta' x} e^{-e^{\theta' x}}}{y!}</math>
{{پایان وسطچین}}
حال اگر فرض کنیم که <math>m</math> داده داریم یعنی <math>(x_1, y_1), \cdots, (x_m, y_m)</math> و مقادیر متغیر مستقل از مجموعه اعداد طبیعی میآید یعنی
<math>y_1,\ldots,y_m \in \mathbb{N}</math> و متغیرهای وابسته <math>n+1</math> هستند یعنی <math>x_i \in \mathbb{R}^{n+1}, \, i = 1,\ldots,m</math> آنگاه احتمال متغیرهای مستقل به شرط مشاهده متغیرهای وابسته برابر خواهد شد با: {{وسطچین}}
<math>p(y_1,\ldots,y_m\mid x_1,\ldots,x_m;\theta) = \prod_{i=1}^m \frac{e^{y_i \theta' x_i} e^{-e^{\theta' x_i}}}{y_i!}.</math>
{{پایان وسطچین}}
حال بر حسب اصل بیشینهسازی درست نمایی باید به دنبال پارامتری بگردیم که این درست نمایی به بیشترین مقدار خود برسد، یعنی تابع پایین بیشینه شود:
{{وسطچین}} <math>L(\theta\mid X,Y) = \prod_{i=1}^m \frac{e^{y_i \theta' x_i} e^{-e^{\theta' x_i}}}{y_i!}.</math> {{پایان وسطچین}}
از آنجا که تابع لگاریتم مطلقاً صعودی است بجای بیشینه کردن تابع درست نمایی میتوان لگاریتم آن را بیشینه کرد که تابع را سادهتر میکند. به عبارتی دیگر همان پارامتری که لگاریتم تابع درست نمایی را بیشینه میکند، همان پارامتر، خودِ تابع درست نمایی را نیز بیشنه میکند. لگاریتم تابع با معادله پایین برابر خواهد شد:
{{وسطچین}}
<math>\ell(\theta\mid X,Y) = \log L(\theta\mid X,Y) = \sum_{i=1}^m \left( y_i \theta' x_i - e^{\theta' x_i} - \log(y_i!)\right). </math>
{{پایان وسطچین}}
از آنجا که <math>\sum_{i=1}^m \log(y_i!) </math> ثابت است و پارامتر <math>\theta </math> را در خود ندارد میتوان آنرا از تابع حذف کرد و به تابع پایین رسید<ref name=":0"/>
{{وسطچین}}
<math>\ell(\theta\mid X,Y) = \sum_{i=1}^m \left( y_i \theta' x_i - e^{\theta' x_i} \right). </math>
{{پایان وسطچین}}
حال برای پیدا کردن بیشینه تابعِ <math>\ell(\theta\mid X,Y) </math> باید گرادیان آنرا با صفر یکی کرد، یعنی <math>\frac{\partial \ell(\theta\mid X,Y)}{\partial \theta} = 0 </math>. این معادله اما جوابی در فرم بسته ندارد و باید جواب آنرا از روشی دیگر پیدا کرد. از آنجا که <math>-\ell(\theta\mid X,Y) </math> تابعی محّدب است، میتوان به پارامتر بهینه یعنی پارامتری که <math>-\ell(\theta\mid X,Y) </math> را کمینه و <math>\ell(\theta\mid X,Y) </math> را بیشینه کند با روشهای بهینهسازی محّدب مانند [[گرادیان کاهشی]] رسید.
== رگرسیون پواسون تنظیم شده ==
برای جلوگیری از [[بیشبرازش]] در رگرسیون پواسون، جریمهای برای پارامترهای بزرگ در نظر گرفته میشود و تابع پایین بجای تابع <math>\sum_{i=1}^m \log(p(y_i;e^{\theta' x_i}))</math> بهینه میگردد:<ref name="Perperoglou pp. 451–4622">{{cite journal|last=Perperoglou|first=Aris|date=2011-09-08|title=Fitting survival data with penalized Poisson regression|journal=Statistical Methods & Applications|publisher=Springer Nature|volume=20|issue=4|pages=451–462|doi=10.1007/s10260-011-0172-1|issn=1618-2510}}</ref>
{{وسطچین}}
: <math>\sum_{i=1}^m \log(p(y_i;e^{\theta' x_i})) - \lambda \left\|\theta\right\|_2^2</math>
{{پایان وسطچین}}
== ده سازیها ==
Some [[statistics packages]] include implementations of Poisson regression.
|