معیار اطلاعاتی آکائیکه
معیار اطلاعاتی آکائیکه (به انگلیسی: Akaike information criterion، یا به طور مخفف AIC) معیاری برای سنجش نیکویی برازش است. این معیار بر اساس مفهوم انتروپی بنا شدهاست و نشان میدهد که استفاده از یک مدل آماری به چه میزان باعث از دست رفتن اطلاعات میشود. به عبارت دیگر، این معیار تعادلی میان دقت مدل و پیچیدگی آن برقرار میکند. این معیار توسط هیروتسوگو آکائیکه برای انتخاب بهترین مدل آماری پیشنهاد شد.[۱]
با توجه به دادهها، چند مدل رقیب ممکن است با توجه به مقدار AIC رتبه بندی شوند و مدل دارای کمترین AIC بهترین است. از مقدار AIC میتوان استنباط نمود که به عنوان مثال سه مدل بهتر وضعیت نسبتاً یکسانی دارند و بقیه مدلها به مراتب بدتر هستند، اما معیاری برای انتخاب مقدار آستانهای برای AIC که بتوان مدلی را به واسطه داشتن AIC بزرگتر از این مقدار رد کرد وجود ندارد.[۲]
تعریف ویرایش
در حالت کلی ، AIC برابر است با[۳]:
که k تعداد پارامترهای مدل آماری است و L مقدار حداکثر تابع درستنمایی برای مدل برآورد شده است.
AIC تصحیح شده ویرایش
با تصحیح مرتبه دو AIC برای نمونههای با تعداد کمتر AICc به دست میآید:
از آنجایی که برای نمونههای با تعداد زیاد AICc به AIC همگرا میشود، همیشه باید AICc را به جای AIC بکار برد.[۴]
منابع ویرایش
- ↑
Akaike, Hirotugu (1974). "A new look at the statistical model identification". IEEE Transactions on Automatic Control. ۱۹ (۶): ۷۱۶–۷۲۳. doi:۱۰٫۱۱۰۹/TAC.۱۹۷۴٫۱۱۰۰۷۰۵. MR۰۴۲۳۷۱۶.
{{cite journal}}
: Check|doi=
value (help) - ↑ Burnham, Anderson, 1998, "Model Selection and Inference - A practical information-theoretic approach" ISBN 0-387-98504-2
- ↑ Burnham, K. P., and D. R. Anderson, 2002. Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlag. ISBN 0-387-95364-7.
- ↑ Burnham, K. P., and D. R. Anderson, 2004. Multimodel Inference: understanding AIC and BIC in Model Selection[پیوند مرده], Amsterdam Workshop on Model Selection.