معیار اطلاعاتی آکائیکه

معیار اطلاعاتی آکائیکه (به انگلیسی: Akaike information criterion، یا به طور مخفف AIC) معیاری برای سنجش نیکویی برازش است. این معیار بر اساس مفهوم انتروپی بنا شده‌است و نشان می‌دهد که استفاده از یک مدل آماری به چه میزان باعث از دست رفتن اطلاعات می‌شود. به عبارت دیگر، این معیار تعادلی میان دقت مدل و پیچیدگی آن برقرار می‌کند. این معیار توسط هیروتسوگو آکائیکه برای انتخاب بهترین مدل آماری پیشنهاد شد.[۱]

با توجه به داده‌ها، چند مدل رقیب ممکن است با توجه به مقدار AIC رتبه بندی شوند و مدل دارای کمترین AIC بهترین است. از مقدار AIC می‌توان استنباط نمود که به عنوان مثال سه مدل بهتر وضعیت نسبتاً یکسانی دارند و بقیه مدل‌ها به مراتب بدتر هستند، اما معیاری برای انتخاب مقدار آستانه‌ای برای AIC که بتوان مدلی را به واسطه داشتن AIC بزرگتر از این مقدار رد کرد وجود ندارد.[۲]

تعریف ویرایش

در حالت کلی ، AIC برابر است با[۳]:

 

که k تعداد پارامترهای مدل آماری است و L مقدار حداکثر تابع درستنمایی برای مدل برآورد شده است.

AIC تصحیح شده ویرایش

با تصحیح مرتبه دو AIC برای نمونه‌های با تعداد کمتر AICc به دست می‌آید:

 

از آنجایی که برای نمونه‌های با تعداد زیاد AICc به AIC همگرا می‌شود، همیشه باید AICc را به جای AIC بکار برد.[۴]

منابع ویرایش

  1. Akaike, Hirotugu (1974). "A new look at the statistical model identification". IEEE Transactions on Automatic Control. ۱۹ (۶): ۷۱۶–۷۲۳. doi:۱۰٫۱۱۰۹/TAC.۱۹۷۴٫۱۱۰۰۷۰۵. MR۰۴۲۳۷۱۶. {{cite journal}}: Check |doi= value (help)
  2. Burnham, Anderson, 1998, "Model Selection and Inference - A practical information-theoretic approach" ISBN 0-387-98504-2
  3. Burnham, K. P., and D. R. Anderson, 2002. Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, 2nd ed. Springer-Verlag. ISBN 0-387-95364-7.
  4. Burnham, K. P., and D. R. Anderson, 2004. Multimodel Inference: understanding AIC and BIC in Model Selection[پیوند مرده], Amsterdam Workshop on Model Selection.