تابع درست‌نمایی: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
بدون خلاصۀ ویرایش
خط ۱:
{{منبع|تاریخ=ژوئیه ۲۰۱۵}}
{{آمار بیزی}}
در آمار، '''تابع درست‌نمایی''' (که اغلب برای سادگی '''درست‌نمایی''' خوانده می‌شود) تابعی از پارامترهای [[مدل آماری]] است که نقش کلیدی در [[آمار استنباطی]] ایفا می‌کند. تابع درست‌نمایی برابر است با احتمال آنکه به ازای مقادیری معین برای تعدادی پارامترهای آماری، نتایج مشاهده شده حاصل شود. به زبان ریاضی، اگر X مجموعه‌ای از داده‌های مشاهده شده و Θ<math> \Theta </math> مجموعه‌ای از پارامترها باشد، آنگاه [[احتمال شرطی]] <math> P(X|\Theta) </math> را می‌توان <math> L(X|\Theta) </math>، احتمال درستی Θ<math> \Theta </math> براساس <math> X </math> دانست. حال اگر <math> X </math> ثابت نگه داشته شود و Θ<math> \Theta </math> تغییر داده شود، به وضوح می‌توان دید که <math> L(X|\Theta) </math> تابعی از Θ<math> \Theta </math> است.<ref name="good1950">I. J. Good: ''Probability and the Weighing of Evidence'' (Griffin 1950), §6.1</ref><ref name="jeffreys1983">H. Jeffreys: ''Theory of Probability'' (3rd ed., Oxford University Press 1983), §1.22</ref><ref name="jaynes2003">E. T. Jaynes: ''Probability Theory: The Logic of Science'' (Cambridge University Press 2003), §4.1</ref><ref name="lindley1980">D. V. Lindley: ''Introduction to Probability and Statistics from a Bayesian Viewpoint. Part 1: Probability'' (Cambridge University Press 1980), §1.6</ref><ref name="gelmanetal2014">A. Gelman, J. B. Carlin, H. S. Stern, D. B. Dunson, A. Vehtari, D. B. Rubin: ''Bayesian Data Analysis'' (3rd ed., Chapman & Hall/CRC 2014), §1.3</ref>
 
در نوشته‌های غیررسمی اغلب [[احتمال شرطی]] (possibility) با درست نمایی (likelihood) به جای همدیگر استفاده میگردد. ولی در ریاضی در حقیقت تفاوت آن‌ها به تفاوت در نتیجه (outcome) در مقابل پارامترها می‌باشد. در حقیقت میتوان این دو را این‌گونه بیان کرد:
خط ۸:
 
درست نمایی برای بعد از داشتن داده‌ها به کار برده می‌شود برای توضیح تابعی از پارامترها به شرط داشتن خروجی.
<br />{{آمار-خرد}}
 
{{آمار-خرد}}
 
maximum entropy method