اطلاعات متقابل: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
Ha.shadbash (بحث | مشارکت‌ها)
بدون خلاصۀ ویرایش
Ha.shadbash (بحث | مشارکت‌ها)
بدون خلاصۀ ویرایش
خط ۱:
[[پرونده:Entropy-mutual-information-relative-entropy-relation-diagram.svg|بندانگشتی|یک نمودار ون که به طور نمادین رابطه معیار های اطلاعاتی مختلف متغیر های تصادفی X و Y را نشان می دهد. رنگ بنفش در شکل اطلاعات متقابل را نشان می دهد.]]
در نظریه احتمالات و نظریه اطلاعات، اطلاعات متقابل بین دو متغیر تصادفی معیاری برای نشان دادن میزان وابستگی متقابل آن دو متغیر می باشد. به بیان دیگر در حقیقت این معیار "میزان اطلاعات" به دست آمده (مثلا در واحد بیت) در مورد یک متغیر تصادفی از طریق متغیر تصادفی دیگر را نشان می دهد. مفهوم اطلاعات متقابل ذاتا مرتبط با آنتروپی یک متغیر تصادفی که میزان اطلاعات موجود در یک متغیر تصادفی را نشان می دهد، می باشد.