اطلاعات متقابل: تفاوت میان نسخه‌ها

محتوای حذف‌شده محتوای افزوده‌شده
ابرابزار/ جزئی
خط ۱:
[[پرونده:Entropy-mutual-information-relative-entropy-relation-diagram.svg|بندانگشتی|یک نمودار ون که به طور نمادین رابطهٔ معیارهای اطلاعاتی مختلف متغیرهای تصادفی X و Y را نشان می‌دهد. رنگ بنفش در شکل اطلاعات متقابل را نشان می‌دهد.]]
در [[نظریه احتمالات]] و [[نظریه اطلاعات،اطلاعات]]، اطلاعات متقابل بین دو [[متغیر تصادفی]] معیاری برای نشان دادن میزان وابستگی متقابل آن دو متغیر می‌باشد. به بیان دیگر در حقیقت این معیار «میزان اطلاعات» به دست آمده (مثلاً در واحد بیت) در مورد یک متغیر تصادفی از طریق متغیر تصادفی دیگر را نشان می‌دهد. مفهوم اطلاعات متقابل ذاتاً مرتبط با آنتروپی یک متغیر تصادفی که میزان اطلاعات موجود در یک متغیر تصادفی را نشان می‌دهد، می‌باشد.
 
اطلاعات متقابل میزان شباهت بین توزیع مشترک <math>p(X,Y)</math> و ضرب احتمال‌های حاشیه ای یعنی <math>p(X)p(Y)</math> را مشخص می‌سازد.
خط ۱۱:
\right) }</math>
 
که در رابطه فوق <math>p(x,y)</math> تابع [[توزیع احتمال مشترک]] <math>X</math> و <math>Y</math>، و <math>p(x)</math> و <math>p(y)</math> تابع‌های [[توزیع احتمال]] حاشیه ای به ترتیب <math>X</math> و <math>Y</math> می‌باشند.
 
در صورتی که [[متغیرهای تصادفی]] پیوسته باشند، رابطه به صورت زیر بر اساس [[انتگرال معین]] دوگانه تعریف می‌گردد:
 
<math>I(X;Y) = \int_Y \int_X
خط ۱۹:
\right) } \; dx \,dy</math>
 
که در رابطهٔ فوق اکنون <math>p(x,y)</math> [[تابع چگالی احتمال]] مشترک <math>X</math> و <math>Y</math>، و <math>p(x)</math> و <math>p(y)</math> تابع‌های چگالی احتمال حاشیه ای به ترتیب <math>X</math> و <math>Y</math> می‌باشند.
 
اگر لگاریتم در پایهٔ ۲ استفاده شود، واحد اطلاعات متقابل بیت خواهد بود.
خط ۲۷:
اطلاعات متقابل میزان وابستگی را بر اساس توزیع مشترک <math>X</math> و <math>Y</math>، در مقایسه با توزیع مشترک <math>X</math> و <math>Y</math> تحت فرض استقلال، به دست می‌آورد. اطلاعات متقابل در نتیجه وابستگی را در معنای زیر اندازه‌گیری می‌کند:
 
<math>I(X;Y)=0</math> اگر و فقط اگر <math>X</math> و <math>Y</math> [[متغیرهای تصادفی مستقل]] باشند. بررسی این حقیقت از یک سمت آسان است: اگر <math>X</math> و <math>Y</math> مستقل باشند، در این صورت <math>p(x,y)=p(x)p(y)</math> و در نتیجه:
 
<math>\log{ \left( \frac{p(x,y)}{p(x)\,p(y)} \right) } = \log 1 = 0 </math>
خط ۷۳:
[[رده:آنتروپی اطلاعات]]
[[رده:نظریه اطلاعات]]
[[رده:ویکی‌سازی رباتیک]]