نظریه اطلاعات: تفاوت میان نسخهها
محتوای حذفشده محتوای افزودهشده
KeyvanFYahya (بحث | مشارکتها) افزایش متن در زیر مدخل آنتروپی، افزودن منبع برچسبها: ویرایشگر دیداری ویرایش همراه ویرایش از وبگاه همراه |
تصحیح فنی و نوشتاری متن، اصلاح پیوندها، حذف مطالب از یک منبع نامعتبر که با هدف تبلیغ، در متن گنجانده شدهاست. برچسبها: حذف حجم زیادی از مطالب منبعدار متن دارای ویکیمتن نامتناظر ویرایشگر دیداری |
||
خط ۱:
{{نظریه اطلاعات}}
'''نظریه اطلاعات''' (انگلیسی: Information theory)، به مقداردهی (Quantification)، ذخیره و انتقال اطلاعات میپردازد. این نظریه، [[مدل ریاضی|مدلی ریاضی]] از شرایط و عوامل مؤثر در پردازش و انتقال
نظریه اطلاعات مورد استفاده خاص مهندسان مخابرات است، هرچند
مفهوم
== تاریخچه ==
تحقیق دربارهٔ نظریه اطلاعات
تولد واقعی نظریه اطلاعات را میتوان به مقاله «نظریه ریاضی مخابرات»<ref group="پانویس">The Methematical Theory of Communication</ref>
شانون در آن زمان در آزمایشگاههای بل<ref>Bell Laboratories</ref>
== مفهوم اطلاعات و راههای اندازهگیری آن ==
خط ۲۰:
== قضایای شانون ==
* حداقل نرخ [[فشردهسازی دادهها|فشردهکردن اطلاعات]] یک منبع تصادفی، برابر با [[آنتروپی اطلاعات|آنتروپی]] آن منبع است؛ به عبارت دیگر نمیتوان دنباله خروجی یک منبع اطلاعات را با نرخی کمتر از آنتروپی آن منبع ارسال کرد.
* حداکثر نرخ ارسال اطلاعات روی یک کانال مخابراتی، طوریکه بتوان در مقصد، اطلاعات را با [[نرخ خطای بیت|احتمال خطای]] در حد قابل قبول کم بازیافت، مقداری ثابت و وابسته به مشخصات کانال است، و [[ظرفیت کانال]] نام دارد. ارسال اطلاعات با نرخی بیشتر از ظرفیت کانال، به خطا میانجامد.
سطر ۲۹ ⟵ ۳۰:
== کمیتهای مربوط به اطلاعات ==
نظریه اطلاعات بر
* [[آنتروپی اطلاعات|آنتروپی]]، که میانگین محتوای اطلاعاتی یک منبع اطلاعات
* [[اطلاعات متقابل]]، که مقدار اطلاعات مشترک دو متغیر تصادفی است.
رایجترین واحد اطلاعات، بیت است که بر مبنای لگاریتم دودویی (باینری) است. دیگر واحدها شامل نَت (بر اساس لگاریتم طبیعی) و هارتلی (بر اساس لگاریتم معمولی) هستند. انتخاب مبنای لگاریتم،
در عبارت <math>p \log p</math>، زمانی که <math>p=0</math> است، عبارت هم برابر صفر در نظر گرفته میشود، زیرا <math>\lim_{p \rightarrow 0+} p \log p = 0</math>
سطر ۴۲ ⟵ ۴۳:
[[پرونده:Binary entropy plot.svg|بندانگشتی|چپ|200 px|آنتروپی متغیر تصادفی برنولی به صورت تابعی از احتمال موفقیت، اغلب به نام تابع باینری آنتروپی نامیده میشود.<math>H_\mbox{b}(p)</math>.
مقدار آنتروپی در ۱ بیشینه است در هر آزمایشی که دو نتیجهٔ ممکن بهطور مساوی محتملند؛ همانند شیر یا خط آوردن یک سکه بهطور بی طرفانه.]]
[[آنتروپی اطلاعات|آنتروپی]] یک متغیر تصادفی، با اندازهگیری احتمالات آن متغیر تصادفی بهدست میآید. مفهوم آنتروپی در طول دهه های گذشته دستخوش تغییرات
== جستارهای وابسته ==
|