تفاوت میان نسخه‌های «نظریه اطلاعات»

جز
تمیزکاری و اصلاح متن‌‌‌‌‌ با استفاده از AWB
جز (ویرایش Amidimohsen (بحث) به آخرین تغییری که KasparBot انجام داده بود واگردانده شد)
جز (تمیزکاری و اصلاح متن‌‌‌‌‌ با استفاده از AWB)
{{نظریه اطلاعات}}
'''نظریّهٔ اطّلاعات''' [[مدل ریاضی|مدلی ریاضی]] از شرایط و عوامل موثر در انتقال و پردازش [[داده‌ها]] و [[اطلاعات|اطّلاعات]] فراهم می‌آورد. نظریهٔ اطلاعات با ارائهٔ روشی جهت «کمّی سازی و اندازه‌گیری عددی اطلاعات» به موضوعاتی مانند ارسال، دریافت، و ذخیره‌سازی بهینهٔ داده‌ها و اطلاعات می‌پردازد. تمرکز اصلی این نظریّه بر روی محدودیت‌های بنیادین که در ارسال و تحلیل داده‌ها وجود دارد می‌باشد، و کمتر به نحوهٔ عملکرد دستگاه‌های خاص می‌پردازد. پیدایش این نظریه عموماً به مهندس برقی به نام [[کلاود شانون]]<ref group="پانویس">Claude Elwood Shannon</ref> در سال ۱۹۴۸ میلادی نسبت داده می‌شود. نظریه اطلاعات مورد استفاده خاص مهندسین مخابرات بوده، هرچند برخی از مفاهیم آن در رشته‌های دیگری مانند [[روان‌شناسی]]، [[زبان‌شناسی]]،[[کتابداری و اطلاع رسانی]]، و [[اطلاعات و دانش شناسی]] نیز مورد استفاده قرار گرفته‌است.<ref name="Britanica">«information theory,» Encyclopædia Britannica</ref> مفهوم اطلاعاتی که توسط شانون مطالعه شد اطلاعات از دید ''آمار و احتمالات'' بوده و با مفاهیم روزمره از اطلاعات مانند «دانش» و یا استفاده‌های روزمره از آن در زبان طبیعی مانند «بازیابی اطلاعات»، «تحلیل اطلاعات»، «چهارراه اطلاعات» و غیره تفاوت می‌دارد. اگر چه نظریه اطلاعات رشته‌های دیگر مانند روان‌شناسی و فلسفه را تحت تأثیر قرار داده، ولی بدلیل مشکلات تبدیل «مفهوم آماری اطلاعات» به «مفهوم معنایی دانش و محتوا» تأثیراتش بیشتر از نوع القای احساساتی نسبت به مفهوم اطلاعات بوده‌است.<ref name="SAYRE, KENNETH M. 1998">SAYRE, KENNETH M. (1998). Information theory. In E. Craig (Ed.), Routledge Encyclopedia of Philosophy. London: Routledge.</ref>
 
== تاریخچه ==
 
شروع تحقیق در مورد نظریه اطلاعات اولین بار در سال ۱۹۲۴ توسط [[هری نایکوئیست]]<ref group="پانویس">Harry Nyquist</ref> در مقاله‌ای به نام «عوامل خاصی که سرعت تلگراف را تحت تأثیر قرار می‌دهند»<ref group="پانویس">Certain Factors Affecting Telegraph Speed</ref> انجام شد. نایکویست وجود نرخ ماکزیمم ارسال اطلاعات را متوجه شده و فرمولی جهت محاسبه این نرخ ماکزیمم ارائه کرد. کار مهم دیگر در این زمان مقاله «انتقال اطلاعات» در سال ۱۹۲۸ میلادی توسط هارتلی<ref group="پانویس">R.V.L. Hartley</ref> بود که اولین پایه‌های ریاضی نظریه اطلاعات را بنا گذاشت.<ref name="Britanica"/>
[[پرونده:Claude_Elwood_Shannon_Claude Elwood Shannon (1916-2001).jpg|بندانگشتی|چپ|150 px|کلود شانون]]
تولد واقعی نظریه اطلاعات را به مقاله «نظریه ریاضی مخابرات»<ref group="پانویس">The Methematical Theory of Communication</ref> توسط [[کلاود شانون]] نسبت داد. یکی از نکات اصلی مقاله شانون توجه به این نکته بود که بررسی سیگنال‌های مخابراتی را باید از بررسی معانی ای که آن سیگنال‌ها حمل می‌کنند جدا کرد، در حالی که پیش از او اطلاعات موجود در یک سیگنال الکتریکی از پیغامی که آن سیگنال منتقل می‌کند جدا در نظر گرفته نمی‌شد. شانون همچنین به این نکته توجه کرد که طول یک سیگنال همیشه متناسب با میزان اطلاعات آن نیست. مثلاً نقل شده‌است که در نامه‌ای که [[ویکتور هوگو]] به ناشرش نوشت، فقط نماد «؟» را نوشته بود. در پاسخ نامه‌ای دریافت کرد که فقط حاوی نماد «!» بود. این دو نماد برای هر دو طرف حاوی اطلاعات زیادی می‌باشد، هرچند از دید ناظری که معانی آنها را نداند، بی‌معنی هستند. مثال دیگر این جمله‌ای طولانی است که به زبان فارسی نوشته شده باشد، ولی برای یک انگلیسی زبانی که فارسی نمی‌داند مفهومی ندارد. بدین سان شانون پیشنهاد نمود که مسئله ارسال سیگنال‌ها را از ارسال معانی موجود در آنها جدا کرده، و برای موضوع اول نظریه ریاضی ای تولید نمود.<ref name="Britanica"/>
 
 
== مفهوم اطلاعات و راه‌های اندازه‌گیری آن ==
مفهوم اطلاعاتی که توسط شانون مطالعه شد اطلاعات از دید ''آمار و احتمالات'' بوده و با مفاهیم روزمره از اطلاعات مانند «دانش» و یا استفاده‌های روزمره از آن در زبان طبیعی مانند «بازیابی اطلاعات»، «تحلیل اطلاعات»، «چهارراه اطلاعات» و غیره تفاوت می‌دارد. اگر چه نظریه اطلاعات رشته‌های دیگر مانند روان‌شناسی و فلسفه را تحت تأثیر قرار داده، ولی بدلیل مشکلات تبدیل «مفهوم آماری اطلاعات» به «مفهوم معنایی دانش و محتوا» تأثیراتش بیشتر از نوع القای احساساتی نسبت به مفهوم اطلاعات بوده‌است.<ref> name="SAYRE, KENNETH M. (1998). Information theory. In E. Craig (Ed.), Routledge Encyclopedia of Philosophy. London: Routledge.<"/ref>
 
آمار و احتمالات نقشی حیاتی و عمده در ظهور و رشد نظریه اطلاعات برعهده دارد.
[[پرونده:Binary entropy plot.svg|بندانگشتی|چپ|200 px|آنتروپی آزمایش برنولی به صورت تابعی از احتمال موفقیت، اغلب به نام تابع باینری آنتروپی نامیده می شود.<math>H_\mbox{b}(p)</math>.
مقدار آنتروپی در 1 بیشینه است در هر آزمایشی که دو نتیجه ی ممکن به طور مساوی محتملند؛ همانند شیر یا خط آوردن یک سکه به طور بی طرفانه]]
آنتروپی<math>H</math> یک متغیر تصادفی<math>X</math>، از اندازه گیری مقدار احتمالات مربوط به مقدار <math>X</math> به دست می آید.
 
== جستارهای وابسته ==
۶۷٬۲۶۲

ویرایش