قانون زیف (به انگلیسی: Zipf's law، ‎/zɪf/‎) یکی از قوانین تجربی است. این قانون توسط آمار ریاضی فرمول‌بندی شده‌است، و به این واقعیت اشاره دارد که انواع مختلف داده (که در علوم فیزیکی و اجتماعی مطالعه می‌شوند) را می‌توان توسط «توزیع زیفی» تقریب زد. این قانون عضوی از خانواده توزیع احتمال قانون توانی است. توزیع زیف با توزیع زتا مرتبط می‌باشد، ولی باهم یکسان نیستند.

قانون زیف
تابع جرم احتمال
نمودار زیف تابع جرم احتمال برای 'N'=10
تابع جرم احتمال برای N = 10 که در یک مقیاس لاگ-لاگ نمایش یافته است.محور افقی اندیس k می‌باشد. (توجه کنید که تابع فقط برای مقادیر صحیح k تعریف شده است. خطوط متصل کننده نشان‌دهنده پیوستگی نیستند.)
تابع توزیع تجمعی
نمودار تابع توزیع تجمیعی زیف برای N =10 نمودار تابع توزیع تجمیعی زیف برای N =10. محور افقی برابر اندیس k است. (توجه کنید که تایع فقط در مقادیر صحیح برای k تعریف شده است، و خطوط متصل کننده نشان دهنده پیوسته بودن تابع نیستند.)
پارامترها (حقیقی)
(طبیعی)
تکیه‌گاه
تابع جرم احتمال
تابع توزیع تجمعی
میانگین
مُد
آنتروپی
تابع مولد گشتاور
تابع مشخصه

قانون زیف در اصل به صورت عبارات زبان‌شناسی کمی فرمول بندی شد، و بیان می‌کرد که: اگر به ما چندین پیکره متنی شامل متون زبان طبیعی داده شود، «فراوانی» هر واژه به صورت معکوس با «رتبه» آن در جدول فراوانی متناسب است.

بر اساس قانون زیف، فراوان‌ترین واژه تقریباً دوبرابر دومین واژه فراوان‌تر رخ می‌دهد و سه برابر سومین واژه فراوان‌تر رخ می‌دهد و غیره.

توزیع رتبه-فراوانی یک رابطه وارون را بیان می‌کند. برای مثال در پیکره متنی براون که شامل متون انگلیسی آمریکایی است، واژه "the" فراوان‌ترین کلمه است، و خودش به تنهایی ۷٪ از همه رخدادهای واژه‌ها را شامل می‌شود (یعنی ۶۹٬۹۷۱ تکرار از بین تقریباً یک میلیون). در این پیکره، قانون زیف رعایت شده‌است، یعنی: دومین واژه پرفراوانی که "of" می‌باشد، شامل تقریباً ۳٫۵٪ کلمات است (۳۶٬۴۱۱ بار رخداد)، و پس از آن واژه "and" می‌باشد (۲۸٬۸۵۲ بار رخداد). در این پیکره متنی، فقط ۱۳۵ ورودی از دایره واژه‌ها، لازم است تا نیمی از پیکره براون را شامل شود.[۱]

این قانون به افتخار زبان‌شناس آمریکایی جورج کینگزلی زیف (۱۹۰۲ تا ۱۹۵۰) نامگذاری شده‌است، که آن را به محبوبیت رساند و تلاش کرد آن را توضیح بدهد (زیف ۱۹۳۵ تا ۱۹۴۹)، اما او هیچگاه ادعا نکرده بود که آن را اختراع کرده‌است.[۲] به نظر می‌رسد که تندنویس فرانسوی با نام ژان باتیست استوپ (۱۸۶۸ تا ۱۹۵۰) به این نظم، قبل از زیف اشاره کرده‌باشد.[۳][در متن مقاله تأیید نشده است] این قانون همچنین در سال ۱۹۱۳ توسط فیزیکدان آلمانی فلیکس آورباخ (۱۸۵۶ تا ۱۹۳۳) اشاره شده است.[۴]

قانون زیف از جمله قوانینی بود که در قرن بیستم مطرح شد و برای نخستین بار به مطالعهٔ مشخصه‌ها و فرایندهای مرتبط با مدارک می‌پرداخت. جورج کینگزلی زیف، استاد زبان‌شناسی دانشگاه هاروارد، در سال ۱۹۴۹ با آزمایش کلمات کتاب اولیس جیمز جویس به نتایجی در مورد کلمات و میزان تکرار آن‌ها در متن رسید. نتایج او به این صورت بود که: اگر تمام کلمات یک کتاب را بشماریم و از زیاد به کم مرتب کنبم به این نتیجه می‌رسیم که رتبهٔ هر کلمه با فراوانی (بسامد) همان کلمه نسبت عکس دارد، یعنی تعداد دفعاتی که هر کلمه در متن ظاهر می‌شود با رتبهٔ همان کلمه در متن رابطه معکوس دارد. این نسبت در کلمات کل متن برقرار است؛ که به قانون زیف معروف شده‌است. بر طبق زیف کلمه‌ای که در رتبهٔ ۱ قرار دارد دوبرابر بیشتر از کلمه‌ای در متن ظاهر می‌شود که در رتبهٔ ۲ قرار دارد و ۳ برابر بیشتر از کلمه‌ای ظاهر می‌شود که در رتبهٔ ۳ قرار دارد و همین‌طور تا آخر.

او این قضیه را با اصل کمترین کوشش توجیه کرد. انسان‌ها بر اساس این اصل تمایل دارند کارهای خود را به گونه‌ای ساده‌تر انجام دهند و در نوشتن متنی سعی دارند بیشتر از کلمات تکراری استفاده کنند؛ و همچنین در هنگام صحبت کردن و سخنرانی سعی دارند کلمات کمتری را بیشتر تکرار کنند. زیف بر مبنای اصل کمترین کوشش، اهمیت کوتاه‌نویسی مقاله‌ها را از طریق به‌کارگیری واژه‌های کمتر برای یک مفهوم مورد تأکید قرار داد. وی در همین زمینه بیان کرد در شرایطی که می‌توان برای بیان یک مفهوم از یک واژه استفاده کرد، به‌کارگیری واژگان متعدد برای بیان آن مفهوم در یک مقاله بی‌معنی است.

این رابطه بین فراوانی f و رتبه r برقرار است که: r * f = k حاصل ضرب فراوانی (بسامد) واژه در رتبهٔ آن در کل هر متن عددی (تقریباً) ثابت است.

رابطهٔ لگاریتمی آن شناخته‌شده‌تر است و کاربرد بیشتر دارد: log r +log f = log c

این رابطه به جز کلمات در بسیاری از دیگر محیطها از جمله جمعیت شهرها، میزان بازدید از صفحات اینترنت، شرکت‌ها و کارکنان آن و نیز در نمایه‌سازی خودکار و… استفاده می‌شود. از نظر محققان بسیار عجیب است که چطور و چرا همچنین رابطهٔ ساده‌ای در بسیاری محیطهای پیچیده اتفاق می‌افتد.

اما به هرحال قانون زیف بسیار ساده‌است چراکه خود زیف زبان‌شناس بود و به مسائل ریاضی چندان علاقه نداشت؛ و این فرمول نتوانست محیطهای خیلی پرتکرار را به درستی نشان دهد. بعد از زیف سه عدد ثابت به این فرمول اضافه شد و کمی محاسبهٔ آن را انعطاف‌پذیرتر کرد؛ که به زیف مندلبرت معروف است.
ƒ=(r+m)^B

جستارهای وابسته ویرایش

پانویس ویرایش

  1. Fagan, Stephen; Gençay, Ramazan (2010), "An introduction to textual econometrics", in Ullah, Aman; Giles, David E. A. (eds.), Handbook of Empirical Economics and Finance, CRC Press, pp. 133–153, ISBN 978-1-4200-7036-1. P. 139: "For example, in the Brown Corpus, consisting of over one million words, half of the word volume consists of repeated uses of only 135 words."
  2. Powers, David M W (1998). "Applications and explanations of Zipf's law". Association for Computational Linguistics: 151–160. {{cite journal}}: Cite journal requires |journal= (help); Unknown parameter |conference= ignored (help)
  3. Christopher D. Manning, Hinrich Schütze Foundations of Statistical Natural Language Processing, MIT Press (1999), شابک ‎۹۷۸−۰−۲۶۲−۱۳۳۶۰−۹, p. 24
  4. Auerbach F. (1913) Das Gesetz der Bevölkerungskonzentration. Petermann’s Geographische Mitteilungen 59, 74–76

منابع ویرایش