توزیع برنولی پیوسته

توزیع برنولی پیوسته[۱][۲][۳] در نظریه احتمالات، آمار و یادگیری ماشین، خانواده‌ای از توزیع‌های احتمال پیوسته‌است که توسط پارامتر تعریف می‌شود. بازه این توزیع است و به این شکل تعریف می‌شود:

Continuous Bernoulli distribution
تابع چگالی احتمال
Probability density function of the continuous Bernoulli distribution
نماد
پارامترها
تکیه‌گاه
تابع چگالی احتمال
where
تابع توزیع تجمعی
میانگین
واریانس

توزیع پیوسته برنولی در یادگیری عمیق و بینایی رایانه‌ای، به‌ویژه در زمینه رمزگذارهای خودکار متغیر[۴][۵] برای مدل‌سازی پیکسل‌های تصاویر طبیعی مورد استفاده قرار می‌گیرد. به این ترتیب، یک همتای احتمالی مناسب برای از دست دادن آنتروپی متقاطع باینری که معمولاً مورد استفاده قرار می‌گیرد، تعریف می‌کند که اغلب برای پیوسته اعمال می‌شود. داده‌های با ارزش[۶][۷][۸][۹] این عمل به معنای نادیده گرفتن ثابت نرمال کننده توزیع پیوسته برنولی است، زیرا از دست دادن آنتروپی متقاطع باینری تنها یک احتمال لگ واقعی را برای گسسته تعریف می‌کند. داده‌های با ارزش

برنولی پیوسته نیز یک خانواده نمایی از توزیع‌ها را تعریف می‌کند. نوشتن برای پارامتر طبیعی، چگالی را می‌توان به شکل متعارف بازنویسی کرد: .

توزیع‌های مرتبط ویرایش

توزیع برنولی ویرایش

برنولی پیوسته را می‌توان به عنوان نسخه پیوسته توزیع برنولی در نظر گرفت که بر روی مجموعه گسسته   و به وسیله تابع چگالی احتمال پایین تعریف می‌شود:

 

جایی که   یک پارامتر عددی بین ۰ و ۱ است. اعمال همین تابع در بازه پیوسته   منجر به ضریبی از تابع چگالی احتمال پیوسته برنولی می‌شود.

توزیع بتا ویرایش

توزیع بتا تابع چگالی را پایین را دارد:

 

که می‌توان آن را به این شکل نوشت:

 

در اینجا   پارامترهای عددی مثبت هستند و   نشان دهنده یک نقطه دلخواه در داخل سادک   می‌باشد. با تعویض نقش پارامتر و ورودی در این تابع چگالی، عبارت پایین را به دست می‌آوریم:

 

با اعمال محدودیت   و تغییر متغیر   به عبارت پایین خواهیم رسید:

 

که دقیقاً مطابق با چگالی برنولی پیوسته‌است.

توزیع نمایی ویرایش

توزیع نمایی محدود به بازه ۰ تا ۱ معادل توزیع برنولی پیوسته با پارامتر مناسب است.

توزیع طبقه ای مستمر ویرایش

تعمیم چند متغیره برنولی پیوسته، پیوسته-دسته‌ای نامیده می‌شود.[۱۰]

جستارهای وابسته ویرایش

منابع ویرایش

  1. Loaiza-Ganem, G. , & Cunningham, J. P. (2019). The continuous Bernoulli: fixing a pervasive error in variational autoencoders. In Advances in Neural Information Processing Systems (pp. 13266-13276).
  2. PyTorch Distributions. https://pytorch.org/docs/stable/distributions.html#continuousbernoulli
  3. Tensorflow Probability. https://www.tensorflow.org/probability/api_docs/python/tfp/edward2/ContinuousBernoulli بایگانی‌شده در ۲۵ نوامبر ۲۰۲۰ توسط Wayback Machine
  4. Kingma, D. P. , & Welling, M. (2013). Auto-encoding variational bayes. arXiv preprint arXiv:1312.6114.
  5. Kingma, D. P. , & Welling, M. (2014, April). Stochastic gradient VB and the variational auto-encoder. In Second International Conference on Learning Representations, ICLR (Vol. 19).
  6. Larsen, A. B. L. , Sønderby, S. K. , Larochelle, H. , & Winther, O. (2016, June). Autoencoding beyond pixels using a learned similarity metric. In International conference on machine learning (pp. 1558-1566).
  7. Jiang, Z. , Zheng, Y. , Tan, H. , Tang, B. , & Zhou, H. (2017, August). Variational deep embedding: an unsupervised and generative approach to clustering. In Proceedings of the 26th International Joint Conference on Artificial Intelligence (pp. 1965-1972).
  8. PyTorch VAE tutorial: https://github.com/pytorch/examples/tree/master/vae.
  9. Keras VAE tutorial: https://blog.keras.io/building-autoencoders-in-keras.html.
  10. Gordon-Rodriguez, E. , Loaiza-Ganem, G. , & Cunningham, J. P. (2020). The continuous categorical: a novel simplex-valued exponential family. In 36th International Conference on Machine Learning, ICML 2020. International Machine Learning Society (IMLS).