پیش‌نویس:کلود (مدل زبان)

Claude
توسعه‌دهنده(ها)Anthropic
انتشار اولیهمارس ۲۰۲۳؛ ۱ سال پیش (۲۰۲۳}})
نوع
مجوزProprietary
وبگاهclaude.ai

کلود خانواده‌ای از مدل های زبان بزرگ است که توسط شرکت Anthropic توسعه یافته است. [۱] اولین مدل آن در ماه مارس منتشر شد. Claude 3 در مارس ۲۰۲۳ منتشر شد که می‌تواند تصاویر را نیز تجزیه و تحلیل و بررسی کند. [۲]

آموزش ویرایش

مدل های کلود ترانسفورماتورهای از پیش آموزش دیده مولدهستند. آن‌ها پیش‌ آموزش شده‌اند تا کلمه بعدی را در متن ها پیش‌بینی کنند. سپس مدل‌های کلود با هوش مصنوعی قانون اساسی (Constitutional AI) برای مفید، صادق و بی‌ خطر بودن آن‌ها تنظیم شده‌اند. [۳] [۴]

هوش مصنوعی قانون اساسی ویرایش

هوش مصنوعی قانون اساسی شیوه ای است که توسط شرکت Anthropic برای آموزش سیستم‌ های هوش مصنوعی، به خصوص مدل‌های زبانی مانند کلود، توسعه یافته است تا بدون نیاز به بازخورد گسترده انسانی، بی‌ خطر و مفید باشند. این روش که در مقاله‌ای با عنوان «هوش مصنوعی قانون اساسی: بی‌ خطری از طریق بازخورد هوش مصنوعی» شرح داده شده است، شامل دو بخش است: یادگیری تحت نظارت و یادگیری تقویتی . [۴]

در بخش یادگیری با نظارت، مدل برای پاسخ به سوالات (prompts) خروجی تولید می‌کند، سپس بر اساس مجموعه‌ای از اصول راهنما (که به آن «قانون اساسی» گفته می‌شود) به نقد خود این خروجی‌ها می‌ پردازد و آن‌ها را بازبینی می‌ کند. سپس مدل بر اساس این پاسخ‌ های بازبینی‌ شده، fine-tuned می‌شود. [۴]

در یادگیری تقویتی از بازخورد هوش مصنوعی (RLAIF)، خروجی‌ها تولید میشوند و بر پایه ی تطابق آن‌ها با «قانون اساسی» با یکدیگر مقایسه می‌شوند. این مجموعه داده از بازخورد هوش مصنوعی برای آموزش یک مدل ترجیحی (preference model) استفاده می‌شود که پاسخ‌ها را بر اساس میزان مطابقت آن‌ها با «قانون اساسی» ارزیابی می‌کند. سپس مدل کلود برای همسو شدن با این مدل ترجیحی هماهنگ شود . [۵] [۴]

این رویکرد، آموزش دستیارهای هوش مصنوعی را مفید و بدون خطر هستند و می‌توانند مخالفت‌ های خود را با درخواست‌ های مضر توضیح دهند، امکان‌پذیر می‌کند که در نتیجه شفافیت افزایش پیدا میکند و وابستگی به نظارت انسانی کاهش میابد. [۶] [۷]

"قانون اساسی" برای کلود شامل ٧٥ بند بود که بخش‌هایی از آن از اعلامیه جهانی حقوق بشر سازمان ملل بود گرفته شده است . [۶] [۳]

مدل ها ویرایش

کلود ویرایش

کلود اولین نسخه از مدل زبان شرکت Anthropic بود که در مارس ۲۰۲۳ منتشر شد، [۸] با وجود مهارت کلود در انجام وظایف مختلف، این مدل در زمینه کد‌نویسی، ریاضی و استدلال محدودیت‌هایی داشت. [۹]شرکت Anthropic با شرکت هایی مانند Notion (نرم افزار مدیریت کار) و Quora (برای کمک به توسعه ربات چت پو ) همکاری کرد. [۹]

کلود اینستنت ویرایش

کلود در دو نسخه‌ی کلود و کلود اینستنت، منتشر شد که کلود اینستنت نسخه سریعتر، ارزان‌ تر و سبک‌ تری است. کلود اینستنت طول متن ورودی توکن دارد (حدود 75000 کلمه). [۱۰]

کلود 2 ویرایش

کلود ۲ نسخه اصلی بعدی کلود بود که در ۱۱ جولای ۲۰۲۳ منتشر شد و در دسترس عموم قرار گرفت، در حالی که کلود ۱ تنها برای کاربران منتخب تأیید شده توسط Anthropic در دسترس بود. [۱۱]

کلود ۲ پنجره متن (context window) خود را از ۹,۰۰۰ توکن به ۱۰۰,۰۰۰ توکن افزایش داد. [۸] این ویژگی‌ها شامل توانایی آپلود فایل‌های PDF و سایر اسنادی است که کلود را قادر می‌سازد تا متون آن‌ها را بخواند، خلاصه کند و در انجام کارها به شما کمک کند. این قابلیت به کلود ۲ امکان می‌دهد تا در طیف وسیعی از وظایف مانند تحقیق، نوشتن و تحلیل داده‌ها مفید باشد.

کلود 2.1 ویرایش

کلود ۲.۱ تعداد توکن‌هایی که چت‌بات می‌توانست مدیریت کند را دو برابر کرد و آن را به پنجره‌ای ۲۰۰,۰۰۰ توکنی افزایش داد که تقریباً معادل ۵۰۰ صفحه متن نوشته شده است. [۱]

شرکت Anthropic می‌گوید که مدل جدید نسبت به مدل‌های قبلی خود، احتمال کمتری برای تولید اظهارات نادرست دارد. [۱۲]

کلود 3 ویرایش

کلود ۳ در تاریخ ۱۴ مارس ۲۰۲۴ منتشر شد و طبق بیانیه‌ی مطبوعاتی، ادعا شده که این مدل در طیف وسیعی از وظایف شناختی، به معیارهای جدیدی در صنعت دست یافته است. خانواده کلود ۳ شامل سه مدل پیشرفته به ترتیب توانایی آن‌ها است: هایکو، سونِت و اوپوس. نسخه پیش فرض کلود ۳ اوپوس دارای پنجره متن ۲۰۰,۰۰۰ توکنی است، اما این مقدار برای موارد خاص تا ۱ میلیون توکن قابل افزایش است. [۱۳] [۲]

به نظر می‌رسد کلود 3 استدلال فراشناختی از خود نشان داده است، از جمله توانایی درک اینکه در طول ارزیابی سوزن در انبار کاه به طور مصنوعی مورد آزمایش قرار می گیرد. [۱۴]

دسترسی ویرایش

دسترسی با محدودیت استفاده رایگان است، اما به یک آدرس ایمیل و یک شماره موبایل نیاز دارد.

نقد ویرایش

کلود ۲ به خاطر هم‌راستا بودن شدید با اخلاق که ممکن است قابلیت استفاده و عملکرد را کاهش دهد، مورد انتقاد قرار گرفته است. به درخواست‌های بی‌خطر کاربران، مانند پرسش برنامه‌نویسی«چگونه می‌توانم تمام فرآیندهای پایتون را در سرور اوبونتو خود بکشم ؟»،پاسخ رد داده شده‌است. این موضوع منجر به بحثی در مورد «هزینه هم‌ راستا بودن» (هزینه اطمینان از همسویی یک سیستم هوش مصنوعی) در توسعه هوش مصنوعی شده‌است، با بحث‌هایی که بر روی برقراری تعادل بین ملاحظات اخلاقی و کارایی عملی متمرکز است. منتقدان طرفدار استقلال و اثربخشی کاربر هستند، در حالی که طرفداران بر اهمیت هوش مصنوعی اخلاقی تأکید می‌کنند.. [۱۵] [۱۲]

منابع ویرایش

  1. ۱٫۰ ۱٫۱ Davis, Wes (2023-11-21). "OpenAI rival Anthropic makes its Claude chatbot even more useful". The Verge (به انگلیسی). Retrieved 2024-01-23.
  2. ۲٫۰ ۲٫۱ Whitney, Lance (March 4, 2024). "Anthropic's Claude 3 chatbot claims to outperform ChatGPT, Gemini". ZDNET (به انگلیسی). Retrieved 2024-03-05.
  3. ۳٫۰ ۳٫۱ "What to Know About Claude 2, Anthropic's Rival to ChatGPT". TIME (به انگلیسی). 2023-07-18. Retrieved 2024-01-23.
  4. ۴٫۰ ۴٫۱ ۴٫۲ ۴٫۳ "Claude's Constitution". Anthropic (به انگلیسی). May 9, 2023. Retrieved 2024-03-26.
  5. Eliot, Lance (May 25, 2023). "Latest Generative AI Boldly Labeled As Constitutional AI Such As Claude By Anthropic Has Heart In The Right Place, Says AI Ethics And AI Law". Forbes (به انگلیسی). Retrieved 2024-03-27.
  6. ۶٫۰ ۶٫۱ Bai, Yuntao; Kadavath, Saurav; Kundu, Sandipan; Askell, Amanda; Kernion, Jackson; Jones, Andy; Chen, Anna; Goldie, Anna; Mirhoseini, Azalia (2022-12-15), Constitutional AI: Harmlessness from AI Feedback, arXiv:2212.08073
  7. Mok, Aaron. "A ChatGPT rival just published a new constitution to level up its AI guardrails, and prevent toxic and racist responses". Business Insider (به انگلیسی). Retrieved 2024-01-23.
  8. ۸٫۰ ۸٫۱ Drapkin, Aaron (2023-10-27). "What Is Claude AI and Anthropic? ChatGPT's Rival Explained". Tech.co (به انگلیسی). Retrieved 2024-01-23.
  9. ۹٫۰ ۹٫۱ "Introducing Claude". Anthropic. March 14, 2023.
  10. Yao, Deborah (August 11, 2023). "Anthropic's Claude Instant: A Smaller, Faster and Cheaper Language Model". AI Business.
  11. Matthews, Dylan (2023-07-17). "The $1 billion gamble to ensure AI doesn't destroy humanity". Vox (به انگلیسی). Retrieved 2024-01-23.
  12. ۱۲٫۰ ۱۲٫۱ "Anthropic Announces Claude 2.1 LLM with Wider Context Window and Support for AI Tools". InfoQ (به انگلیسی). Retrieved 2024-01-23.
  13. "Introducing the next generation of Claude". Anthropic (به انگلیسی). Retrieved 2024-03-04.
  14. Edwards, Benj (2024-03-05). "Anthropic's Claude 3 causes stir by seeming to realize when it was being tested". Ars Technica (به انگلیسی). Retrieved 2024-03-09.
  15. Glifton, Gerald (January 3, 2024). "Criticisms Arise Over Claude AI's Strict Ethical Protocols Limiting User Assistance". Light Square (به انگلیسی). Retrieved 2024-01-23.