اینفینی‌باند (InfiniBand یا به اختصار IB) یک استاندارد برای ارتباطات شبکه‌های کامپیوتری است که در ابررایانه‌ها (کامپیوترهایی بامحاسبه کارایی بالا که توان بسیار بالا و تاخیر کم دارند) استفاده می‌شود. این استاندارد برای اتصال داده ها بین رایانه‌ها و درون آنها، به عنوان یک اتصال مستقیم یا سوئیچ شده بین سرورها و سیستم های ذخیره سازی و همچنین اتصال بین سیستم های ذخیره سازی استفاده می شود، برای مقیاس‌پذیری بیشتر طراحی شده است و از توپولوژی شبکه پارچه‌ای سوئیچ شده استفاده می‌کند .

تا سال ۲۰۱۴، این اتصال متداول ترین اتصال در ابر رایانه ها بود. ملانوکس (انویدیای امروزی) برای اینفینی‌باند آداپتور باس میزبان و سوئیچ شبکه تولید می‌کند، و در ماه فبریه‌ی ۲۰۱۶ گزارش شد که شرکت اوراکل واحدهای سوئیچ InfiniBand و تراشه‌های آداپتور سرور خود را برای استفاده در خطوط تولید خود و توسط اشخاص ثالث مهندسی کرده است.[۱] کارت‌های IB ملانوکس برای سولاریس، فری‌بی‌اس‌دی[۲][۳]، رد هت انترپرایز لینوکس، سوزه لینوکس انترپرایز، ویندوز، اچ‌پی یوایکس، وی‌ام‌ویر ای‌اس‌ایکس‌آی[۴] و ای‌آی‌ایکس[۵] موجود هستند.

به عنوان یک اتصال ، IB با اترنت، کانال فیبری و مسیر همه‌جانبه (omni-path) اینتل رقابت می کند.

این فناوری توسط انجمن تجارت InfiniBand تبلیغ و ترویج داده‌می‌شود.

مشخصات ویرایش

عملکرد ویرایش

مشخصات
SDR DDR QDR FDR10 FDR EDR HDR NDR XDR
نرخ سیگنالینگ (Gbit / s) ۰۰۰ ۲٫۵ ۰۰۰ ۵ ۰۰ ۱۰ ۰۰ ۱۰٫۳۱۲۵ 00 14.0625[۶] ۰۰ ۲۵٫۷۸۱۲۵ ۰۰ ۵۰ 0 ۱۰۰ 0 ۲۵۰
نظری




تأثیر گذار




توان عملیاتی




(گیگابایت در ثانیه)[۷]
0 ۱ لینک s ۰۰۰ ۲ ۰۰۰ ۴ ۰۰۰ ۸ ۰۰ ۱۰ ۰۰ ۱۳٫۶۴ ۰۰ ۲۵ ۰۰ ۵۰ 0 ۱۰۰ 0 ۲۵۰
برای 0 ۴ پیوند ۰۰۰ ۸ ۰۰ ۱۶ ۰۰ ۳۲ ۰۰ ۴۰ ۰۰ ۵۴٫۵۴ 0 ۱۰۰ 0 ۲۰۰ 0 ۴۰۰ ۱۰۰۰
برای 0 ۸ لینک ۰۰ ۱۶ ۰۰ ۳۲ ۰۰ ۶۴ ۰۰ ۸۰ 0 ۱۰۹٫۰۸ 0 ۲۰۰ 0 ۴۰۰ 0 ۸۰۰ ۲۰۰۰
برای ۱۲ لینک ۰۰ ۲۴ ۰۰ ۴۸ ۰۰ ۹۶ 0 ۱۲۰ 0 ۱۶۳٫۶۴ 0 ۳۰۰ 0 ۶۰۰ ۱۲۰۰ ۳۰۰۰
رمزگذاری (بیت) 8b / 10b 64b / 66b PAM4 tbd
تأخیر آداپتور (μs)[۸] ۰۰۰ ۵ ۰۰۰ ۲٫۵ ۰۰۰ ۱٫۳ ۰۰۰ ۰٫۷ ۰۰۰ ۰٫۷ ۰۰۰ ۰٬۵ کمتر؟ tbd tbd
سال[۹] ۲۰۰۱، ۲۰۰۳ ۲۰۰۵ ۲۰۰۷ ۲۰۱۱ ۲۰۱۱ 2014[۱۰] ۲۰۱۸ ۲۰۲۱ بعد از سال ۲۰۲۳؟

پیوندها را می‌توان جمع کرد: بیشتر سیستم‌ها از یک جمع ۴× استفاده می‌کنند. ۸× ۱۲× لینک‌ها به‌طور معمول برای خوشهها، ابر رایانه‌ها و اتصالات بین‌سوئیچی استفاده می‌شود.

اینفینی‌باند همچنین قابلیت دسترسی مستقیم حافظه از راه دور را برای سربار با پردازنده کم فراهم می‌کند.

توپولوژی ویرایش

در مقایسه با اترنت اشتراکی اولیه متوسط ، اینفینی‌باند از یک توپولوژی پارچه ای تغییر یافته استفاده می کند؛ همه انتقال‌ها در آداپتور کانال شروع یا پایان می‌یابند، هر پردازنده شامل یک آداپتور کانال میزبان (HCA) و هر یک از تجهیزات جانبی دارای یک آداپتور کانال هدف (TCA) است. این آداپتورها می توانند اطلاعات را برای اهداف امنیتی یا کیفیت خدمات (QoS) تبادل کنند.

پیام ها ویرایش

InfiniBand داده ها را در بسته هایی با حجم حداکثر 4 کیلوبایت انتقال می‌دهد که برای تشکیل یک پیام با هم جمع می شوند. یک پیام می تواند به شبیه به موارد زیر باشد:

اتصال فیزیکی ویرایش

 
سوئیچ InfiniBand با اتصالات CX4 / SFF-8470

علاوه بر اتصال به فرم برد ، می تواند با استفاده از اتصالات QSFP از مس فعال و غیرفعال (تا 10 متر) و کابل فیبر نوری (حداکثر ۱۰ کیلومتر) استفاده کند [۱۱]

همچنین انجمن اینفینی‌باند سیستم اتصال CXP را با استفاده از کابل های فیبر چند حالت موازی با اتصالات MPO 24 فیبربرای سرعت ۱۲۰ گیگابیت بر صانیه در مس ، کابل‌های نوری فعال و گیرنده‌های نوری مشخص کرده‌است.[نیازمند منبع]

اترنت بر پایه‌ی InfiniBand ویرایش

اترنت بر پایه‌ی InfiniBand (به اختصار EoIB) یک پیاده‌سازی اترنت بر روی پروتکل InfiniBand و فناوری اتصال است.

EoIB وجود همزمان چندین پهنای باند اترنت با نسخه InfiniBand (IB) متفاوت را امکان پذیر می کند.

اجرای اترنت از مجموعه پروتکل اینترنت ، که معمولاً به آن TCP/IP گفته می شود ، با برخی از پیاده‌سازی‌های مورد استفاده بر پایه‌ی پروتکل InfiniBand در IP از طریق IP (به اختصار IPoIB) متفاوت است.

عملکرد اترنت از طریق InfiniBand
نوع خطوط پهنای باند (Gbit / s) نوع (های) اترنت سازگار مقدار اترنت سازگار
SDR 00 1 000 2.5 GbE تا 2.5 GbE ۰ 2 × GbE تا 1 × ۰ 2.5 GbE
00 4 00 10 GbE تا 10 GbE 10 × GbE تا 1 10 GbE
00 8 00 20 GbE تا 10 GbE 20 × GbE تا 2 × 10 GbE
۰ 12 00 30 GbE تا 25 GbE 30 × GbE تا 1 × 25 GbE + 1 × ۰ 5 GbE
DDR 00 1 000 5 GbE تا 5 GbE ۰ 5 × GbE تا 1 × ۰ 5 GbE
00 4 00 20 GbE تا 10 GbE 20 × GbE تا 2 × 10 GbE
00 8 00 40 GbE تا 40 GbE 40 × GbE تا 1 × 40 GbE
۰ 12 00 60 GbE تا 50 GbE 60 × GbE تا 1 × 50 GbE + 1 10 GbE
QDR 00 1 00 10 GbE تا 10 GbE 10 × GbE تا 1 10 GbE
00 4 00 40 GbE تا 40 GbE 40 × GbE تا 1 × 40 GbE

جستارهای وابسته ویرایش

منابع ویرایش

  1. "Oracle Engineers Its Own InfiniBand Interconnects". 23 February 2016.
  2. "Mellanox OFED for FreeBSD". Mellanox. Retrieved 19 September 2018.
  3. Mellanox Technologies (3 December 2015). "FreeBSD Kernel Interfaces Manual, mlx5en". FreeBSD Man Pages (به انگلیسی). FreeBSD. Retrieved 19 September 2018.
  4. "InfiniBand Cards - Overview". Mellanox. Retrieved 30 July 2014.
  5. "Implementing InfiniBand on IBM System p (IBM Redbook SG24-7351-00)" (PDF).
  6. «نسخه آرشیو شده». بایگانی‌شده از اصلی در ۲۶ اوت ۲۰۱۶. دریافت‌شده در ۲۷ آوریل ۲۰۲۱.
  7. "Archived copy". Archived from the original on 2011-09-29. Retrieved 2009-10-27.{{cite web}}: نگهداری یادکرد:عنوان آرشیو به جای عنوان (link)
  8. http://www.hpcadvisorycouncil.com/events/2014/swiss-workshop/presos/Day_1/1_Mellanox.pdf // Mellanox
  9. Panda, Dhabaleswar K.; Sayantan Sur (2011). "Network Speed Acceleration with IB and HSE" (PDF). Designing Cloud and Grid Computing Systems with InfiniBand and High-Speed Ethernet. Newport Beach, CA, USA: CCGrid 2011. p. 23. Retrieved 13 September 2014.
  10. "InfiniBand Roadmap - Advancing InfiniBand". InfiniBand Trade Association (به انگلیسی).
  11. "Specification FAQ". ITA. Archived from the original on 24 November 2016. Retrieved 30 July 2014.