اینفینیباند
اینفینیباند (InfiniBand یا به اختصار IB) یک استاندارد برای ارتباطات شبکههای کامپیوتری است که در ابررایانهها (کامپیوترهایی بامحاسبه کارایی بالا که توان بسیار بالا و تاخیر کم دارند) استفاده میشود. این استاندارد برای اتصال داده ها بین رایانهها و درون آنها، به عنوان یک اتصال مستقیم یا سوئیچ شده بین سرورها و سیستم های ذخیره سازی و همچنین اتصال بین سیستم های ذخیره سازی استفاده می شود، برای مقیاسپذیری بیشتر طراحی شده است و از توپولوژی شبکه پارچهای سوئیچ شده استفاده میکند .
تا سال ۲۰۱۴، این اتصال متداول ترین اتصال در ابر رایانه ها بود. ملانوکس (انویدیای امروزی) برای اینفینیباند آداپتور باس میزبان و سوئیچ شبکه تولید میکند، و در ماه فبریهی ۲۰۱۶ گزارش شد که شرکت اوراکل واحدهای سوئیچ InfiniBand و تراشههای آداپتور سرور خود را برای استفاده در خطوط تولید خود و توسط اشخاص ثالث مهندسی کرده است.[۱] کارتهای IB ملانوکس برای سولاریس، فریبیاسدی[۲][۳]، رد هت انترپرایز لینوکس، سوزه لینوکس انترپرایز، ویندوز، اچپی یوایکس، ویامویر ایاسایکسآی[۴] و ایآیایکس[۵] موجود هستند.
به عنوان یک اتصال ، IB با اترنت، کانال فیبری و مسیر همهجانبه (omni-path) اینتل رقابت می کند.
این فناوری توسط انجمن تجارت InfiniBand تبلیغ و ترویج دادهمیشود.
مشخصات ویرایش
عملکرد ویرایش
SDR | DDR | QDR | FDR10 | FDR | EDR | HDR | NDR | XDR | ||
---|---|---|---|---|---|---|---|---|---|---|
نرخ سیگنالینگ (Gbit / s) | ۲٫۵ | ۵ | ۱۰ | ۱۰٫۳۱۲۵ | [۶] | 14.0625۲۵٫۷۸۱۲۵ | ۵۰ | ۱۰۰ | ۲۵۰ | |
نظری تأثیر گذار توان عملیاتی (گیگابایت در ثانیه)[۷] |
۱ لینک | ۲ | ۴ | ۸ | ۱۰ | ۱۳٫۶۴ | ۲۵ | ۵۰ | ۱۰۰ | ۲۵۰ |
برای | ۴ پیوند۸ | ۱۶ | ۳۲ | ۴۰ | ۵۴٫۵۴ | ۱۰۰ | ۲۰۰ | ۴۰۰ | ۱۰۰۰ | |
برای | ۸ لینک۱۶ | ۳۲ | ۶۴ | ۸۰ | ۱۰۹٫۰۸ | ۲۰۰ | ۴۰۰ | ۸۰۰ | ۲۰۰۰ | |
برای ۱۲ لینک | ۲۴ | ۴۸ | ۹۶ | ۱۲۰ | ۱۶۳٫۶۴ | ۳۰۰ | ۶۰۰ | ۱۲۰۰ | ۳۰۰۰ | |
رمزگذاری (بیت) | 8b / 10b | 64b / 66b | PAM4 | tbd | ||||||
تأخیر آداپتور (μs)[۸] | ۵ | ۲٫۵ | ۱٫۳ | ۰٫۷ | ۰٫۷ | ۰٬۵ | کمتر؟ | tbd | tbd | |
سال[۹] | ۲۰۰۱، ۲۰۰۳ | ۲۰۰۵ | ۲۰۰۷ | ۲۰۱۱ | ۲۰۱۱ | 2014[۱۰] | ۲۰۱۸ | ۲۰۲۱ | بعد از سال ۲۰۲۳؟ |
پیوندها را میتوان جمع کرد: بیشتر سیستمها از یک جمع ۴× استفاده میکنند. ۸× ۱۲× لینکها بهطور معمول برای خوشهها، ابر رایانهها و اتصالات بینسوئیچی استفاده میشود.
اینفینیباند همچنین قابلیت دسترسی مستقیم حافظه از راه دور را برای سربار با پردازنده کم فراهم میکند.
توپولوژی ویرایش
در مقایسه با اترنت اشتراکی اولیه متوسط ، اینفینیباند از یک توپولوژی پارچه ای تغییر یافته استفاده می کند؛ همه انتقالها در آداپتور کانال شروع یا پایان مییابند، هر پردازنده شامل یک آداپتور کانال میزبان (HCA) و هر یک از تجهیزات جانبی دارای یک آداپتور کانال هدف (TCA) است. این آداپتورها می توانند اطلاعات را برای اهداف امنیتی یا کیفیت خدمات (QoS) تبادل کنند.
پیام ها ویرایش
InfiniBand داده ها را در بسته هایی با حجم حداکثر 4 کیلوبایت انتقال میدهد که برای تشکیل یک پیام با هم جمع می شوند. یک پیام می تواند به شبیه به موارد زیر باشد:
- دسترسی از راه دور به حافظه مستقیم برای خواندن یا نوشتن
- یک کانال ارسال یا دریافت
- یک عملیات مبتنی بر معامله (که قابل برگشت است)
- انتقال چندپخشی
- یک عملیات اتمی
اتصال فیزیکی ویرایش
علاوه بر اتصال به فرم برد ، می تواند با استفاده از اتصالات QSFP از مس فعال و غیرفعال (تا 10 متر) و کابل فیبر نوری (حداکثر ۱۰ کیلومتر) استفاده کند [۱۱]
همچنین انجمن اینفینیباند سیستم اتصال CXP را با استفاده از کابل های فیبر چند حالت موازی با اتصالات MPO 24 فیبربرای سرعت ۱۲۰ گیگابیت بر صانیه در مس ، کابلهای نوری فعال و گیرندههای نوری مشخص کردهاست.[نیازمند منبع]
اترنت بر پایهی InfiniBand ویرایش
اترنت بر پایهی InfiniBand (به اختصار EoIB) یک پیادهسازی اترنت بر روی پروتکل InfiniBand و فناوری اتصال است.
EoIB وجود همزمان چندین پهنای باند اترنت با نسخه InfiniBand (IB) متفاوت را امکان پذیر می کند.
اجرای اترنت از مجموعه پروتکل اینترنت ، که معمولاً به آن TCP/IP گفته می شود ، با برخی از پیادهسازیهای مورد استفاده بر پایهی پروتکل InfiniBand در IP از طریق IP (به اختصار IPoIB) متفاوت است.
نوع | خطوط | پهنای باند (Gbit / s) | نوع (های) اترنت سازگار | مقدار اترنت سازگار |
---|---|---|---|---|
SDR | 1 | 2.5 | GbE تا 2.5 GbE | 2 × GbE تا 1 × 2.5 GbE |
4 | 10 | GbE تا 10 GbE | 10 × GbE تا 1 10 GbE | |
8 | 20 | GbE تا 10 GbE | 20 × GbE تا 2 × 10 GbE | |
12 | 30 | GbE تا 25 GbE | 30 × GbE تا 1 × 25 GbE + 1 × | 5 GbE|
DDR | 1 | 5 | GbE تا 5 GbE | 5 × GbE تا 1 × 5 GbE |
4 | 20 | GbE تا 10 GbE | 20 × GbE تا 2 × 10 GbE | |
8 | 40 | GbE تا 40 GbE | 40 × GbE تا 1 × 40 GbE | |
12 | 60 | GbE تا 50 GbE | 60 × GbE تا 1 × 50 GbE + 1 10 GbE | |
QDR | 1 | 10 | GbE تا 10 GbE | 10 × GbE تا 1 10 GbE |
4 | 40 | GbE تا 40 GbE | 40 × GbE تا 1 × 40 GbE |
جستارهای وابسته ویرایش
منابع ویرایش
- ↑ "Oracle Engineers Its Own InfiniBand Interconnects". 23 February 2016.
- ↑ "Mellanox OFED for FreeBSD". Mellanox. Retrieved 19 September 2018.
- ↑ Mellanox Technologies (3 December 2015). "FreeBSD Kernel Interfaces Manual, mlx5en". FreeBSD Man Pages (به انگلیسی). FreeBSD. Retrieved 19 September 2018.
- ↑ "InfiniBand Cards - Overview". Mellanox. Retrieved 30 July 2014.
- ↑ "Implementing InfiniBand on IBM System p (IBM Redbook SG24-7351-00)" (PDF).
- ↑ «نسخه آرشیو شده». بایگانیشده از اصلی در ۲۶ اوت ۲۰۱۶. دریافتشده در ۲۷ آوریل ۲۰۲۱.
- ↑ "Archived copy". Archived from the original on 2011-09-29. Retrieved 2009-10-27.
{{cite web}}
: نگهداری یادکرد:عنوان آرشیو به جای عنوان (link) - ↑ http://www.hpcadvisorycouncil.com/events/2014/swiss-workshop/presos/Day_1/1_Mellanox.pdf // Mellanox
- ↑ Panda, Dhabaleswar K.; Sayantan Sur (2011). "Network Speed Acceleration with IB and HSE" (PDF). Designing Cloud and Grid Computing Systems with InfiniBand and High-Speed Ethernet. Newport Beach, CA, USA: CCGrid 2011. p. 23. Retrieved 13 September 2014.
- ↑ "InfiniBand Roadmap - Advancing InfiniBand". InfiniBand Trade Association (به انگلیسی).
- ↑ "Specification FAQ". ITA. Archived from the original on 24 November 2016. Retrieved 30 July 2014.