InfiniBand

Материал из Википедии — свободной энциклопедии
Перейти к: навигация, поиск

Infiniband — высокоскоростная коммутируемая последовательная шина, применяющаяся как для внутренних (внутрисистемных), так и для межсистемных соединений.

Описания Infiniband специфицированы, поддержкой и развитием спецификаций занимается InfiniBand Trade Association.

Краткое описание[править | править вики-текст]

CX4 порты InfiniBand (коммутатор Voltaire ISR-6000)
CX4 (SFF 8470) кабель InfiniBand

Подобно PCI Express, Infiniband использует двунаправленную последовательную шину. Базовая скорость — 2,5 Гбит/с в каждом направлении, применяются порты, состоящие из групп в 1x, 4x и 12x базовых двунаправленных шин (англ. lanes). Существуют режимы Single Data Rate (SDR) — работа с базовой скоростью, Double Data Rate (DDR) — битовая скорость равна удвоенной базовой и Quad Data Rate (QDR) — соответственно, учетверенной. Режимы SDR, DDR и QDR используют кодирование 8B/10B. В настоящий момент (2011 г.) чаще всего применяются порты 4x QDR.

Базовая скорость 1х шины для режима FDR составляет 14.0625 Гбит/с, а для EDR 25.78125 Гбит/с. Режимы FDR и EDR используют кодирование 64B/66B.

Основное назначение Infiniband — межсерверные соединения, в том числе и для организации RDMA (Remote Direct Memory Access).

Пропускная способность интерфейса Infiniband, raw / data
  SDR DDR QDR FDR EDR
1X 2,5 / 2 Гбит/с 5 / 4 Гбит/с 10 / 8 Гбит/с 14,0625 / 14 Гбит/с 25,78125 / 25 Гбит/с
4X 10 / 8 Гбит/с 20 / 16 Гбит/с 40 / 32 Гбит/с 56,25 / 56 Гбит/с 103,125 / 100 Гбит/с
12X 30 / 24 Гбит/с 60 / 48 Гбит/с 120 / 96 Гбит/с 168,75 / 168 Гбит/с 309,375 / 300 Гбит/с

Отличительные особенности FDR[править | править вики-текст]

FDR InfiniBand характеризуется следующими основными параметрами:

Параметры Link speed увеличились до 14 Гбит/с на линию или 56 Гбит/с по четырем линиям, т. е. увеличение происходит почти на 80% по сравнению с предыдущими поколениями InfiniBand (большинство портов InfiniBand представлены портами с четырьмя линиями);

Показатель Link кодировки для FDR InfiniBand был изменен с 8 бит/10 бит на 64 бит/66 бит. Это позволило повысить эффективность передачи данных и подключения устройств хранения;

Улучшены механизмы коррекции ошибок сети за счет использования технологии Forward Error Correction, которая позволяет устройствам InfiniBand исправлять битовые ошибки в сети и сокращает издержки на данные транзакции. Новый механизм обеспечивает высокую надежность сети, в частности для крупных ЦОДов, высокопроизводительных вычислений и облачных сервисов.

С появлением FDR InfiniBand 56Gb/s с поддержкой PCIe Gen3, ConnectX-3 стало возможным удвоить пропускную способность сетей хранения данных, что позволяет устранить одно из самых узких мест в современных серверных решениях.

Протоколы и API[править | править вики-текст]

Infiniband используется следующими протоколами и API:

  • RDMA (англ. Remote Direct Memory Access) — группа протоколов удалённого прямого доступа к памяти, при котором передача данных из памяти одного компьютера в память другого компьютера происходит без участия операционной системы, при этом исключается участие CPU в обработке кода переноса и необходимость пересылки данных из памяти приложения в буферную область ОС, то есть данные пересылаются напрямую на соответствующий сетевой контроллер.
  • uDAPL (англ. User Direct Access Programming Library) — библиотека API для абстрактного транспорта прямого доступа (англ. Direct Access Transport, DAT). uDAPL (и другие API — в частности kDAPL — kernel DAPL) разрабатывается и поддерживается организацией DAT Collaborative.
  • IPoIB (IP over Infiniband) — группа протоколов, описывающих передачу IP-пакетов поверх Infiniband:
    • RFC 4390 Dynamic Host Configuration Protocol (DHCP) over InfiniBand
    • RFC 4391 Transmission of IP over InfiniBand (IPoIB)
    • RFC 4392 IP over InfiniBand (IPoIB) Architecture
  • SRP (англ. SCSI RDMA Protocol) — протокол обмена данными между SCSI-устройствами с использованием RDMA. Определён в стандарте ANSI INCITS 365—2002.
  • DDP (англ. Direct Data Placement): RFC 4296 —— архитектура для реализации прямого размещения данных (DDP) и удаленного прямого доступа к памяти (RDMA) в Internet-сетях.
  • SDP (англ. Socket Direct Protocol) — протокол установления виртуальных соединений и обмена данными между сокетами поверх Infiniband, передача данных не использует TCP-стек операционной системы, однако использует IP-адреса и может использовать IPoIB для их разрешения.

Характеристики[править | править вики-текст]

  • Производители: наиболее распространены аппаратные решения от компаний Qlogic, Mellanox, Voltaire, Topspin. Компания Topspin была приобретена компанией Cisco в 2005-м году, Mellanox купил Voltaire в 2010-м[1], а Intel приобрел Qlogic в 2012-м[2].
  • Тесты производителей показывают пропускную способность на уровне MPI порядка единиц и десятков сотен МБ/сек и время передачи коротких сообщений порядка 1—7 мкс.
  • Топология: коммутируемая с использованием Fat Tree для больших конфигураций, существующие коммутаторы поддерживают большое количество (>256) портов.
  • Программное обеспечение: драйверы от производителей аппаратных средств, различные библиотеки MPI как коммерческие так и открытые.
  • Корпорацией Oracle Corporation был разработан специальный протокол RDS, ориентированный на работу с этой шиной.

Другие сети для суперкомпьютеров[править | править вики-текст]

Ниже приведены наиболее часто используемые типы коммуникаций для суперкомпьютеров и их основные характеристики.

Примечания[править | править вики-текст]

Ссылки[править | править вики-текст]