Производительность iSCSI на 10G Ethernet

В блогах MSDN найден любопытный документ тестирования iSCSI на 10G Ethernet, с использованием MS Windows Server 2008, Hyper-V, и системы хранения NetApp FAS3070.
Даже несмотря на то, что использовался довольно старенький сторадж (3070 это топовая модель предыдущей midrange-линейки, в настоящий момент уже не выпускаемая, вся серия 3000 уже целиком заменена на 3100), и чисто “софтверный” iSCSI, результаты могут показаться любопытными тем, кто еще раздумывает “А насколько быстр на самом деле этот непонятный iSCSI?”

http://download.microsoft.com/download/F/B/3/FB38CA2C-6694-4D25-8452-4A28668A87F2/MSFT-NetApp-10G.docx

Следует отметить, что карты 10G Ethernet, например рассматриваемая в этом тестировании двупортовая Intel 10 Gigabit AF DA dual port Server Adapter по ценам Price.ru стоит ~770$, а вообще 10G адаптеры начинаются уже от 500$.

10 комментариев

  1. Алексей:

    А можно ли говорить об сравнимом времени отклика в конфигурациях сугубо блочного доступа: 8Gb FC vs 10Gb iSCSI?
    Другими словами, если требуется низкая задержка при блочном доступе и есть хорошая нагрузка в IOPS - можно ли 8GB FC заменить 10Gb iSCSI?

  2. Алексей:

    Например, есть хочется купить FAS2240 с интерфейсом 10Gbe вместо 8Gb FC. И нужен блочный доступ более отзывчивый, чем 1Gbe iSCSI.

  3. Алексей:

    Это все в значительной мере зависит не от интерфейса, а от задачи, от workload. В общем случае - да. В частном - вы должны сами ответить себе.

  4. Алексей:

    С этим конечно же согласен. Но если говорить только об интерфейсе, как потенциально узком месте? Например, две одинаковые конфигурации стораджа, одинаковые задачи. Может быть ситуация, когда 8GbFC будет более правильным выбором, нежели 10Gbe iSCSI? (о деньгах за сеть хранения и о преимуществах дешевле/дороже за интерфейс не говорим)
    Если “да” - любой пример частной задачи? Спасибо!

  5. Алексей:

    Я поясню. Понимаю что FC8GB с потенциальной пропускной в 500 тыс IOPS - врядли может стать узким местом на среднем сторадже. Это понятно. Наверное мой вопрос больше относится именно к iSCSI vs FC. Можно ли заменить, если хочется создать инфраструктуру как на FC, но на 10GBe iSCSI.

  6. Алексей:

    Вы напрасно считаете, что вы сможете упереться в пропускную способность канала к дискам. Скорее всего вы упретесь во что-то гораздо раньше, и не в него.
    Посмотрите, например, на результаты соответствующего тестирования в документах
    http://media.netapp.com/documents/tr-3916.pdf
    http://media.netapp.com/documents/tr-3846.pdf
    http://media.netapp.com/documents/tr-3476.pdf

    Вы заметите, что, строго говоря, даже между 10G и 1G Ethernet тут разница будет невелика. Почему? Потому что производительность в IOPS определяет, преде всего, приложение. Если приложение не в сотстоянии выгребать больше данных с системы хранения, то сколько не увеличивай ее производительность - приложение, если оно системой хранения уже не ограничено, работать быстрей не станет.
    Или как я уже писал не раз: расширение неиспользуемой части полосы пропускания интерфейса к дискам никак не ускоряет работы приложения. Просто вы расшряете пустынное шоссе с четырех до восьми полос. Машин по нему больше _только от этого_ не поедет, если их неоткуда и некому по этому шоссе послать.

  7. Алексей:

    Убедительно.
    http://media.netapp.com/documents/tr-3916.pdf
    Хорошо.
    П. 2.1 ясно дает понять почему архитекторы проводившие тесты считают, что генерируемая ими нагрузка _универсальна_ в типовой среде.
    Я правильно понимаю, что судя по результатам сего испытания можно смело строить инфраструктуру только с “1Gbe iSCSI”, используя Storage серии FAS3200 и выше (в тестах даже 6000-я серия), сугубо для целей создания виртуализованного ЦОД до 128VM. Это ж адская экономия!
    В некоторых графиках 1Gbe iSCSI вообще наибольшую производительность показывает.
    Конечно, если подумать об vMotion, HA, DRS и Storage DRS с этими 128VM, то в этих тестах об этом не говориться. Как я себе представляю: при миграции машин или VMDK 1Gbe может и не хватить. С другой стороны, vmware умеет балансировать нагрузку по нескольким 1Gbe.

  8. Алексей:

    В первую очередь это свидетельствует о том, что производительность IT-системы в целом совсем не напрямую зависит от производительности канала передачи данных к дискам, и что далеко не для любой задачи расширение полосы пропускания этого канала вдое, вдвое же увеличит производительность этой IT-системы (приложения).
    Только в том случае, если приложение _действтельно_ ограничено этой полосой, а не чем-то другим.

  9. Юрий:

    Верно ли я понимаю, что все это будет справедливо при использовании СХД начального уровня серии FAS2240A, при размещении на нем баз данных?

  10. Юрий:

    Это зависит от множества различных параметров, но попытаться вы, конечно, можете.
    В принципе FAS2240-2 достаточно близка по производительности к midrange 3000 серии.

Оставить комментарий

20/0.138

Данный блог не спонсируется, не аффилирован, и не санкционирован компанией NetApp, Inc. Излагаемая в этом блоге точка зрения выражает мнение исключительно его автора и может не совпадать с позицией NetApp, Inc.

This content is not endorsed, sponsored or affiliated with NetApp, Inc. The views expressed in this blog are solely those of the author and do not represent the views of NetApp, Inc.