Posts tagged ‘cloud’

NetApp в облачном хостинге, v2.0

На Хабре новое сравнение облачных провайдеров, на 34 компании (ActiveCloud, AWS (Amazon), b2b.beeline.ru, Clodo, Cloud One, Cloud4Y, CloudySky, Croc, DataFort, DataLine, De Novo, DepoCloud, e-Style Telecom, infoboxcloud.ru, ISPserver, IT Lite, IT-Grad, Linx, M1 Cloud, АЙТеко, MakeCloud, Oncloud, Orange, Oversun, Parking, Rackspace, Rentacloud, Selectel, Softline, Аутсорсинг 24, Корус Консалтинг, Мегафон, Облакотека, Ростелеком О7, РТКОМ). По сравнению с “первой версией”, число участников существено расширилось. О первой версии я также писал ранее.
Из 26 ответивших на вопрос, используются ли у них системы хранения и какие (часть отказалась предоставить информацию, часть не использует СХД вовсе), у 11 используются системы хранения NetApp, что составляет 42% от общего числа.

За подробностями – в статью, там еще много интересного для интересующихся коммерческим хостингом приложений в облачной инфраструктуре в России.

NetApp в российских облачных провайдерах

На Хабрахабре замечен интересный обзор “корпоративных облачных провайдеров”, то есть работающих “на организации”, с SLA, VMware, и прочими серьезными штуками.
Меня там, понятно, интересовала моя область.
Я уже как-то писал про представленность систем NetApp в облачном хостинге, летом 2012 года.
Теперь же можно посмотреть на “динамику”.

Из 12 подробно рассмотренных в обзоре хостеров - половина использует NetApp.

В остальном же вендоры и модели систем хранения распределяются так:
5 - разные модели NetApp FAS, от 6240 у IT-Град, до 2240 у SoftLine.
1 - NetApp E-series у Depo
Два разных EMC VNX.
и далее всех по одному. Один HUS, один EVA и MSA, 3PAR, XIV и Storwise.
Разброд и шатание. Впрочем, если посмотреть на имена, становится понятно, что преимущественно NetApp выбирают компании-исключительно-хостеры, сосредосточенные именно на облачном хостинге как таковом, а вот все прочие вендоры систем хранения, скорее всего, представлены в качестве “своих” партнерами, хостерами-одновременно-интеграторами. Подозреваю, что просто им свои, “партнерские” железки использовать банальнко дешевле выходит.
Немного странно тут выглядит Ай-Теко, который является интегратором-партнером NetApp с наивысшим статусом в России, но при этом набрал у себя наибольший “зоопарк” :).

Тем не менее, объективно видно то, что среди облачных провайдеров NetApp FAS имеет подавляющую популярность и успех.

Amazon AWS начал использовать NetApp в “гибридном облаке”

На проходящей сейчас в Лас-Вегасе конференции Amazon Web Services re:Invent было объявлено, что Amazon Web Services (AWS, крупный облачный провайдер) начнет предлагать услуги “гибридного облака”, то есть решения, сочетающего private cloud, располагающегося закрыто у клиента, и public cloud, то есть традиционное “провайдерское облако”, аналогичное уже хорошо знакомым продуктам AWS, RackSpace, или, допустим, Selectel и ИТ-Град. Строить такую услугу он будет с использованием систем NetApp FAS.

Обычно услуги public cloud больших объемов строятся с использованием commodity hardware, то есть “обычного” компьютерного железа и самостоятельно разрабатываемого (или модифицируемого) софта, наподобие OpenStack. Именно так поступил и Amazon со своими S3 и EDB (официально о выборе поставщика большие компании предпочитают не растпространяться, но по ряду косвенных признаком можно сделать вывод именно о commodity-based решении). Однако, во многих случаях выбор commodity, при внешней простоте и дешевизне, сопряжен со значительными затратами на разработку и тестирование, причем со своими проблемами вы рискуете оказаться наедине, а vendor lock вы заменяете на developer lock.
Кроме того, часто, могут возникнуть проблемы с взаимодействием с имеющимся клиентским оборудованием, и, часто, это клиенты, которым нельзя сказать “у вас пулеметы не той системы, поменяйте на Linux, иначе нормально не заработает.”

С этой точки зрения подход AWS по интеграции пользовательских сервисов, в рамках такого “гибридного облака”, с использованием технологий NetApp, выглядит вполне здраво.
Для взаимодействия с уже имеющимися сервисами AWS public cloud для установленных в AWS datacenter (AWS availability zones) систем NetApp FAS разработаны средства Amazon Direct Connect к EC2 и S3, а имеющееся оборудование NetApp клиента взаимодействует с таким “колокейшном” обычным образом, с помощью того же SnapMirror, и так далее.

В настоящий момент решение AWS-NetApp разворачивается в регионе US, и в планах в дальнейшем предлагать его в EMEA и APAC.

Отдельной строкой хочу уточнить для читающих по диагонали: в новости не идет речь про переход AWS на NetApp, или замену имеющихся у AWS услуг, типа S3, и прочих, на решения NetApp. Речь идет про дополнительное предложение для компаний, уже использующих NetApp для построения своих датацентров и частных облаков, и желающих интегрировать эти сервисы с сервисами public cloud, предоставляемых AWS для создания “гибридного облака”, например для резервного хранения данных в S3 или Glacier, или для удаленной обработки их в динамически создаваемых инстансах EC2.

NetApp в российском облачном хостинге

В сделанном в марте 2012 года опросе российских хостеров, предоставляющих “облачные” услуги обнаружились любопытные факты.

Из 12 опрошенных провайдеров (список и подробные данные можно посмотреть по ссылке выше), по меньшей мере четыре (Cloud4Y, IT-Grad, Clodo и Parking.ru) используют различные системы NetApp. Это самый высокий показатель для одного вендора.

Среди остальных систем хранения облачных провайдеров встречаются: HP MSA2312 (1 раз), Supermicro с DRBD (2 раза), IBM DS5300 и DS3524, а также DotHill 3330, HP P2000, Huawei S5600 и локальные диски (по разу).

Опрос был сделан одним из читателей Хабра путем методичного опроса компаний-хостеров личными письмами с уточнениями аппаратных конфигураций их платформ.

UPD: Есть также неподтверждаемые сведения (из личного разговора), что заинтересовался (до состояния покупки) системами NetApp и Selectel, который является очень крупным облачным хостером на платформе Xen, и до недавних пор бывший убежденным сторонником опенсорса, commodities и “самопила” на базе DRBD.

Подробнее о Data Motion

NetApp Data Motion – новая технология “непрерывающей” миграции данных между системами хранения NetApp. Эта технология несколько напоминает VMware vMotion, но для хранилищ данных, при которой виртуальные машины могут, не прерывая работы, мигрировать между хост-серверами, например в зависимости от их загрузки, или состояния. Это также чем-то похоже на VMware Storage vMotion, но выполняется целиком “аппаратно”, средствами системы хранения, и не привязано к какому-либо софтверному решению на хостах.

Она объявлена для версий новой “линейки” Generation 8, но в январе выйдет и в “Classic”, “Generation 7”, в версию Data ONTAP 7.3.3, для тех, кто вынужден оставаться на старой линейке.

Для работы NetApp Data Motion необходимы следующие компоненты и лицензии:

  1. Multistore – лицензия позволяющая создавать на контроллере NetApp так называемые vFilers, “виртуальные файлеры”, изолированные, виртуализованные средствами самого NetApp ONTAP, “псевдофайлеры”. Раньше эта лицензия обычно использовалась для того, чтобы разделить физический “файлер” на несколько “виртуальных”, например для того, чтобы подключить его в многодоменную CIFS-сеть, или раздать такие “виртуальные файлеры” различным администраторам подразделений в крупной организации или компании-провайдере услуг хранения. Однако идея NetApp, стоящая за Multistore была куда шире.
  2. SnapMirror в режиме Semi-sync – лицензия на средство репликации данных между системами хранения NetApp, осуществляемое, в данном случае, в “квази-синхронном” режиме, по IP-сети.
  3. Средство управления Provisioning Manager версии 4, являющееся частью продукта Operations Manager v.4. Это сравнительно новый для пользователя продукт, обеспечивающий GUI-управление, в том числе и процессом Data Motion, размещающийся на администраторском компьютере.

Процесс миграции заключается в предварительной репликации данных с одной физической системы хранения, где находится мигрируемый vFiler, на другую, когда предварительная baseline replication завершена, то, с помощью Provisioning Manager-а администратор может отдать команду, и vFiler “переключится” с одного контроллера на другой, на котором уже к тому времени будут находиться его данные, при этом ресурсы, такие как, естественно, данные, адреса, имена шар, LUN и их маппинг, также смигрируют вслед за vFiler.

Пока технология не лишена недостатков и ограничений.

  1. Пока не поддерживаются LUN с работой по FC. Но работает iSCSI. Поддержка FC будет реализована позднее в 2010 году. Разумеется работает NFS и CIFS, однако, в случае CIFS, текущая, на момент миграции, сессия CIFS будет прервана, и ее надо будет переустановить (что связано со stateful-природой CIFS как протокола).
  2. Необходимо, чтобы оба контроллера, и источник и получатель миграции,  находились в одной IP-подсети.
  3. Оба контроллера (пока) должны быть однотипными, в случае неоднотипности, миграция возможна с контроллера с меньшим размером NVRAM на бОльший (но в этом случае миграция будет однонаправленная). Также (пока) не поддерживается вариант миграции данных с FC/SAS-дисков на SATA.
  4. Естественно не поддерживаются traditional volumes (кто-то их использует по доброй воле еще?).
  5. Мигрируются все тома, принадлежащие данному vFiler.
  6. SnapLock и FlexCache (пока) не поддерживаются.
  7. Дедуплицированные данные переносятся дедуплицированными, и сохраняют доступность в своем дедуплицированном виде, но соответствующие им метаданные на “получателе” репликации надо заново перегенерировать, чтобы новые записываемые данные могли также дедуплицироваться вместе со старыми, так как метаданные (база фингерпринтов) остаются на уровне aggregate, и не мигрируют.
  8. Мигрированные FlexClones - “развернутся”, “девиртуализируются”, и займут “положенное им по объему” (это, к сожалению, свойство их репликации с помощью SnapMirror).
  9. Пока управление процессами Data Motion возможно только через GUI Operations Manager-а, не через командную строку.

Будем надеяться, что значительная часть ограничений, присущих любому продукту “версии 1.0” со временем будет устранена. Сама же Data Motion это логичный шаг в направлении глобальной стратегии NetApp – построении “облачного” распределенного хранилища, с глобальным “пространством хранения”, распределенным и прозрачно мигрирующим между множеством различных физических хранилищ.

В основу поста легла заметка в блоге Аарона Делпа, по новостям с NetApp Insight 2009, и презентации Ларри Туше, инженера “команды виртуализации” NetApp.

20/0.148

Данный блог не спонсируется, не аффилирован, и не санкционирован компанией NetApp, Inc. Излагаемая в этом блоге точка зрения выражает мнение исключительно его автора и может не совпадать с позицией NetApp, Inc.

This content is not endorsed, sponsored or affiliated with NetApp, Inc. The views expressed in this blog are solely those of the author and do not represent the views of NetApp, Inc.