Финансовая сфера

Банковское обозрение


  • Что нам стоит ЦОД построить
01.09.2010

Что нам стоит ЦОД построить

Собственный дата-центр — удовольствие недешевое. Высокий уровень отказоустойчивости с многократным резервированием обойдется еще дороже. Разумный компромисс — это использование собственных мощностей в сочетании с резервированием «на стороне»


Вероятно, даже совсем далекие от банковской сферы люди наслышаны о том, что Сбербанк собирается строить крупнейший в Европе центр обработки данных площадью аж 15 тыс. квадратных метров, поскольку в первом полугодии 2010 года глава «Сбера» Герман Греф говорил об этом при каждом удобном случае, включая общее годовое собрание акционеров. Правда, другие характеристики планируемого объекта пока неизвестны — общественности транслируются только размеры помещения. Кстати, специально для обывателей можно было бы еще и добавить, что такова примерно площадь среднего «Ашана». Тем же, кто интересуется экономической составляющей проекта, остается лишь прикидывать себестоимость и пытаться угадывать, зачем это нужно.

CПРАВКА.БО

Для определения уровня отказоустойчивости ЦОД во всем мире используется Tier Classification. Tier I — базовый уровень (коэффициент доступности — 99,67%). На данном уровне инженерная инфраструктура дата-центра создается без требований по резервированию, однако необходимо, чтобы дата-центр имел автономные системы обеспечения. Обязательно наличие системы гарантированного электроснабжения (дизель-генератора). На уровне Tier I допускаются простои — как по причине сбоев в работе элементов ЦОДа, так и для плановых регламентных работ — в среднем 28,8 часа простоев в год. Tier II — средний уровень (коэффициент доступности — 99,75%). Все активные элементы систем должны быть зарезервированы по схеме, как минимум, N+1 (лучше больше), где N — минимально необходимое число элементов. Таким образом, любая внезапная поломка активного элемента не приведет к мгновенной остановке работы вычислительной системы. На данном уровне также допускается возможность плановых и неплановых остановок ЦОДа — в среднем 22 часа простоев в год.
Tier III — высокий уровень (коэффициент доступности — 99,98%). Дата-центр с таким уровнем надежности функционирует по принципу обслуживания без остановки, что обеспечивается резервированием всех инженерных подсистем. Допускается всего 4 часа на восстановление после поломки за два с половиной года, что соответствует 1,6 часа простоев в среднем в год.
Tier IV — максимальный уровень отказоустойчивости (коэффициент доступности — 99,99%). Для ЦОДа Tier IV допустимым считается 4 часа на восстановление после поломки за 5 лет, что соответствует в среднем 0,8 часа простоев в год. На этом уровне архитектура системы предполагает, что отказ любого элемента не только не влияет на работоспособность, но даже не приводит к снижению уровня резервирования.
Достаточным для нужд большинства банков считается уровень надежности ЦОДа Tier II или II+.

На площади 15 тыс. квадратных метров размещаются примерно 3 тыс. серверных стоек. Капитальные затраты на строительство такого ЦОДа можно оценить в интервале 100–200 млн долларов. Потребляемая мощность (исходя из расчета 10 кВт на стойку) — 30 МВт. То есть только за электроэнергию придется платить от 400 тыс. до 1 млн долларов в месяц, в зависимости от расположения объекта и местных тарифов. Плюс техническая поддержка — это еще от 1 до 2 млн долларов ежемесячно. Таким образом, операционные затраты (без учета заработной платы) составят от 17 до 36 млн долларов в год.

Для сравнения, цена аренды одного стойкоместа в коммерческом дата-центре находится в диапазоне 20–35 тыс. долларов в год без учета затрат на электроэнергию. Нетрудно подсчитать, что строительство собственного ЦОДа окупится в течение трех лет.

Строго говоря, сравнение с действующими арендными ставками не совсем корректно. Во-первых, на эти ставки стоит ориентироваться, если речь идет о 10–20 стойках, а в случае нескольких тысяч можно рассчитывать на огромные «оптовые» скидки. Во-вторых, наличие на рынке столь больших свободных мощностей — сомнительно. Поэтому означенные рассуждения приводят к следующим выводам.

Запланированное Сбербанком строительство своего мега-дата-центра может быть обусловлено как нехваткой ресурсов коммерческих ЦОДов, так и экономическими расчетами, показывающими приемлемую окупаемость проекта. Но остается непонятным главное: кто и как оценивал потребности банка в вычислительных мощностях и объемах хранения? Если эти потребности оценены неправильно, то и сравнение затрат на свой ЦОД и арендованный окажется бессмысленным. Причем данная логика одинаково применима как для Сбербанка, так и для любого кредитного учреждения.

Так свой или в аренду?

Понятно, что провайдеры всегда агитируют за аутсорсинг, но их аргументы не лишены смысла. Так, Александр Степанов, директор по маркетингу «РТКомм.РУ», считает, что, поскольку поддержание IT-инфраструктуры нельзя назвать профильной деятельностью для финансовой организации, передача части функций специализированным операторам — это «веление времени». Разумеется, нужно стремиться соблюдать баланс между экономической целесообразностью, с одной стороны, и защищенностью и доступностью данных, с другой.

Западные банки часто используют смешанный подход: имея собственную инфраструктуру, они для резервного копирования прибегают к услугам внешнего ЦОДа

Однако Нил Рикард, вице-президент по исследованиям Gartner Research, побывавший в Москве на V форуме «Центры обработки данных», полагает, что в России есть своя специфика. Российские компании (и банки не исключение) любят «развивать внутренние компетенции, строить собственные дата-центры, в то время как в целом по миру использование внешних ЦОДов давно стало нормой». Кроме того, он отметил, что российский рынок очень централизован — в основном Москва и Санкт-Петербург, хотя именно здесь самые высокие цены на аренду земли, помещений, а также электроэнергию. В других странах компании, наоборот, выносят дата-центры подальше от крупных городов, чтобы сэкономить на аренде и счетах за электричество.   

К этому следует добавить, что экономическая логика заставляет располагать ЦОДы — особенно крупные — поближе к электростанциям, так как передача электроэнергии на расстояние обходится гораздо дороже, чем передача данных.

На самом деле, выбор между строительством своего дата-центра и арендой не так уж и сложен, по большому счету. Есть фактор денег, фактор времени и ряд очевидных соображений «за» и «против».

Создание своего ЦОДа занимает в среднем 1,5–2 года. В случае аренды на весь процесс, включая исследование рынка, составление ТЗ, заключение договора и ввоз оборудования, уйдет максимум полгода.

Что касается денег, то свой дата-центр в нормальных условиях «отбивается» через 2–3 года после запуска, хотя подобное утверждение тоже не совсем корректно. Средства, «замороженные» в строительстве собственного ЦОДа, можно куда-то инвестировать, поэтому его окупаемость следует считать с учетом недополученной прибыли.

Преимущества своего дата-центра сводятся к низкой стоимости владения, а также к прозрачности и управляемости. Недостатки: необходимость «замораживания» оборотных средств на длительный период создания и потребность в собственной службе эксплуатации.

В качестве плюсов арендуемого ЦОДа можно назвать низкие первоначальные затраты, быстрое внедрение и отсутствие хлопот с дополнительным техперсоналом. Минусы понятны — из них образуются плюсы in-house-центра.

Выше говорилось, что отечественное «цодостроение» центростремительно в отличие от центробежных мировых тенденций. Объясняется это резким контрастом между столицами и провинцией: да, можно сэкономить на аренде, электроэнергии и ФОТ, если отнести центр подальше от Москвы, но персонал окажется неквалифицированным, плохие каналы связи нивелируют выигрыш от дешевого электричества, а в случае поломок устранение проблем может затянуться из-за удаленности. Впрочем, ЦОД нетрудно разместить поближе к региональным центрам с хорошей образовательной базой для технических специалистов, качество связи постепенно растет, а вопрос скорости устранения неполадок решается путем проектирования дата-центров повышенной отказоустойчивости (см. «Справку.БО»), хотя это влечет дополнительные затраты. В общем, все решаемо, а главное — считаемо. Проблема не в этом.

Виртуализация

Проблема, как уже говорилось вначале, заключается в правильном понимании того, какие ресурсы требуются банку — действительно ли тому же «Сберу» нужен ЦОД на 3 тыс. стоек или хватило бы центра поскромнее?

Кстати, есть характерный пример намеренного создания инфраструктурной избыточности. Несколько лет назад у операторов сотовой связи существовала «проблема новогодней ночи». Оборудование, которое успешно работало 364 дня в году, переставало справляться с нагрузкой, когда вся страна после боя курантов бросалась звонить по мобильному телефону или рассылать SMS. Перед операторами встала дилемма: резко нарастить свои мощности и смириться с тем, что весь год существенная их часть будет простаивать, или же сохранить текущий экономически обоснованный уровень емкости сетей со всеми вытекающими репутационными потерями, которые будут происходить каждый Новый год.

Средства, «замороженные» в строительстве собственного ЦОДа, можно куда-то инвестировать, поэтому его окупаемость следует считать с учетом недополученной прибыли

По совокупности причин (в частности, европейское законодательство требует учитывать возможность резкого возрастания нагрузки на сеть мобильной связи в случае форс-мажора) был выбран первый вариант, но для банков такой подход вряд ли разумен.  

По словам Нила Рикарда (Gartner Research), западные банки часто используют смешанный подход. Даже строя собственную инфраструктуру, они для резервного копирования или для повышения катастрофоустойчивости прибегают к услугам внешнего ЦОДа. При этом резервный дата-центр может быть развернут и в «облаке», что позволяет сглаживать пиковые нагрузки на собственные вычислительные мощности.

Российские провайдеры утверждают, что готовы предложить банкам услуги на уровне лучших мировых практик. Александр Степанов («РТКомм.РУ»): «У операторов связи появились специальные предложения для финансовых учреждений. Создание резервного ЦОДа уже стало привычным. Находящиеся в них резервные системы хранения данных  связаны с основной площадкой на территории банка защищенными виртуальными каналами. Некоторые операторы предлагают резервные рабочие места для сотрудников финансовых учреждений там же, на территории ЦОДов.

Самое интересное из предложений на рынке за последнее время — использование виртуальных систем облачных вычислений. В этом случае все серверные ресурсы банковского учреждения объединяются в единый распределенный ЦОД, где перераспределяются вычислительные мощности, работают одинаковые приложения, распределенно хранится информация и есть единая точка управления — классический вариант «частного» облака. Еще большая эффективность достигается при объединении такого «частного» облака с облаком, созданным на ресурсах оператора связи, когда вычислительные мощности выделяются по требованию финансового учреждения, а оператор связи несет ответственность за защиту и целостность информации, обрабатываемой в его части системы».






Новости Новости Релизы
Сейчас на главной

ПЕРЕЙТИ НА ГЛАВНУЮ