Вот уже много лет только ленивый не рассказывает о наиболее «инновационной» технологии в современных IT – виртуализации. С начала 2000-х средства виртуализации операционных систем на x86 платформе бурно развивались и вскоре перестали быть уделом маргиналов и разработчиков, приобрели все необходимые черты и возможности коммерческого продукта. Что не может не радовать.

Для чего она вообще нужна, эта виртуализация? Какие преимущества она предоставляет?

Прежде всего, она позволяет справиться с одной из основных проблем современных IT систем – слабой суммарной загруженностью вычислительных систем. По данным различных исследований, средняя нагруженность оборудования не превышает 20-30%.

Кроме того, помимо возможности увеличения «плотности» сервисов появляется возможность «плавной» балансировки ресурсов между этими сервисами.

Следующее важное преимущество – унификация программных вычислительных машин. Такие машины без труда можно переносить с одной аппаратной платформы на другую в считанные минуты, что существенно облегчает обеспечение доступности сервисов при авариях или обслуживании.

Ну, что сказать?.. Сплошные преимущества.

На этом можно было бы и закончить – все понятно, ничего нового. Однако, это не всё, и не вся виртуализация...

Неужели нет никаких недостатков? Ведь не может такого быть!..

Действительно, не может.

Давайте разберемся. Что же это такое – виртуализация? Полноценного определения, устраивающего всех, до сих пор нет. Наиболее корректное, но короткое звучит так: «Виртуализация – это абстрагирование программного слоя от аппаратного».  Звучит правильно и вполне привлекательно – действительно, виртуальные машины в общем случае не опперируют действительным «железным» оборудованием. Вместо этого специальным программным слоем им предоставляется некий унифицированный набор виртуальных процессоров, памяти, дискового пространства, ввода-вывода. Однако, этому «специальному прогрммному слою», в свою очередь, кто-то должен предоставить «настоящее оборудование». Причем именно все оборудование. Иначе в значительной степени теряется смысл автоматизации балансировки, обеспечения доступности, и лишь усложняются процессы «критического», аппаратного администрирования.

При всей видимой простоте и очевидных достоинствах виртуализация меняет характер требований к оборудованию, как количественный, так и качественный.

Множественные «программные серверы» на одной платформе ведут себя несколько иначе, чем если бы это был один сервер – они конкурируют за ресурсы. И это обратная сторона консолидации, т.е. оптимизации нагруженности оборудования. Традиционно, x86 серверы не проектировались под такую конкуренцию. И дело тут не только и не столько в процессорах и памяти как в подсистеме ввода-вывода. Наличие «узких мест» здесь либо не дает развернуться «оптимизации» вычислительных ресурсов, либо не позволяет «абсолютно гибко», т.е. без особого контроля, множить виртуальные машины.

Особо следует отметить проблемы дисковых подсистем. В ситуации множественных программных серверов и сервисов на одной машине совершенно неприемлемой становится производительность и гибкость дисковой подсистемы. Кроме того, теряется преимущество по легкому автоматизированному переносу сервиса с сервера на сервер. Здесь преимущественно используются внешние сети и хранилища данных. Однако и это зачастую не позволяет получить желаемой гибкости и производительности из-за врожденных ограничений таких систем по количеству дисков на выделяемый раздел.

Помимо этого количество программных серверов-сервисов на одной платформе существенно повышает требования к уровню обеспечения доступности оборудования (читай аппаратные средства по минимизации простоев). А он практически остается на уровне функционала начала 90х годов.

Важной проблемой виртуализации на x86 серверах, да и вообще на всем комплексе оборудования серверной является неполноценная управляемость комплекса. А точнее, крайне слабая интеграция ПО виртуализации с аппаратной составляющей в части контроля и управления. Что и не удивительно – открытая архитектура PC-серверов и огромный парк доступного ПО, помимо всех прелестей такого подхода не допускают по-настоящему глубокой согласованности гипервизоров с вполне конкретным оборудованием на уровне мониторинга и перераспределения ресурсов. Это неизбежная плата за уход от проприетарных комплексов «железо + ПО».

Неужели всё так плохо и непоправимо?.. Нет, не совсем так. Всё не так плохо и, главное, многое вполне поправимо.

Эти проблемы не являются откровением, они не новы. Более того, им более полувека – именно столько времени прошло со времен внедрения виртуализации в серверном хозяйстве.

Все производители оборудования для серверных в конкуретной борьбе за заказчика разрабатывают и совершенствуют свои решения, внедряют все новые инновационные технологии для решения или, по крайней мере, нивелирования указанных проблем.

Возможности и подходы HP в этой части, на мой взгляд, стоят на особом месте. Мы ведем речь не о какой-то «косметической» доводке оборудования или обслуживающего ПО, а о по-настоящему революционных изменениях в инфраструктуре центров обработки данных.

В чем конкретно, с технической точки зрения это выражается? Если попытаться свести основные проблемы по критериям, то получим такую картину:

  • недостаточные возможности по виртуализации ввода-вывода на уровне оборудования, причем виртуализации не только на уровне конкурентного использования, но и на уровне абстрагирования «аппаратных» адресов «внутри» аппаратного комплекса и автоматизации их перераспределения;
  • откровенные слабые возможности аппаратных дисковых систем по автоматической масштабируемости и балансировке при использовании значительного количества виртуализированных сервисов;
  • практически отсутствующее единое ПО проактивного и аварийного мониторинга как аппаратных, так и программных систем, отсутствие единого управления и, как следствие, возможности автоматического «скриптового» администрирования в широком спектре ситуаций – от решения проблем с «перенагруженностью» и плановым обслуживанием до критических;
  • слабая связанность аппаратной балансировки комплекса с программной.

Решение лежит в области виртуализации внутри самого аппаратного обеспечения.

Последовательное внедрение технологий Virtual Connect, Flex-10 и FlexFabric в инфраструктуре HP BladeSystem позволило полностью виртуализировать коммуникации серверов на уровне аппаратуры.

Т.о. гладкая миграция или перезапуск сервисов, например, обеспечивается не только средствами гипервизора, но и на «железном» уровне, что предоставляет существенно большую гибкость администрирования, в т.ч. и автоматизированного, и позволяет, в конечном счете, добиться более высокого уровня доступности для сервисов заказчика.

Исключительный по своей значимости портфолио виртуализированых онлайновых и резервных систем хранения данных предоставляет административному персоналу реализовать свою главную мечту – лишь однажды при вводе в строй хранилища выполнить одну единственную стратовую настройку и предоставить все дисковое пространство единым разделом гипервизору. Эта уникальная врожденная возможность дисковых массивов Enterprise Virtual Array уже давно по достоинству оценена нашими заказчиками, а в последние годы с активным внедрением виртуальных серверов стала еще более значимой и востребованной. Способность использовать все доступные (и вновь добаляемые) диски для всех без исключения приложений позволяет получить действительную балансировку дисковых ресурсов при их максимально оптимальном  и рачительном использовании.

Значительным шагом стало появление в нашем предложении iSCSI хранилищ HP StorageWorks P4000 с виртуализацией отказоустойчивости на уровне сети передачи данных. Уровень доступности данных такого хранилища может превосходить аналогичные у стораджей верхнего ценового диапазона. При этом обеспечивается максимально тесная и сертифицированная совместимость интегрированность с распространенными гипервизорами. Возможность параллельного развертывания на них виртуализированных рабочих мест является еще одним шагом к «настоящей» виртуализации IT инфраструктуры.

Системы сетевого хранения данных HP StorageWorks X9000 обеспечивают общим виртуализированным дисковым рабочим пространством десятки тысяч пользователей предприятия, позволяя существенно оптимизировать как бизнес процессы закзчика, так и уровень защищенности данных и стоимость их содержания.

Виртуальные системы резервного копирования данных HP от StorageWorks D2D до Virtual Library System дают администраторам бэкапа максимальную свободу и максимальное же снижение традиционных проблем организации и реализации процессов организации резервирования данных.

Наконец, появление ПО Insight Dynamics, более чем тесно интегрированного как с ПО виртуализации от всех ведущих поставщиков, системами мониторинга и обслуживания «железного» слоя, так и с фирменными кроссплатформенными утилитами контроля задействованных ресурсов и оценки их загруженности, дает возможность организации качественно нового уровня управления инфраструктурой. Здесь действительно обеспечивается полная настоящая «сквозная» виртуализация, позволяющая реализовать заветное «смонтируй, скроссируй и забудь».

Система настолько проста и удобна у администрировании, что мы можем позволить себе позиционировать ее в качестве решения «приватных облачных вычислений» уровня предприятия. Причем, смею заметить, совсем не обязательно крупного.

Особо нужно отметить, что эти решения HP не ограничивают заказчика в выборе программных средств виртуализации – инфраструктура вполне открытая и поддерживает все существующие на рынке коммерческие x86 гипервизоры. Т.о. не сужая свободы заказчика, мы предлагаем полностью законченное аппаратное решение для виртуализированных сред, лишенное основной массы застарелых недостатков таких инфраструктур.

Более подробную информацию о решениях HP можно получить на традиционной конференции PC Week/UE «ЦОД 2010»,  на нашем сайте или непосредственно у специалистов нашего представительства.