Количество вызовов в сетевой среде постоянно растет, в то время как ИТ-бюджеты остаются на прежнем уровне или даже сокращаются. Но даже в организациях с огромными бюджетами ИТ-служба не всегда способна решить все задачи, которые ставит перед ними бизнес. В такой ситуации ИТ-департаменты должны быть не только прагматичными, но и очень осмотрительными. Оптимальный вариант: попытаться сохранить уже сделанные инвестиции путем выбора открытых технологий и расстановки правильных приоритетов в отношении реализованных ИТ-проектов и бизнес-задач.

В целом, есть три наиболее важных тенденции в сфере сетевых решений, которые определяют развитие отрасли: конвергенция, технология распределенных вычислений (distributed networking) и программно-конфигурируемые сети (SDN). Это уже не новые темы, и с точки зрения зрелости технологии они постепенно становятся мэйнстримом.

Однако отличительной характеристикой сетевого сегмента в его способности реагировать на вышеназванные тенденции является то, что здесь, в отличие от серверного пространства, цены не снижаются под влиянием стандартизированных недорогих архитектур, таких как платформа x86 (которая позволила данному рынку раскрыться и диверсифицироваться). Несмотря на значительно большую, чем когда-либо прежде, рациональность ИТ-директоров, на сетевом рынке по-прежнему доминирует один крупный игрок, который диктует цены и «подсаживает» клиентов на свои продукты.
Тем не менее, постоянно совершенствуются новые и открытые технологии, благодаря чему появляются и возможности для выбора. Поскольку ИТ-директора пытаются развивать свою сетевую стратегию, исходя из возможной выгоды от применения инновационных подходов, то чем новее и дешевле такие варианты по сравнению с традиционными архитектурами, тем быстрее они влияют на выбор и начинают менять «правила игры».

Конвергенция

Влияние конвергенции на то, как управляются сети и (что намного важнее) кто ими управляет, нельзя недооценивать. До этого ИТ-подразделения функционировали обособленно, и администраторы серверного оборудования, хранения данных и сетей справлялись с задачами практически самостоятельно. Когда же кто-либо в организации хотел внедрить новый ресурс, работа в этом направлении со всеми подразделениями могла оказаться излишне громоздким и болезненным процессом.

Виртуализация в некоторой мере облегчила такой процесс благодаря своей гибкости. Однако это улучшение сопровождалось созданием новой роли – виртуализированного администратора, которому приходилось работать с множеством технологий от разных вендоров. 

В последние несколько лет завоевала существенное доверие конвергентная инфраструктура (КИ) — новая парадигма для x86 виртуальных вычислений. В идеале КИ – это интегрированная система вычислительных мощностей, систем хранения данных и сетевых ресурсов, которая управляется единым программным обеспечением и предоставляет пул виртуализированных ресурсов. Такие ресурсы могут использоваться для запуска приложений, виртуализации десктопов или приватных облаков.

Настоящие решения на основе конвергентной инфраструктуры должны обладать такими характеристиками:

• Модульная инфраструктура: серверы, виртуальная сеть и автоматизированные платформы для хранения данных, в комплексе с объединенной инфраструктурой SAN и Ethernet.
• Конвергентное управление: единые инфраструктурные операции для инфраструктурных команд, использующие простой и интуитивный инструментарий для повторяющихся, общих задач.
• Модели: гибкость для заказчиков обозначает простоту развертывания конвергентных систем, которая может ранжироваться от преинтеграции систем до подхода «сделай сам» (do-it-yourself, DIY).
• Полностью эталонные архитектуры: гибкие схемы для развертывания корпоративных приложений, VDI и частных облачных решений.

Подлинное конвергентное решение должно предоставлять обе опции: администраторы серверов должны иметь возможность управлять сетью, в то же время у сетевых администраторов должен быть доступ к серверной инфраструктуре. Гибкие инструменты на уровне контроллеров могут предоставить возможность конфигурации, которая бы приспосабливалась к домену в сети или предоставляла контроль серверному администратору. Следует подчеркнуть, что эта открытость – ключ к предоставлению гибкости, необходимой бизнесу.

Программно-конфигурируемые сети

Несмотря на то, что технология SDN (Software Defined Networking) еще в самом начале пути, программно-конфигурируемые сети уже признаны многими такой же революцией в сфере сетевой инфраструктуры, какой стала виртуализация в серверном сегменте. Традиционный подход к сетевой архитектуре уже не соответствует сегодняшним требованиям, поскольку администраторы требуют большей гибкости решений, а разработчики не могут трансформировать или усовершенствовать сетевые устройства, чтобы приложения могли еще лучше интегрироваться с сетевой инфраструктурой. Сетевые коммутаторы всегда работали с данными, используя ЦПУ, встроенное в сетевое аппаратное обеспечение. По сути это обозначает, что в руках ИТ-персонала находится лишь очень ограниченный контроль над потоком данных, находящихся в сети. 

Отличия в функционировании децентрализованной и централизованной SDN-архитектуры

Появление SDN предоставило ИТ-администраторам контроллер, отделенный от коммутатора. Благодаря этому, они могут использовать и формировать потоки данных трафика без необходимости вручную настраивать отдельные части сетевого оборудования. Администраторы способны взять под контроль целые сети коммутаторов, используя эту единую панель управления. Все это обеспечивает гибкую виртуальную сетевую архитектуру, которая может идти в ногу с современными требованиями.

Программно-конфигурируемые сети являются относительно новым термином, но их преимущества уже очевидны. Сетевые менеджеры теперь менее зависимы от дорогих проприетарных сетевых коммутаторов и маршрутизаторов, поскольку SDN может быть настроена на более дешевом оборудовании.

Однако главное преимущество с управленческой точки зрения – в гибкости. Например, Dell уже давно работает с поставщиками SDN-инфраструктуры над внедрением этой технологии в свой портфель Force10. Таким образом, клиенты получат на вооружение именно тот инструментарий, с которым SDN станет более распространенной и повседневной реальностью. Недавно компания пополнила портфель сетевых продуктов решениями Active Fabric для построения сетей с функциональностью SDN, программным обеспечением Active Fabric Manager для администрирования и модульной платформой LAN/SAN-коммутации Dell Networking S5000. Новые решения призваны помочь заказчикам ускорить переход к высокопроизводительной конвергентной виртуализированной среде и приватному облаку.

По своей сути Active Fabric предоставляет быструю, одноранговую сетевую архитектуру с полной взаимосвязанностью и резервными путями, гибкую и более подходящую для растущего объема трафика между узлами одного уровня (восток – запад) в современных виртуализированных ЦОД и приватных облаках. Подобные решения делают плоской традиционную архитектуру сети ЦОД, используя коммутаторы 10/40 Гбит/с с фиксированным форм-фактором, высокой плотностью компоновки и малой задержкой. Их можно быстро и просто внедрить, обеспечивая при этом наращивание сети до гипермасштабов.

Как указывает Gartner в отчете «Rightsizing the Enterprise Data Center Network», новые магистральные устройства с компактным форм-фактором позволяют менеджерам сетей сократить капитальные затраты на 30-70% и сэкономить свыше 30% на эксплуатационных расходах по сравнению с модульными коммутаторами. Решения Dell Active Fabric в среднем обеспечивают экономию затрат 59% и потребляют на 77% меньше мощности по сравнению с традиционным сетевым оборудованием в шасси.

SDN – это логичное расширение возможностей сети, которые предоставляют решения Active Fabric. Уровень абстракции ПО, обеспечиваемый принципами SDN, обеспечивает открытые возможности программирования, делая инфраструктуру более гибкой и адаптируемой к различным требованиям заказчиков. Кроме того, Dell является одним из немногих вендоров, предлагающих полный и объективный подход к SDN, охватывающий технологии Network Virtualization Overlay (NVO), OpenFlow и возможности унаследованных интерфейсов.

От традиционных архитектур — к распределенным

Вследствие нескольких последних тенденций традиционная централизованная сеть больше не соответствует потребностям бизнеса. Во-первых, рабочие ресурсы становятся все более мобильными, сотрудники теперь не сидят на месте. Во-вторых, виртуализация и облачные технологии меняют структуру сетевого трафика. И, наконец, предприятия сейчас оперируют намного большими потоками данных, чем когда-либо прежде.

Монолитные сети просто не приспособлены для эффективного управления этим новым видом распределенного «горизонтального» трафика. Масштабирование традиционных сетей – это дорогостоящий и долгий процесс. Контроллеры ядра – это сердце сети, потому предприятия оказались зависимыми от производителя контроллеров в долгосрочном периоде.

Альтернативные распределенные сети, которые масштабируются намного легче, сейчас быстро завоевывают рынок. В сравнении с архитектурой традиционных сетей, подобные архитектуры могут быть масштабированы с использованием недорогих Ethernet-контроллеров. При этом архитектура остается надежной и предоставляет большую производительность при любом направлении потока.

Тем не менее, не все распределенные сети одинаковы, поэтому многие производители следуют проприетарному подходу в разработке оборудования для распределенных сетей, что ограничивает заказчика рамками одного вендора. Таким образом, ядро может быть распределенным, но с использованием проприетарных стандартов, протоколов и ОС, что не оставляет какой-либо возможности для совместимости.

Тем не менее, открытый подход к стандартам распределенных архитектур позволяет получить значительно большую степень гибкости. И это дает возможность ИТ-организациям смешивать и сочетать компоненты на основе потребностей и бюджетных возможностей.

Открытые стандарты — путь к успеху

Сетевое управление постоянно меняется и совершенствуется — и это создает новые возможности для трансформации бизнеса. Слишком долго конечные пользователи были ограждены проприетарными технологиями, которые тормозили инновации. Рост открытых стандартов, структур и архитектур наглядно подтверждает, что проприетарные модели теперь нельзя назвать оптимальными. В этом уверены заказчики, и такой ход мыслей дает возможность решать сегодняшние вызовы с помощью новых решений.