Компания «Юстар» провела конференцию HPC Day 2008

Приходится признать: по сравнению с большинством европейских стран и даже с ближайшим соседом — Россией, рыночный сегмент высокопродуктивных вычислений (HPC) в Украине все еще находится на стадии становления. Кроме ряда иных причин, развитие науки и, соответственно, отрасли HPC существенно тормозят деструктивные процессы в политике и экономике.


Андрей Галич
Андрей Галич
Однако есть компании, которые развивают данное направление, не только строя на нем свой бизнес, но и популяризируя его в образовательных, научных и коммерческих кругах. Уже третий год подряд компания «Юстар» проводит конференцию HPC Day, куда съезжаются представители университетов, академий наук и компаний — разработчиков инструментария для ресурсоемких вычислений.

Открывая нынешнюю конференцию, Андрей Галич, коммерческий директор компании «Юстар», отметил рост интереса к тематике в академической среде Украины. А поскольку именно университеты являются главнейшим рычагом развития HPC, это служит косвенным признаком того, что в скором времени в нашей стране будут развернуты крупные проекты по разработке новых архитектур и специализированного программного обеспечения.

Продукты и решения

Intel сотрудничает с представителями университетов традиционно активно. Помимо аппаратных средств компания предлагает ряд прикладных программных продуктов и технологических новшеств для роста эффективности HPC-систем. В нынешнем мероприятии приняли участие представители подразделения Intel, которое занимается программным обеспечением, — они и рассказали об инициативах компании в области HPC.


Иржи Главач
Иржи Главач
Подход Intel к HPC основан на Intel Cluster Ready — своде рекомендаций и технологий, которые формализуют развертывание, использование кластерных архитектур и управление ими, предоставляя стандартизованные способы построения кластеров и запуска «готовых» высокопроизводительных приложений. Программа включает спецификацию, устанавливающую минимальные стандарты для ПО и аппаратных компонентов, что позволяет ускорять разработку и время выхода систем на рынок. Для сертификации системы компания разработала программный менеджер Intel Cluster Checker, который представляет собой инструмент для обеспечения общей работы системных компоне­нтов.

Помимо этого Intel предлагает пакет инструментов для кластерных систем Intel Cluster Toolkit 3.1. Комплект предназначен для работы с кластерами под управлением как Linux, так и Microsoft Windows Compute Cluster Server 2003. С его помощью можно разрабатывать, анализировать и оптимизировать производительность параллельных приложений для кластерных систем с 32-разрядной и 64-разрядной архитектурами Intel, а также с архитектурой Intel Itanium. В состав пакета входят инструменты Intel Trace Analyzer, Intel Trace Collector и эталонные тесты Intel MPI Benchmarks. Расширяют возможности инструментария библиотека оптимизированных функций Intel MPI Library и Intel Math Kernel Library (Intel MKL), в которую включены многопоточные оптимизированные математические функции, в том числе библиотеки BLAS, LAPACK, ScaLAPACK, методы решения разреженных матриц, методы быстрого преобразования Фурье, алгоритмы векторной математики и пр.

Резюмируя, менеджер по программному обеспечению Intel в Восточной Европе Андрей Дербунович напомнил, что 75% высокопроизводительных систем, представленных в последнем рейтинге TOP500, основаны на архитектуре Intel. Развернуть столь производительные вычислители удалось благодаря оптимизированности программных и аппаратных решений, а также поддержке штатных технических консультантов компании.


Андрей Дербунович
Андрей Дербунович
Решения компания Silicon Graphics Inc. (SGI) представлены у нас в стране не слишком широко, однако те, кто заинтересован в HPC, о них наслышаны. Менеджер по продажам SGI в Восточной Европе Иржи Главач рассказал об актуальных продуктах и принципах работы компании на рынке HPC.

Сегодня SGI предлагает SMP-устройства — блейд-серверы с узловой архитектурой Altix 4000 / UltraViolet line, а также стандартные кластеры с узлами Altix XE line и интегрированные блейд-серверы с узлами Altix ICE line.

Все суперкомпьютеры и серверы SGI Altix работают под управлением операционной системы с ядром на основе Linux. SGI предлагает несколько продуктовых линеек для различных уровней бизнеса — от обычных рабочих станций (1—2 процессора) и простых серверов (2—34 процессора) до супердомов, кластеров и суперкопьютеров, количество процессоров в которых порой превышает тысячу.

Вычислительные системы SGI неоднократно попадали в рейтинг мощнейших суперкомпьютеров мира. Так, в 2004 году компания представила вычислитель SGI Altix Columbia для NASA. Он состоял из 10 000 процессоров и на тот момент был одним из самых производительных в мире. В 2007 году произошел еще один прорыв в TOP500: SGI Altix ICE (14 366 процессорных ядер, 28 ТБ памяти и решение SGI InfiniStorage 4500 емкостью 172 ТБ), развернутый в New Mexico Computing Applications Center (NMCAC) занял в рейтинге третью позицию. Кроме того, он был инсталлирован в рекордно короткие сроки — 48 часов.

HPC на практике


Анатолий Мельник
Анатолий Мельник
Ученые все чаще задумываются над тем, что согласно современным принципам построения вычислительных машин однажды их производительность «упрется в потолок» и дальнейшее прямое наращивание мощностей станет невозможным. Среди интересных нестандартных направлений выделяется технология программируемых логических интегральных схем (ПЛИС, field programmable gate array, FPGA). Эту тему развивают и в мире (например, компания SGI), и в Украине. Так, Национальный университет «Львовская политехника» вместе с компанией INTRON, штаб-квартира которой также расположилась во Львове, уже несколько лет исследуют применение FPGA для ускорения расчетов. Реконфигурируемые схемы могут работать вместе с системами любых современных архитектур. Преимущество схем заключается в том, что их можно тонко настраивать, конфигурировать под конкретный проект — компьютерные структуры на базе FPGA оптимизируются под любые приложения. Применение FPGA может обеспечить чрезвычайно эффективный параллелизм. Кроме того, эти схемы потребляют меньше электроэнергии, нежели традиционные процессоры.

Однако у медали есть и обратная сторона — концепция вычислений на основе FPGA отличается от стандартной, причем довольно существенно. Большинство реализованных привычными средствами программ попросту не будет работать на реконфигурируемых схемах. Далеко не под любое оборудование найдутся библиотеки кодов, поэтому цикл разработки в данном случае более длительный. Нужны программисты, которые умеют конфигурировать матрицы, однако таких специалистов, с учетом специфики языка, крайне мало.

Вариант решения проблемы — использование автоматизированной системы для конвертации и трансляции со стандартных высокоуровневых языков на «родной» для реконфигурируемых схем язык VHDL.

Таких систем на рынке несколько, например, Impulse C, Synfora PICO Express, Catapult C производства Mentor Graphics, Mitrion Virtual Processor, Nallatech DIMEtalk, Xilinx Lab CHiMPS и разработанный компанией INTRON комплекс CHAMELEON. Это решение автоматически интерпретирует алгоритмы, написанные на ANSI C, в понятный FPGA код. По словам Анатолия Мельника, заведующего кафедрой вычислительной техники Львовского политехнического института и исполнительного директора компании INTRON, CHAMELEON демонстрирует высокую гибкость и эффективность в работе, что подтверждают независимые тесты.


Олег Аладышев
Олег Аладышев
Украина — активный участник ряда проектов по созданию грид-сетей для тяжелых вычислений, однако больших кластерных систем пока что совсем немного. Другое дело Российская Федерация, где государство охотно финансирует развертывание суперкомпьютеров. Опытом эксплуатации крупнейшего в СНГ вычислительного кластера поделился Олег Аладышев, заместитель директора Межведомственного суперкомпьютерного центра Российской академии наук.

Уже достаточно длительное время ресурсы академии подсоединены к крупной сети университетов и институтов, куда также входят ряд исследовательских лабораторий и частные вычислители. В свою очередь РАН как активный участник грид-системы может использовать чужие ресурсы для решения собственных задач. Суперкомпьютеры, развернутые в этой структуре, попадали в рейтинг TOP500, начиная с 2001 года. Первый кластер работал с производительностью 1 терафлоп, что в то время позволило ему занять 56 место в мире. Обновление системы (увеличение мощностей, объема хранилищ, усовершенствование сетевой инфраструктуры) производится примерно раз в четыре года.

Главной проблемой при выборе аппаратной части Олег Аладышев считает ограниченность площади помещений. Это порождает сложности с энергообеспечением, усложняет эксплуатацию. Соответственно, понижается и качество услуг. Поэтому после тщательного анализа рынка ИТ-отдел принял решение установить блейд-систему производства HP. Межузловое соединение элементов системы реализовано с использованием технологии InfiniBand, мощность которой настолько велика, что была искусственно ограничена до 50%. В системе используются гибридные решения как на процессорах IBM Power, так и на Intel. На суперкомпьютер установлено минимум ПО, компиляторы, система управления. «Специфические приложения, которые нужны для решения конкретных задач РАН или предприятий, клиенты устанавливают самостоятельно, тем самым снижая нагрузку на персонал вычислительного центра», — говорит Олег Аладышев.


Всеволод Украинский
Всеволод Украинский
Также на конференции выступили менеджер по работе с корпоративными заказчиками компании APC by Schneider Electric Владимир Дохленко с докладом об инженерной инфраструктуре для мощных вычислительных центров и Ирина Резникова, бренд-менеджер компании Stulz, которая рассказала о свежих подходах к организации климат-контроля в HPC-центрах.

Новый продукт Microsoft Windows HPC Server 2008 и стратегию компании на рынке высокопроизводительных вычислений представили сотрудники отдела Microsoft HPC в регионе EMEA Леонид Клюев и Всеволод Украинский (см. материал «Параллельные миры Microsoft» на с. 20 этого номера).

А завершилась конференция подведением итогов инициированного Microsoft конкурса разработчиков прикладных программ для ресурсоемких вычислений. В соревновании приняли участие 35 команд из разных регионов Украины, а победу одержала команда SimSet Донецкого национального технического университета с проектом на базе Microsoft Windows Computer Cluster Server 2003. Жюри отметило практическую ориентированность и перспективность системы для параллельного моделирования компьютерных сетей. В качестве приза команда получила грант на научные исследования в размере 2500 долл. Кроме того, работы финалистов конкурса были рекомендованы для рассмотрения в исследовательском подразделении Microsoft Research.