Построение зетафлопс­­­­ных вычислителей ожидается к 2015 году. Столь высокая мощность необходима для решения научных проблем такого уровня, с которым современные вычислители справиться не в состоянии. Лет двадцать назад ученые мечтали о создании петафлопсного компьютера, который помог бы в раскодировании генома и моделировании атмосферы. Сегодня эти задачи решены. Следующий уровень задач — моделирование работы человеческих коллективов, работы мозга, а также глобальное моделирование процессов в атмосфере и в земной коре, причем моделирование настолько детальное, чтобы оно позволило прогнозировать процессы на длительное время вперед и тем помогло бы в предотвращении экологических катастроф. 

Однако построить зетафлопсный компьютер на тех же принципах, что и сегодняшние HPC‑машины, невозможно. Принятую сегодня концепцию вычислений придется пересмотреть уже в ближайшее время. Необходимость этого следует из элементарных физических законов. Ведь носителем информации является электрический ток, а стандартные провода, электрические схемы имеют ограничения по пропускной способности. Чтобы сделать компьютер более мощным, его составляют из большего числа элементов. Размеры этих элементов от поколения к поколению уменьшаются, следовательно, уменьшаются и токи, которые они способны пропустить. Дискретные транзисторы с трудом улавливают маленькие токи; кроме того, велика вероятность распознавания помех как сигнала. Другая проблема связана с тепловыделением — его величина прямо зависит от вычислительной мощности компьютера. 

На пути к построению «зетафлопса» на базе оптических или молекулярных структур неизбежно придется пройти промежуточные стадии. Ближайшим этапом развития суперкомпьютера станет модернизация в рамках существующей концепции. Прежде всего, речь идет об использовании мультиядерности. Сегодня ведутся многочисленные разработки многоядерных процессоров, например 80‑ядерного решения Intel. Активно проводят работу в этой области IBM и Sun. Сегодняшний рейтинг Tор500 возглавил компьютер, чья вычислительная мощность базируется на 9‑ядерных процессорах Cell. Всё движется в сторону элементарных ядер, множеств маленьких вычислителей, а не полностью универсальных процессоров в одном чипе. 

Другой ярко выраженной тенденцией является концепция потоковых вычислений. Так, сегодня очень часто говорят об использовании для HPC графических процессоров. 

Среди сильных трендов отмечу и возрождение технологий программируемых логических интегральных схем (field‑programmable gate array, FPGA), посредством которых можно адаптировать систему для решения определенного класса задач. Однако с их использованием связана серьезная проблема: они реализуют несколько иную концепцию вычислений, поэтому большинство стандартных программ вообще не будут работать с ними — необходимо использовать другие языки. Однако существуют подходы к применению универсальных языков С для FPGA. 

Интересный подход — создание гетерогенных систем, основанных на разных типах архитектур. Например, в рамках одного суперкомпьютера можно объединить FPGA, Itanium и Xeon (сегодня уже представлены образцы систем, сочетающих FPGA и Xeon и FPGA c Itanium). Но для их функционирования в одной структуре необходимо продумать эффективное управление и загрузку. В ручном режиме управлять такой системой несложно — можно организовать определенный механизм загрузки задач и распределения их по тем процессорам, которые лучше приспособлены для их решения. В рамках ручного управления появляется понятие рабочего процесса: есть исходные данные — необходимо получить определенный результат. Для этого нужно провести вычисления нескольких типов, сделать интерактивное корректирование, визуализировать, затем пересчитать какой‑то модуль (программа не смогла принять решение, пришлось что‑то переделывать), только после этого получим результат. 

Если процесс загрузки разных модулей автоматизировать, он будет проходить по меньшей мере в три раза быстрее. Таким образом, встает вопрос четкой наладки, наподобие того, как это происходит с бизнес‑процессами в ERP‑системах.