Термин «периферийные вычисления» слишком универсален и его часто путают с облаком, Интернетом вещей (IoT) и другими технологиями. Технологический евангелист Red Hat Гордон Хафф рассказывает о самых распространенных ошибочных представлениях по поводу того, что из себя представляет Edge computing.

Периферийные вычисления — «горячая» тема, но это не значит, что все хорошо понимают, для чего предназначена эта технология. Она связана с перемещением услуг, данных и интеллекта поближе к пользователям и устройствам. Отчасти проблема заключается в том, что Edge computing пересекается с большим числом технологий. На раннем этапе развития он чаще всего ассоциировался с IoT. К этому можно добавить более традиционные архитектуры, которые существовали задолго до появления термина «Edge computing». Речь идет о сетях доставки контента и распределенных приложениях для удаленных филиалов организаций. Он также проник в новые области, включая сферу телекоммуникаций. Учитывая эти сложности, неудивительно, что довольно много пользователей не понимают предназначения периферийных вычислений и по этому поводу возникает немало заблуждений. Исходя из этого, следует прояснить четыре наиболее распространенных из них.

Миф 1. Периферийные вычисления заменяют публичные облака

Одной из наиболее устойчивых тенденций в развитии ИТ было чередование циклов — централизации (например, классические мейнфреймы) и децентрализации (например, ПК). Если исходить с этой точки зрения, то периферийные вычисления можно воспринимать как отход в сторону от централизованных вычислений, которые сосредоточены в руках поставщиков публичных облачных сервисов и других крупных ЦОДов. В этой точке зрения имеется доля правды. На заре облачных вычислений бытовало мнение, что однажды они будут предоставляться в виде традиционных коммунальных услуг, к примеру, как поставки электричества. (Есть определенная доля иронии в том, что за время, прошедшее после тех ранних дискуссий об облачных технологиях в начале 2000-х, распределенная выработка возобновляемой энергии сильно потеснила централизованные электросети.)

Однако централизованная доставка компьютерных вычислений в ИТ никогда не выглядела реалистичной затеей. К тому же публичные облака сами по себе эволюционировали в ключе, который скорее нацелен на предложение дифференцированных услуг клиентам, а «коммунальных» вычислений. Edge computing в более широком смысле — это понимание того, что по своей природе корпоративные вычисления гетерогенны и не терпят упрощенных подходов и шаблонов. Таким образом, они могут заменить публичные облака только в воображаемом мире, где последние бы замкнули на себе все рабочие нагрузки. Но в реальном есть место и для Edge computing.

Миф 2. Edge computing — это про конечные точки

Практически любая распределенная вычислительная архитектура состоит из нескольких уровней. Примерно в то же время, когда обсуждалось будущее облачных технологий, была популярной идея о повсеместном распространении устройств типа «умная пыль» («smartdust»). Миниатюризация устройств и беспроводные сети приближали момент, когда распределенные сети датчиков можно было задействовать на практике. Одновременно с этим разгорелись дискуссии вокруг того, что для уникальной идентификации таких датчиков потребуется значительно больше адресного пространства IPv6.

Вездесущие вычисления («ubiquitous computing») стали ассоциироваться с конечными устройствами или точками. Этот термин был введен сотрудником Xerox PARC Марком Вайзером в 1988 г. Со временем эти ассоциации перекинулись на периферийные вычисления. Тот факт, что потребительские устройства напрямую взаимодействуют с облачными сервисами на стороне сервера, лишь усилил их. Однако физическая архитектура для поддержки датчиков и других конечных точек в масштабе всегда была более сложной, чем облачный уровень и уровень датчиков.

Фактически, когда IBM в начале 1990-х предложила назвать распределенные сети датчиков «pervasive computing» (всепроникающие вычисления), она понимала под этим связь между всеми вычислительными ресурсами организации, начиная с сотовых телефонов, систем среднего уровня и заканчивая мейнфреймами. Таким образом, хоть Edge и периферийные вычисления часто связывают с конечными устройствами, на самом деле практически любая распределенная вычислительная архитектура состоит из нескольких уровней, где конечные точки — только один из них.

Миф 3. Edge — новое имя IoT

Как уже говорилось, периферийные вычисления выходят за рамки простых двухуровневых архитектур.  IoT — важный пример применения периферийных вычислений. Например, в трехуровневой архитектуре IoT данные датчиков часто поступают в своего рода локальный шлюз, где с их помощью можно совершать действия, которые требуют быстрой реакции, например, при экстренном торможении автомобиля.

Шлюз также может сортировать и объединять данные перед отправкой в ЦОД для анализа и контроля, тем самым экономя пропускную способность сети. Тем не менее, Edge computing — это не только IoT. Периферийные вычисления находят отклик во все большем числе других областей применения, в том числе в сфере телекоммуникаций, которые работают тем лучше, чем ближе они находятся к людям и машинам, взаимодействующими с ними.

Миф 4. Edge computing должен работать как ЦОД

Периферийные вычисления не всегда отвечают сценариям работы, которые характерны для ЦОДов. Например, Edge-кластеры могут быть установлены в местах, где не просто нет обслуживающего ИТ-персонала, но и вообще нет людей. Это означает, что нужен иной подход как к безопасности, так и к стратегии устранения сбоев оборудования, чем те, которые применяются в ЦОДах (средства физической защиты и работа обслуживающего персонала в круглосуточном режиме). Более того, при работе с Edge computing нужно иметь в виду, что это потенциально ненадежные сети с ограниченной пропускной способностью, тогда как устойчивость сетевых подключений, которые проходят через ЦОД (и особенно внутри него), воспринимается как данность. Что делать, если Edge-кластер теряет связь? Сможет ли пользователь продолжить работу даже в ухудшенном режиме? Ответ на эти вопросы прост — нужно иметь планы резервного копирования. Они в целом важны для распределенных систем, но в еще большей степени они нужны для бесперебойной работы многих периферийных архитектур.

Edge computing нужно рассматривать как часть гибридной облачной архитектуры

Периферийные вычисления — прямые наследники хорошо известных технологий (Open Source, контейнеризация, автоматизация, DevSecOps и др.) и призваны расширить их возможности. Некоторые периферийные архитектуры даже имеют много общего с тем, как связываются и взаимодействуют ЦОДы. Например, среди телекоммуникационных компаний пользуется популярностью модель развертывания посредством OpenStack частных облаков как на периферии сети, так и в более традиционной локальной среде.

Интенсивное применение автоматизации в той же мере важно для поддержания работоспособности большой распределенной системы, как и для серверов, установленных в ЦОДах. В целом, периферийные вычисления должны быть направлены на упрощение операций за счет автоматизации выделения ресурсов, управления и оркестровки. Это особенно актуально для Edge-проектов, которые обслуживаются ограниченным числом ИТ-персонала.

Некоторые пользователи рассматривают периферийные вычисления и датацентры как взаимозаменяемые технологии. Но это разные технологии, но их можно рассматривать как часть общей гибридной облачной архитектуры и, там где нужно, применять или централизованный, или распределенный подход, главное, чтобы это вело к снижению общих бизнес-рисков.


Источник: ITweek