Комп'ютерні моделі генеративного штучного інтелекту (ШІ) стають все більш популярними, але для їхнього оптимального виконання потрібне специфічне обладнання. Найкраще для цього підходить архітектура сучасних графічних адаптерів, яка складається з великої кількості порівняно простих обчислювальних ядер, з'єднаних високошвидкісними шинами даних з великими обсягами швидкої відеопам'яті.

Ця особливість графічних адаптерів призвела до того, що їх все частіше називають ШІ-процесорами. Компанія Nvidia, яка є безперечним лідером у цьому сегменті, вже готується представити на ринку свою найновішу розробку такого типу.

Наразі найпопулярнішим серверним ШІ-процесором у світі є Nvidia H100. Однак незабаром йому на зміну має прийти ще більш продуктивна модель H200 з високошвидкісною багатошаровою відеопам'яттю HBM3e. Поставки H200 плануються на II квартал 2024 року.

Намір закупити перспективні ШІ-процесори для своїх дата-центрів у майбутньому році вже заявили найбільші замовники чипів Nvidia — Amazon, AWS, Google і Oracle. Однак з кінця 2023 року на ринок вже почнуть виходити прямі конкуренти Nvidia H200: AMD MI300, Intel Gaudi 2 і навіть Microsoft Maya.

Microsoft, однак, не планує випускати Maya в відкриту продаж. Ці ШІ-процесори проектували спеціально для максимально ефективного (по співвідношенню продуктивності та ціни) виконання великих мовних моделей Microsoft сімейства Copilot в хмарі Azure. Microsoft робить значну ставку на продаж ШІ-сервісів Copilot для бізнесу за передплатою, і тому прагне по можливості знизити собівартість їхнього виконання для власних дата-центрів.