Многие задачи, которые выполняют сегодня смарт-устройства, требуют немалой вычислительной мощи. Например, речь идет о распознавании речи в реальном масштабе времени на базе технологии машинного обучения. При этом для подобных задач наиболее оптимальны специализированные ЦПУ. Стандартные процессоры х86, предназначенные для универсальных вычислений, с такими заданиями справляются не то, чтобы плохо, но все же не самым лучшим образом. Именно по этой причине облако AWS, которое отвечает за распознавание голосовых команд от многих тысяч пользователей смарт-ассистента Alexa, базировалось на серверных графических ускорителях Nvidia.

И вот Amazon заявила, что планирует применять для распознавания голоса специализированные процессоры собственной разработки — AWS Inferentia. Такой чип содержит четыре ядра NeuronCore, каждое из которых решает по частям одну общую задачу совместно с другими ядрами. Для высокой производительности каждый чип оснащен большим объёмом кэш-памяти.

По мнению Amazon, применение специализированных чипов собственной разработки для распознавания речи позволит уменьшить на треть себестоимость каждой операции. Также уход с серверных GPU Nvidia на четверть сократит потери времени при взаимодействии с локальными гаджетами (прежде всего, смарт-колонками Echo).