Intel говорит, что Keem Bay VPU предлагает в 10 раз более высокую производительность AI Myriad X


Корпорация Intel анонсировала VPU третьего поколения с кодовым названием «Keem Bay», который в 10 раз превосходит производительность ИИ по сравнению с чипом Myriad X.
Заявлено, что он эквивалентен Jetson Xavier AGX, но с КПД в 4,7 раза выше.

На вчерашнем Intel Summit AI в Сан-Франциско производитель чипов анонсировал версию своего поколения Movidius Myriad AI третьего поколения.
Благодаря появлению в первой половине 2020 года модулей M.2 и PCIe, чип «Keem Bay» будет в 10 раз превосходить производительность логического процессора 1-TOPS Myriad X (VPU), который есть в Intel Neural. Compute Stick 2 .
Это предполагает производительность 10-TOPS.

Myriad X также поддерживает модули AI Core X компании Aaeon и модули Mustang IEI, в том числе карту mini-PCIe Mustang-MPCIE-MX2 .
VPU также используется в предстоящем Luxonis DepthAI Raspberry Pi HAT.


Слайд Keem Bay от Intel AI Summit

Источник: VentureBeat

Кроме того, Intel заявляет, что VPU Keem Bay будет в четыре раза быстрее при выводе, чем Jetson TX2 от Nvidia, в то время как энергопотребление составляет от одной трети до пятой части, согласно VentureBeat .
Кроме того, Keem Bay обеспечивает «четырехкратное число выводов в секунду на один TOPS» по сравнению с высокопроизводительным процессором Nvidia - до 30 TOPS (триллионов операций в секунду) Jetson Xavier AGX .
Nvidia недавно анонсировала уменьшенную версию под названием Jetson Xavier NX с искусственным интеллектом 14 TOPS (10 Вт) или 21 TOPS (15 Вт).

Наконец, Intel заявила, что Keem Bay предлагает производительность логического вывода в 1,25 раза быстрее, чем у ускорителя HiSilicon Ascend 310 AI компании Huawei до 16-TOPS (8 Вт).
Такие сравнения омрачены различными огибающими мощности, а также тем фактом, что, как и Ascend 310, Myriad X является сопроцессором AI, в то время как модули Jetson запускают алгоритмы AI на графических процессорах, которые работают в тесном контакте с встроенными ядрами ЦП.
Сообщение CNXSoft предполагает, что Keem Bay потребляет около 6 Вт.


Нервана ННП-Т

Intel также продемонстрировала свои ранее анонсированные процессоры нейронной сети Intel Nervana (NNP) для обучения (NNP-T1000) и вывода (NNP-I1000).
Модули NNP, предназначенные для облачных приложений и центров обработки данных, в настоящее время используются клиентами.

Кроме того, Intel анонсировала Edge AI DevCloud , также называемый Intel DevCloud для Edge.
Работая вместе с инструментарием Intel OpenVINO, платформа позволяет разработчикам пробовать, создавать прототипы и тестировать решения AI на широком спектре процессоров Intel перед их покупкой.
Intel ожидает, что ее решения для искусственного интеллекта принесут доход в размере более 3,5 миллиардов долларов в 2019 году.

Дополнительная информация

VPU Keem Bay будет доступно в первой половине 2020 года. Дополнительную информацию можно найти в объявлении Intel Keem Bay .