Aaeon запускает AI ускорители на базе M.2 и mini-PCIe, используя маломощный Kneron NPU

Модули Aaeon M.2 и mini-PCIe AI Edge Computing основаны на энергоэффективном двойном AI SoC KL520 с поддержкой Cortex-M4, который обеспечивает производительность 0,3 TOP NPU всего на половине ватта.

Aaeon рано заинтересовался ускорением искусственного интеллекта с помощью компьютеров на базе Arm Nvidia Jetson TX2, таких как Boxer-8170AI .
Совсем недавно компания поставляла аксессуары AI Core M.2 и mini-PCIe для своих компьютеров Boxer и плат UP, оснащенных процессорами Intel Movidius Myriad 2 и Myriad X Vision (VPU).
Теперь он добавил еще один подход к ускорению ИИ, запустив линейку карт ускорения ИИ M.2 и mini-PCIe, построенных на новой KL520 AI SoC Kneron.


M2AI-2280-520 (слева) и Mini-AI-520

(нажмите на картинку, чтобы увеличить)

Aaeon принимает заказы на три платы AI Edge Computing Modules на базе KL520, предназначенные для IoT, умного дома, безопасности и мобильных устройств:

  • M2AI-2280-520 - M.2 B-Key 2280
  • M2AI-2242-520 - M.2 2242
  • Mini-AI-520 - мини-PCIe

Вычислительные модули AI Edge от 0 до 70 ° C допускают работу от 0,5 Вт до 0,9 Вт.
Похоже, что между этими тремя модулями нет функциональных различий, которые все предоставляют интерфейсы отладки UART и JTAG и обмениваются данными с хост-процессором через сигналы USB.
Модули поддерживают ускорение для платформ ONNX, TensorFlow, Keras, Caffe с такими моделями, как Vgg16, Resnet, GoogleNet, YOLO, Tiny YOLO, Lenet, MobileNet и DenseNet.


M2AI-2242-520 с подробным видом спереди и сзади

(нажмите на картинку, чтобы увеличить)

KL520 AI SoC сочетает в себе два микроконтроллера Cortex-M4 с микросхемой нейронной обработки (NPU) от Kneron, лицензию на которую можно получить отдельно.
Энергоэффективный KL520 поддерживает использование сопроцессора, развернутого в вычислительных модулях AI Edge от Aaeon, в сценариях, которые обычно подключаются к встроенному компьютеру Linux.
SoC также можно использовать в качестве автономного узла IoT с поддержкой AI в таких приложениях, как интеллектуальные дверные замки.

AI SoC KL520 разработан для ускорения общих моделей AI, таких как распознавание лиц и объектов, обнаружение жестов и поведение драйверов для приложений AIoT, включая управление доступом, автоматизацию, безопасность и наблюдение.
Он также может быть использован для мониторинга поведения потребителей в розничных условиях - тенденция, которая может подтолкнуть еще больше покупателей делать покупки в Интернете.
Однако Aaeon отмечает, что это решение повышает конфиденциальность и снижает задержку, поскольку периферийные устройства AI не требуют подключения к облаку.


Блок-схема Aaeon AI Edge Computing Module (слева) и KL520 AI SoC

(нажмите на картинку, чтобы увеличить)

Kneron NPU в KL520 поддерживает более 1,5 ТОП на ватт, утверждает Кнерон из Сан-Диего.
IP может легко работать при мощности менее 0,5 Вт и «может достигать 5 мВт для конкретных применений», - говорится в сообщении компании.

Согласно истории EETimes на прошлой неделе, предшествовавшей объявлению Aaeon, KL520 AI SoC обеспечивает только 0,3 ускорения TOP AI при 0,5 Вт, или эквивалентно 0,6 TOP / W.
Для сравнения, Myriad X работает на 1 ТОПе, но, вероятно, с более высоким энергопотреблением.
Это дает клиентам Aaeon выбор из двух уровней ускорения ИИ: менее мощные, но более энергоэффективные вычислительные модули AI Edge и более быстрые, но более требовательные модули AI Core X с поддержкой Myriad X.

Модель распознавания лиц 57 мегабайт Kneron, работающая на его NPU, была признана NIST (Национальный институт стандартов и технологий) как модель с лучшими характеристиками до 100 мегабайт.
Системный интегратор TIIS использовал модель как часть системы безопасности для государственных банков Тайваня.
EETimes цитирует Kneron COO Адриана Онга, который говорит, что для встроенных приложений модель может быть сжата до 32 МБ или даже до 16 МБ.

Архитектура реконфигурируемой искусственной нейронной сети (RANN) Kneron, работающая в сочетании с эффективным компилятором, «может динамически адаптироваться к различным вычислительным архитектурам на основе различных приложений ИИ», - говорит Кнерон.
NPU может запускать разные сверточные нейронные сети (CNN) на основе разных приложений, «независимо от размера ядра, архитектурных требований или размера входных данных». Это приводит к «очень высокой эффективности MAC (управления доступом к среде)», говорит компания.

Компилятор KL520 рекламируется за его запатентованную технологию сжатия, которая вместе с RANN обеспечивает сверхмалое ускорение AI для приложений умного дома и смартфонов, таких как распознавание лиц.
Наконец, Кнерон упоминает, что его технология особенно применима к различным технологиям 3D-датчиков, таким как структурированный свет, двойная камера, ToF и собственная технология 3D-зондирования Kneron.

Aaeon - первая компания, коммерциализирующая KL520.
Среди других партнеров, перечисленных в объявлении Kneron о выпуске KL520 в мае 2019 года, входят Eltron, Himax, Alltek, Pegatron, Orbbec и Datang Semiconductor.
EETimes сообщила, что версия NPU Kneron второго поколения, предназначенная для выборки в 1 квартале 2020 года, «сможет ускорить как CNN, так и RNN (рекуррентные нейронные сети) для визуальных и аудиоприложений».

Дополнительная информация

Вычислительные модули Aaeon AI Edge, оснащенные KL520 AI SoC, можно заказать по неизвестной цене.
Предположительно, они в конечном итоге будут доступны в качестве аксессуаров по индивидуальной цене для плат UP и т.п.
Дополнительную информацию можно найти в объявлении Aaeon и на его предварительных страницах продуктов для модулей M2AI-2280-520 , M2AI-2242-520 и Mini-AI-520 .
Более подробную информацию о KL520 AI SoC можно найти на веб-сайте Kneron .