Стек Nvidia EGX edge-AI дебютирует в четырех новых системах Adlink на базе Jetson и Tesla

Решение Nvidia «Nvidia EGX» для периферийных вычислений ИИ объединяет в себе его Nvidia Edge Stack и платформу OpenShift от Red Hat на базе Kubernetes, работающую на Linux-модулях Jetson и платах Tesla.
Adlink представила четыре пограничных сервера на основе EGX с использованием Nano, TX2, Xavier и Tesla.

Объявленный на этой неделе на выставке Computex в Тайване, Nvidia EGX объявлен «On-Prem AI Cloud-in-a-Box», который может запускать облачное программное обеспечение контейнеров на пограничных серверах.
Платформа также позволяет запускать в облаке приложения пограничного сервера, разработанные EGX.

Nvidia EGX построена на основе стека Nvidia Edge, оснащенного библиотеками CUDA с поддержкой AI, в которых используются модули Jetson Nano на базе Arm, Linux на основе Arm, Jetson TX1 / TX2 и Jetson Xavier, а также высокопроизводительные модули Tesla вплоть до сервер TX4.
Ключевым новым компонентом является облачная контейнерная платформа Kubernetes, которая включена здесь с помощью стека оркестрации контейнеров OpenShift от Red Hat.

Одним из первых пользователей EGX был Adlink, который анонсировал четыре встроенных шлюза пограничного сервера с программным обеспечением (см. Ниже).


Архитектура Nvidia EGX и Jetson Nano

(нажмите на картинку, чтобы увеличить)

Платформа Nvidia EGX от Nvidia объединяет волну граничных решений с поддержкой искусственного интеллекта - от устройств Google Edge TPU до инициативы Linux Foundation LF Edge .
Подобно этим и другим пограничным платформам, EGX предназначен не только для организации потока данных между устройством, шлюзом и облаком, но и для сокращения этого растущего трафика за счет использования искусственного интеллекта стеков, полученных из облака, непосредственно на пограничных устройствах для обеспечения низкого времени отклика.

Nvidia EGX поддерживает удаленное управление IoT через AWS IoT Greengrass и Microsoft Azure IoT Edge.
Платформа также может быть развернута с использованием предварительно сертифицированных технологий безопасности, сетевых технологий и систем хранения от Mellanox и Cisco.

Хотя уже возможно объединить устройства Nvidia Jetson, использующие Nvidia Edge Stack, с оркестрированными пограничными контейнерами Kubernetes, EGX оптимизирует этот процесс.
Говорят, что стек EGX обрабатывает установку ОС пограничного сервера (т. Е. Linux), развертывание Kubernetes, а также подготовку и обновление устройств за кулисами как часть усиленной системы «под ключ».

Ядро Nvidia Edge Stack объединяет драйверы Nvidia и технологии CUDA, включая плагин Kubernetes, среду выполнения контейнера Docker и библиотеки CUDA-X.
Он также включает в себя контейнеры AI-инфраструктуры и приложения, в том числе TensorRT, TensorRT Inference Server и DeepStream.
Оптимизирован для сертифицированных серверов, Nvidia Edge Stack можно загрузить из реестра Nvidia NGC .

По словам Nvidia, серверы Enterprise EGX доступны в ATOS, Cisco, Dell EMC, Fujitsu, Hewlett Packard Enterprise, Inspur и Lenovo.
Устройства с поддержкой EGX также доступны у производителей серверов и IoT-систем, включая Abaco, Acer, Adlink, Advantech, ASRock Rack, Asus, AverMedia, Cloudian, Connect Tech, Curtiss-Wright, Gigabyte, Leetop, MiiVii, Musashi Seimitsu, QCT, Sugon , Supermicro, Tyan, WiBase и Wiwynn.
Nvidia заявляет о 40+ ранних последователях, со ссылками на отзывы от Foxconn, GE Healthcare и Seagate.

AI на грани «позволяет организациям использовать огромные объемы данных, собираемых на датчиках и устройствах, для создания интеллектуальных производственных, медицинских, аэрокосмических и оборонных объектов, транспорта, телекоммуникаций и городов, чтобы обеспечить привлекательный опыт клиентов», - говорит Адлинк в своем объявлении о пограничные системы с поддержкой EGX, описанные ниже.
Как в Nvidia, так и в Adlink упоминаются такие преимущества, как более быстрые проверки безопасности продукта, мониторинг трафика на лету и более своевременная и точная интерпретация результатов медицинского сканирования.

Технологии также предназначены для наблюдения, распознавания лиц и анализа поведения клиентов.
В то время как приложения наблюдения с поддержкой AI могут повысить безопасность, растут опасения по поводу неправильного использования, поскольку недавно город Сан-Франциско запретил полиции использовать распознавание лиц.
Корпорации могут использовать эту технологию для отслеживания людей в общественных местах и ​​продажи данных и анализа.
Полицейские департаменты и государственные службы безопасности по всему миру используют технологию ИИ для отслеживания и контроля над диссидентами .

Четыре новых EGX системы Adlink

Adlink был одним из первых поставщиков встраиваемых систем, который объявил о создании новых систем на основе EGX, работающих на оборудовании Jetson и Tesla.
Как и Nvidia, Adlink никогда не упоминает Linux на страницах объявлений или продуктов, но все эти модули предназначены для работы с Linux.


Adlink M100-Nano-AINVR (слева) и M300-Xavier-ROS2

(нажмите на картинку, чтобы увеличить)

Внедрение Adlink начинается с нижнего уровня с пограничного сервера M100-Nano-AINVR на базе Jetson Nano и системы обнаружения DLAP-201-JT2 на основе Jetson TX2.
Высокопроизводительный M300-Xavier-ROS2 использует Jetson Xavier для управления автономным контроллером робота, а сервер ALPS-4800 Edge с Tesla использует мощные видеокарты Nvidia Tesla для создания тренировочной платформы AI.

M100-Нано-AINVR

По словам Адлинка, M100-Nano-AINVR - это компактная платформа сетевой видеозаписи (NVR), используемая для «обнаружения личности и автономного отслеживания в общественном транспорте и контроля доступа».
Построенный на основе новейшего и самого дешевого модуля Jetson от Nvidia, Jetson Nano , M100-Nano-AINVR включает в себя 8-гигабитные Ethernet-порты с поддержкой Power-over-Ethernet для IP-камер, а также 2 стандартных GbE-порта.


M100-Nano-AINVR, передняя и задняя

(щелкните изображение, чтобы увеличить)

Jetson Nano с четырьмя ядрами Cortex-A57 и относительно скромным 128-ядерным графическим процессором Maxwell с поддержкой CUDA запускает стек Nvidia EGX с помощью 4 ГБ LPDDR4 и 16 ГБ eMMC.
Adlink добавляет порты GbE, а также 4 порта USB 3.0, micro-USB 2.0 OTG и 2,5-дюймовый слот SATA SSD.
Другие функции включают порт HDMI 2.0, 2 порта RS-232/485 и 8-битный DIO.

Система для монтажа на стену и DIN-рейку имеет размеры 210 x 170 x 55 мм и поддерживает температуру от 0 до 50 ° C.
Имеется вход 12 В постоянного тока и дополнительный адаптер AD / DC 160 Вт, а также кнопки питания и сброса.

DLAP-201-JT2

«Ультракомпактный DLAP-201-JT2 спроектирован как платформа для логического вывода для ускорения рабочих нагрузок глубокого обучения для обнаружения, распознавания и классификации объектов», - говорит Адлинк.
Примерами могут служить оптимизация управления трафиком в режиме реального времени, улучшенная интеллектуальная маршрутизация шины, более своевременный анализ системы наблюдения за безопасностью и другие «умные города и интеллектуальные производственные приложения».


DLAP-201-JT2, передняя и задняя

(нажмите на картинку, чтобы увеличить)

DLAP-201-JT2 переходит к более мощному модулю Jetson TX2 с двумя высокопроизводительными ядрами «Denver» и 4 ядрами Cortex-A57, а также более мощной 256-ядерной графикой Pascal и 8 ГБ LPDDR4.
Система Adlink также поддерживает более раннюю версию Jetson TX1, которая имеет такую ​​же мощность процессора, что и Nano, но обеспечивает 256-ядерную графику Maxwell, размещая ее между Nano и TX2.
TX2 обеспечивает 8 ГБ LPDDR4, в то время как TX1 имеет 4 ГБ, и оба включают 16 ГБ eMMC.

DLAP-201-JT2 даже меньше, чем нано-основанный M100-Nano-AINVR, размеры 148 x 105 x 50 мм.
Он имеет степень защиты IP40 и более широкий диапазон температур от -20 до 70 ° C для промышленного и наружного применения.
Доступны настенные и DIN-рейки.

Система оснащена 2x GbE, 2x USB 3.0 и одиночными портами HDMI 2.0, последовательным портом COM и CANBus.
Также есть 4-канальный DIO, консольный порт отладки и дополнительные аудиоразъемы.
Для хранения вы получаете слот для SD (возможно, микро) и mSATA.
Также есть отдельный слот mini-PCIe со слотом для micro-SIM.
Модуль TX2 обеспечивает беспроводной модуль с поддержкой 802.11ac и Bluetooth 4.0.
Доступны четыре отверстия для антенн SMA.

Имеется вход 12 В постоянного тока с дополнительным адаптером 40 Вт и кнопками питания и восстановления.
Есть также держатель батареи CMOS с защитой от обратной зарядки.

M300-Ксавье-ROS2

M300-Xavier-ROS2 - это встроенный роботизированный контроллер, работающий на Jetson AGX Xavier .
Система с поддержкой ROS2 обеспечивает автономную навигацию в автоматических мобильных роботах.


Кассета расширения M300-Xavier-ROS2 (слева), M300 без кассеты (посередине) и с кассетой

(щелкните изображение, чтобы увеличить)

Модуль Xvier от Nvidia оснащен 8 ядрами ARMv8.2 и высокопроизводительным 512-ядерным графическим процессором Nvidia Volta с 64 тензорными ядрами с двумя двигателями Nvidia Deep Learning Accelerator (DLA).
Модуль оснащен 7-позиционным чипом VLIW, а также 16 ГБ 256-битной оперативной памяти LPDDR4 и 32 ГБ eMMC 5.1.

Безвентиляторный M300-Xavier-ROS2 имеет размеры 190 x 210 x 80 мм, но с помощью кассеты расширения расширяется до 322 x 210 x 80 мм.
Система с допуском от 0 до 50 ° C имеет широкий диапазон 9–36 В постоянного тока и дополнительный адаптер переменного тока на 280 Вт с кнопками восстановления и сброса.

Система оснащена 2x GbE, 6x USB 3.1 Gen1 и одним портом USB 3.1 Gen2.
Вы также получаете 3 порта RS-232 и один порт RS-232/485 и HDMI.
Для хранения есть слот microSD и слот M.2 Key B + M (3042/2280).
Дополнительная кассета расширения добавляет слоты PCIe x8 и PCIe x4.

Другие функции включают в себя 20-битные интерфейсы GPIO и UART, SPI, CAN, I2C, PWM, ADC и DAC.
Несмотря на то, что они не перечислены в собственном списке спецификаций, в пунктах с упоминанием упоминаются расширение mini PCIe и M.2 E key 2230, а также подключение камеры MIPI-CSI.

ALPS-4800 (пограничный сервер с Tesla)

ALPS-4800 представляет собой серверную обучающую платформу искусственного интеллекта операторского класса в форм-факторе 4U1N для монтажа в стойку.
Он оснащен двумя масштабируемыми процессорами Intel Xeon и 8 разъемами PCIe x16 Gen3 GPU.
Система проверена на выполнение кода Nvidia EGX на ускорителях графических процессоров Nvidia Tesla P100 и V100 Tesla, младших родственников высокого класса T4.


ALPS-4800 (пограничный сервер с Tesla)

(щелкните изображение, чтобы увеличить)

По словам Адлинка, ALPS-4800 поддерживает как одно-, так и двух-корневые комплексы для различных приложений ИИ.
Для глубокого обучения один корневой комплекс может использовать все кластеры графического процессора, чтобы сосредоточиться на заданиях по обучению больших объемов данных, в то время как процессоры выполняют небольшие задачи.
Для машинного обучения комплекс с двумя корневыми системами может распределять больше задач для процессоров и организовывать меньшее количество распределенных заданий по обучению данных между графическими процессорами.

Система поддерживает до 3 ТБ 2666 МГц DDR4 и предлагает 8 2,5-дюймовых дисков SATA.
В дополнение к 8 разъемам PCIe, предназначенным для карт Tesla, имеется 4 разъема PCIe Gen 3 и мезонин хранения.

Другие функции включают в себя 2 порта 10GbE SFP + NIC, выделенный порт GbE BMC и слоты OCP 2.0 для портов до 100GbE.
Вы также получите выделенный BMC порт GbE, 4 порта USB, порт VGA и мощный источник питания мощностью 1600 Вт.

Дальнейшая информация

Nvidia EGX, кажется, доступна сегодня.
Дополнительную информацию можно найти в объявлении Nvidia EGX и на странице продукта .

Для четырех «предварительных» пограничных серверов с поддержкой EGX Adlink не была предоставлена ​​информация о ценах или доступности.
Дополнительную информацию можно найти на страницах продуктов Adlink M100-Nano-AINVR , DLAP-201-JT2 , M300-Xavier-ROS2 и ALPS-4800 .