Порт TensorFlow Pi - последний залп в битве за аналитику границ

Недавний порт TensorFlow для Raspberry Pi является последним в серии шахматных ходов от Google и его главного конкурента AI Nvidia, чтобы завоевать сердца и клавиатуры разработчиков встраиваемых Linux-систем.

Недавнее объявление Google о том, что оно перенесло свою библиотеку машинного интеллекта TensorFlow (ML) с открытым исходным кодом для нейронных сетей на Raspberry Pi, было последним в серии шахматных ходов от Google и его главного конкурента по искусственному интеллекту Nvidia, чтобы завоевать сердца и клавиатуры встроенного Linux. Разработчики.
Конкуренция является частью более широкой битвы с Amazon, Microsoft, Intel и другими за то, чтобы вывести облачную аналитику на передний план в сетях IoT, чтобы уменьшить задержки, повысить надежность и повысить безопасность.

Благодаря сотрудничеству с Raspberry Pi Foundation, последняя версия TensorFlow 1.9 теперь может быть установлена ​​на Raspberry Pi 2 или 3 SBC из предварительно собранных двоичных файлов с использованием системы pip-пакетов Python.
Пользователи Raspbian 9 могут установить его двумя простыми командами.

Интеграция моделей TensorFlow во встроенный проект ставит дополнительные задачи.
Тем не менее, как показал Google с помощью своих наборов AIY Projects для Raspberry Pi, вы можете добавить немного умов ML в роботы на основе Raspberry Pi, системы видения и другие встроенные приспособления, не преодолевая при этом огромную кривую обучения.

Порт TensorFlow следует особенно приветствовать в образовательном сообществе Raspberry Pi.
Как написал в поздравительном твите Эбен Аптон из Фонда RPi о «массовых новостях», порт TensorFlow обеспечит «классный обучающий контент для машинного обучения».

TensorFlow изначально был создан для работы в Linux, но на серверах или настольных компьютерах, а не на скромных SBC, таких как Raspberry Pi.
Теперь он работает на всех основных серверных и настольных платформах и был портирован на Android и iOS.
Тем не менее, Raspberry Pi была особенно сложной задачей, пишет в своем заявлении разработчик Google TensorFlow Пит Уорден.
Это было даже невозможно, пока Raspberry Pi 2 и 3 не пришли с более быстрыми четырехъядерными процессорами.

Год назад Уордену и его команде удалось кросс-компилировать TensorFlow на RPi 3, но это был медленный, сложный, подверженный сбоям процесс.
Новая возможность установки из предварительно собранных двоичных файлов теперь делает возможным присоединение к группе гораздо более широкой группы разработчиков.


Google's 2018 версии AIY Voice Kit (слева) и AIY Vision Kit

(нажмите на картинку, чтобы увеличить)


Raspberry Pi

Ноль WH

В то время, когда AIY Projects от Google пытался втиснуть облачную платформу в простую хакерскую доску, ее команда начала с недорогих картонных комплектов с дополнительными платами для подключения к встроенным технологиям, связанным с Google Cloud.
К ним относятся AIY Vision Kit для Raspberry Pi Zero W и WH, который выполняет распознавание зрения на основе TensorFlow.
Он включает в себя плату VisionBonnet с чипом ускорителя нейронной сети Intel Myriad 2.
AIY Projects также запустили AIY Voice Kit с той же целью RPi Zero WH, которая позволяет создавать голосовые динамики с поддержкой Google Assistant.

Как отмечается в этом посте Hackster.io о порте от Alasdair Allan, AIY Vision Kit изо всех сил пытался работать хорошо, работая локально.
Голосовой комплект стал лучше благодаря большей зависимости от Google Cloud.

Ускоритель Google Edge TPU

Согласно сообщению Warden после объявления, TensorFlow в настоящее время не использует потенциальные возможности ML графического процессора Broadcom VideoCore, как это делает Nvidia с более мощным графическим процессором Pascal.
Далее он предполагает, что может быть потенциал для разработки специального порта, связанного с графическим процессором, для одноядерных плат Raspberry Pi Zero, но на данный момент достаточно мощности на четырех ядрах процессора Pi.
Говоря о потенциальных возможностях подключения к графическому процессору, он пишет: «Благодаря четырехъядерным процессорам и Neon на последних версиях Pi преимущество не так велико, хотя оно все же интересно для Pi Zeroes».

Другое объяснение состоит в том, что Google пропускает GPU, поскольку ожидает, что пользователи Raspberry Pi и другие разработчики встроенных программ будут использовать недавно анонсированный чип-ускоритель Edge TPU ML для Linux для TensorFlow.
Этой осенью будет предлагаться Edge TPU вместе с комплектом разработки для Linux на базе NXP i.MX8M и USB-ключом Edge TPU Accelerator, который можно установить на любой компьютер Linux, включая Pi.


Чип Edge TPU (слева) и ускоритель Edge TPU

(нажмите на картинку, чтобы увеличить)

Edge TPU - это облегченная встроенная версия специализированного сопроцессора искусственного интеллекта Cloud Tensor Processing Unit (Cloud TPU).
В сочетании с новым стеком Cloud IoT Edge этот чип предназначен для работы с моделями TensorFlow Lite ML на шлюзах IoT на базе Arm Linux или Android Things, подключенных к облачным сервисам Google.

Nvidia запускает промышленные модули TX2i и восьмиъядерные Xavier Jetson

Nvidia пытается продвинуть свои технологии искусственного интеллекта, связанные с Pascal / CUDA, разработчикам встраиваемых Linux-систем.
Его компьютерные модули Jetson TX1 и TX2 нашли широкое применение во встраиваемых проектах Linux для приложений ML.
Jetson TX2 недавно появился в устройствах, включая коробочный компьютер Axiomtek eBOX560-900-FL , а также в новой плате AIR-T Mini-ITX с FPGA для приложений SDR с поддержкой AI.

В последние месяцы Nvidia начала поставлять Jetson TX2i Spin на TX2, предназначенную для промышленного применения.
TX2i добавляет поддержку от -40 до 85 ° C, виброустойчивость и более широкий диапазон влажности.
Также имеется поддержка ECC RAM, 10-летний жизненный цикл поставки и 3-летняя гарантия.

Как и Jetson TX2, TX2i имеет два высокопроизводительных ядра Denver 2 Arm, четырехъядерный процессор Cortex-A57 и 256-ядерный графический процессор Pascal с библиотеками CUDA для запуска алгоритмов AI и ML.
Как и TX2, модуль также обеспечивает 8 ГБ оперативной памяти LPDDR4, 32 ГБ eMMC 5.1 и 802.11ac WiFi и Bluetooth.


ACE-N310 (слева) и NSO-MD-TX2 (Jetson TX2i)

(нажмите на картинку, чтобы увеличить)

Существующие платы-носители Jetson работают с TX2i.
Aetina только что анонсировала носитель ACE-N310 для всех модулей Jetson, который поддерживает промышленную температуру TX2i и поддерживает шесть одновременно работающих HD-камер.

Недавно к Jetson TX2 присоединился более мощный новый модуль Jetson Xavier .
Ядро Xavier, которое уже использовалось в автономной автомобильной плате Nvidia Drive PX Pegasus, имеет 8 ядер ARMv8.2 и высококачественный 512-ядерный графический процессор Nvidia Volta с тензорными ядрами.
Он также предоставляет 2x механизма глубокого обучения NVDLA и 7-позиционный чип VLIW.
Xavier поставляется с 16 ГБ 256-битной LPDDR4 и 32 ГБ eMMC 5.1.

Google и Nvidia не одиноки в своих кампаниях, чтобы довести аналитику облачного ИИ до совершенства.
Например, микросхема ускорителя нейронной сети Intel Movidius 2 находит широкое распространение.
Предположительно, однако, любые будущие комплекты AIY Projects заменят Movidius 2 на Edge TPU.

Хотя Amazon еще не представила свой собственный нейронный ускоритель, она, возможно, все еще является лидером в более широкой гонке за граничную аналитику IoT из-за популярности ее стека AWS IoT и его программного обеспечения AWS Greengrass для локальной обработки программного обеспечения облачной аналитики в Linux. устройства.
Тем временем Microsoft также ориентируется на пространство IoT с помощью своего дистрибутива Azure Sphere на основе Arm Linux и инфраструктуры IoT.
Изначально Azure Sphere будет ориентирован на приложения с низким энергопотреблением, работающие на чипах Cortex-A7.
Тем не менее, будущие версии могут быть более надежными и включать собственный компонент AI.

Эта статья защищена авторским правом © 2018 Linux.com и была первоначально опубликована здесь .
Он был воспроизведен этим сайтом с разрешения его владельца.
Пожалуйста, посетите Linux.com для получения последних новостей и статей о Linux и open source.