TensorFlow Lite для мобильных телефонов


Google анонсировала предварительную версию TensorFlow Lite, версии TensorFlow для мобильных и встроенных устройств, для разработчиков.

TensorFlow — это инструмент Google с открытым исходным кодом для параллельных вычислений, включая реализацию нейронных сетей и других методов обучения ИИ. Он разработан, чтобы упростить работу с нейронными сетями, и рассматривается как более общий и простой, чем другие варианты. Новая версия Lite обеспечивает вывод моделей машинного обучения на устройстве с малой задержкой.

До сих пор TensorFlow поддерживал мобильное и встроенное развертывание моделей через TensorFlow Mobile API. Разработчики говорят, что TensorFlow Lite следует рассматривать как эволюцию TensorFlow Mobile.

Основные особенности новой версии Lite начинаются с того, что она легкая, поэтому ее можно использовать для вывода моделей машинного обучения на устройстве с небольшим двоичным размером. Он также кроссплатформенный, хотя на данный момент это означает Android и iOS. Возможно, самое главное, разработчики говорят, что это еще и быстро. Он оптимизирован для мобильных устройств, а это означает, что модели загружаются быстро, и в нем используется аппаратное ускорение.

Хотя может показаться маловероятным думать о проведении обучения ИИ на мобильном устройстве, разработчики TensorFlow Lite отмечают, что все большее количество мобильных устройств теперь включает в себя специализированное оборудование для более эффективной обработки рабочих нагрузок машинного обучения. TensorFlow Lite поддерживает API нейронных сетей Android, чтобы использовать преимущества этих новых ускорителей по мере их появления. Если аппаратное обеспечение ускорителя недоступно, TensorFlow Lite возвращается к оптимизированной работе ЦП.

TensorFlow Lite состоит из обученной модели TensorFlow, сохраненной на диске, и конвертера, который преобразует модель в формат файла TensorFlow Lite. Вы также получаете формат файла модели на основе FlatBuffers, который был оптимизирован для максимальной скорости и минимального размера, а затем файл модели можно развернуть в мобильном приложении, где C ++ API загружает модель и вызывает интерпретатор, который выполняет модель. с помощью набора операторов. C ++ API сам заключен в удобную оболочку Java API на Android. Интерпретатор поддерживает выборочную загрузку оператора для минимизации необходимой памяти.

TensorFlow Lite поставляется с рядом моделей, которые обучены и оптимизированы для мобильных устройств, включая класс моделей зрения, которые могут идентифицировать 1000 различных классов объектов; и диалоговая модель, которая обеспечивает ответы одним касанием на входящие сообщения разговорного чата.


Добавить комментарий