Около года назад мы отметили, что TPU — Tensor Processing Unit — может быть большим преимуществом Google в области искусственного интеллекта. Теперь у нас есть некоторые данные о производительности, которые говорят о том, что это правда. Если вы хотите заниматься искусственным интеллектом, вам, вероятно, понадобится TPU, а не графический процессор.
В нашем предыдущем отчете см. TPU — семилетний лидер Google в области искусственного интеллекта.
Google использует TPU с 2015 года и предназначен для ускорения вычислений, определенных с помощью Tensor Flow. Большинство других исследователей ИИ используют графические процессоры, но они изначально были разработаны для реализации графических конвейеров и, хотя и намного быстрее, вряд ли могут стать лучшим оборудованием для работы. Как ни странно, даже NVIDA, которая может создавать специальное оборудование, стремится использовать свои мощные графические процессоры при испытании ИИ.
Информация, которую теперь опубликовал Google, действительно предполагает, что использование специального оборудования, такого как TPU, — это лучший вариант, если вы пытаетесь обучить нейронную сеть:
В производственных рабочих нагрузках AI, использующих логический вывод нейронной сети, TPU в 15–30 раз быстрее, чем современные графические процессоры и процессоры.
TPU также обеспечивает гораздо лучшую энергоэффективность, чем обычные микросхемы, достигая 30-80-кратного улучшения показателя TOPS / ватт (тераопераций [триллион или 1012 операций] вычислений на ватт потребляемой энергии).
Нейронные сети, на которых работают эти приложения, требуют удивительно небольшого количества кода: всего от 100 до 1500 строк кода TensorFlow.
В документе с более подробной информацией объясняется, что TPU используются для вывода, то есть обученной нейронной сети представлен входной вектор, который распространяется вперед, чтобы дать выходной вектор — обучение не требуется. Статистика показывает, что модели имеют от 5 до 100 миллионов весов.
Google создал TPU для решения задачи внедрения нейронных сетей в производственные системы:
«Потребность в TPU действительно возникла около шести лет назад, когда мы начали использовать дорогостоящие в вычислительном отношении модели глубокого обучения во все большем количестве мест в наших продуктах. Вычислительные затраты на использование этих моделей заставили нас беспокоиться. Если бы мы рассмотрели сценарий, в котором люди используют Google голосовой поиск занимает всего три минуты в день, и мы запускали глубокие нейронные сети для нашей системы распознавания речи на процессорах, которые мы использовали, нам пришлось бы удвоить количество центров обработки данных Google! »
Также для меня стало шоком узнать, как далеко зашла эта конкретная революция, и никто этого не заметил:
«TPU лежат в основе каждого поискового запроса; они обеспечивают точные модели видения, которые лежат в основе таких продуктов, как Google Image Search, Google Photos и Google Cloud Vision API; они лежат в основе революционных улучшений качества, которые Google Translate представил в прошлом году; …»
Удивительный момент здесь — «за каждым поисковым запросом». Вы могли догадаться, что TPU будет центральным для явно ориентированных на ИИ задач, таких как поиск и перевод изображений, — но сложно представить, что кто-то участвует во «каждом поисковом запросе». Означает ли это, что RankBrain, см. -RankBrain — AI приходит в поиск Google, или какая-то другая нейронная сеть участвует в каждом поиске Google?
Еще одно довольно простое использование:
«… и они сыграли важную роль в победе Google DeepMind над Ли Седолом, что стало первым случаем, когда компьютер победил чемпиона мира в древней игре го».
Вызывает недоумение, но приветствуется, что Google поделился такой большой частью своего ИИ с остальными, несмотря на то, что вызывает некоторые опасения, запатентовав некоторые очень простые методы.
Возможно, не имеет значения, что хорошо известно, как достигается волшебство, если только у Google и других крупных компаний есть оборудование, чтобы это произошло.