Microsoft расширяет API Cognitive Services


На прошлой неделе на выставке BUILD 2017 Microsoft анонсировала более интеллектуальные API-интерфейсы и запустила свои лаборатории когнитивных служб, которые позволят разработчикам экспериментировать с службами искусственного интеллекта, которые все еще находятся на ранней стадии разработки. Один из них, Project Prague для управления жестами и взаимодействия, уже находится в режиме частного предварительного просмотра. Более того, ИИ становится действительно полезным и практичным.

Статистика, представленная на BUILD, указывает на высокий уровень интереса к Microsoft Cognitive Services — ими пользуются 568 000+ разработчиков из более чем 60 стран.
В прошлом месяце мы сообщили о 25 API искусственного интеллекта, которые уже являются частью Microsoft Cognitive Services, а также о том, что три из них, Face API, Computer Vision API и Content Moderator API, стали общедоступными. Теперь количество API-интерфейсов увеличилось до 29, и Microsoft предоставила лаборатории когнитивных услуг, чтобы позволить разработчикам участвовать в проектах ИИ, находящихся на ранних этапах разработки.
По словам команды Cognitive Services:
Лаборатории дают разработчикам возможность на раннем этапе познакомиться с захватывающими развивающимися технологиями когнитивных сервисов. Вы можете попробовать и оставить отзыв до того, как эти технологии станут общедоступными. По сути, это площадка для изучения этого исследования и понимания того, что может произойти.

Первые пять из этих REST API находятся в открытой предварительной версии, и с учетной записью Microsoft вы можете подписаться на них и начать их использовать. В настоящее время они бесплатны с большим количеством транзакций.
Последний проект «Прага» описывается как «передовой, простой в использовании SDK, который создает более интуитивно понятный и естественный опыт, позволяя пользователям управлять технологиями и взаимодействовать с ними с помощью жестов рук» — это тот, который в настоящее время находится в ограниченной бета-версии. Он открыт только для небольшого числа участников, которым также потребуется камера Intel Realsense SR300. Действительно, инструкции по подаче заявки на участие в бета-тестировании заканчиваются:
Бонусные баллы за отправку селфи с камерой, выполняющей Вулканский салют.

Новые API-интерфейсы включают пользовательский поиск Bing, Custom Vision Service и Custom Decision Service, которые позволяют пользователям вносить свои собственные данные в алгоритмы, предоставляемые Microsoft, для создания сервисов, более адаптированных к их конкретным потребностям. Каждый из них является открытым предварительным просмотром, который в настоящее время вы можете попробовать бесплатно.
Служба Custom Vision (кодовое название IRIS), вероятно, будет популярной, поскольку она позволяет создавать классификаторы, чтобы различать изображения разных вещей. Поэтому вместо того, чтобы просто играть с классификаторами, созданными другими людьми, вы можете создать свои собственные.
Четвертое дополнение Video Indexer, ранее называвшееся Video Breakdown, проект Microsoft Garage, использует технологии искусственного интеллекта, такие как распознавание лиц, распознавание текста, преобразование голоса в текст и т. Д.) Для автоматического извлечения метаданных из видео. Это действительно очень полезно, как объясняется в этом видео:

Другое действительно полезное новое решение на базе искусственного интеллекта, представленное на выставке BUILD, по-прежнему является проектом Microsoft Garage. Presentation Translator — это надстройка Office для Powerpoint, которая позволяет докладчикам отображать переведенные субтитры в режиме реального времени. Когда вы говорите, на любом из 10 поддерживаемых языков речи, он может отображать субтитры непосредственно в вашей презентации PowerPoint на любом из более чем 60 поддерживаемых языков текста, и до 100 членов аудитории в комнате могут следить за презентацией на своем родном языке. используя свой собственный телефон, планшет или компьютер. Вот что я называю полезным. Как и в случае с другими продуктами перевода Microsoft, вам необходимо заполнить форму, чтобы запросить ее, предоставив информацию о том, как вы ее используете.


Добавить комментарий