Любая Мобильная Камера Может Быть 3D-Сканером


Возьмите стандартный мобильный телефон с камерой, добавьте программное обеспечение и сделайте 3D-сканирование любого объекта. Это так просто, и вам не нужно дополнительное оборудование — проблема для Kinect?

Команде из ETH Zurich удалось получить необходимый код оптической обработки для разработки 3D-реконструкции из набора 2D-фотографий. Все, что нужно сделать пользователю, это переместить телефон вокруг объекта, и программное обеспечение определяет, когда делать снимки. Он знает, где он находится, используя акселерометры, чтобы вычислить его положение относительно первого сделанного снимка. Пользователь также получает обратную связь о том, какие части объекта были охвачены, и может добавлять представления, например, см. за объектом. 

Раньше для таких вычислений требовался большой компьютер, но теперь с помощью оптимизации и графического процессора их можно выполнять на скромном мобильном телефоне. Поскольку в обработке не участвует сервер, телефон можно использовать для съемки 3D-модели, даже если он не подключен к Интернету. 

Хотя возможность сканировать объект с помощью простого телефона-отличный инструмент, он не собирается вытеснять 3D-камеры, такие как Kinect. Камеры глубины обеспечивают поток информации о глубине в реальном времени, который может использоваться роботами и игроками. Полезность такого рода программного обеспечения заключается в захвате изолированных 3D-моделей. Примеры, приведенные в видео, то есть сканирование музейных экспонатов, звучат великолепно, но неясно, насколько хорошо это пойдет с кураторами, которые обычно запрещают любые виды фотографии. Тем не менее, вы можете поверить, что есть причины для того, чтобы хотеть это приложение. 

Что еще более интересно, так это размышлять о том, куда эта 3D-реконструкция с одним датчиком с несколькими видами может пойти в будущем. Причина, по которой 3D-камеры полезны в задачах зрения, заключается в том, что изображения, которые они производят, имеют гораздо большую избыточность. В цветном изображении два близких пикселя одного цвета не обязательно являются частью одного и того же 3D-объекта, но два близких пикселя на одной и той же глубине в изображении глубины, скорее всего, будут частью одного и того же 3D-объекта. Это значительно упрощает реализацию алгоритмов компьютерного зрения. Если вы можете извлечь данные о глубине 3D из одного датчика, перемещающегося в разные точки зрения, вы можете использовать одни и те же алгоритмы глубины для реализации компьютерного зрения. Это может стать прорывом в области компьютерного зрения, который мы ищем.

Большая проблема заключается в том, что пресс-релиз ETH Zurich заканчивается леденящей линией: 

Запатентованная технология была разработана исключительно компанией ETH Zurich и может работать на широком спектре современных смартфонов.

Это очень умная техника, но патентоспособная? 


Добавить комментарий