
Американский разработчик системы визуального пространственного позиционирования MultiSet AI объявил о доступности своей платформы на носимых устройствах, начав с очков Ray-Ban Meta*. Изначально они не способны определять своё местоположение, но с новым ПО понимают его с точностью выше пяти сантиметров.
MultiSet показала работу системы на видео. Она получает кадры с камеры Ray-Ban Meta и передаёт их в облако для обработки. Такой подход по определению подвержен рискам безопасности и изменения условий связи, однако, по словам генерального директора компании Нихила Саулани, работает в реальном времени.
В данном случае реальное время — это один кадр в секунду. Именно такую максимальную скорость обновления данных разработчик может забирать с очков Meta.
Производитель установил ограничение в том числе потому, что повышение частоты кадров может свести длительность автономной работы не предназначенного для таких сценариев гаджета до часа и менее. К примеру, видеотрансляция в соцсети сажает аккумулятор Ray-Ban Meta за 30–60 минут.
Саулани отмечает, что новинка открывает доступ к контекстному ориентированию нейросетевых моделей и навигации через голосовой интерфейс без использования рук. Ray-Ban Meta не имеют дисплеев и могут лишь сообщать пользователю нужные данные. Такую навигацию можно сделать достаточно точной, если полагаться не только на речь, но и на модуляцию звука, как в металлоискателе.
MultiSet AI обещает выпустить бету SDK для носимой электроники в ближайшее время, а пока предлагает тестировать свою технологию на более привычных устройствах.
*В России признана экстремистской
Не пропускайте важнейшие новости о дополненной и виртуальной реальности — подписывайтесь на Голографику в Telegram, ВК и Twitter! Поддержите проект на Boosty.
Далее: Умные очки обострили проблему женоненавистнического контента в соцсетях



