В конце 2019 года в программном обеспечении Oculus появилась экспериментальная функция отслеживания рук. Всё говорит о том, что наши собственные руки скоро смогут стать альтернативой контроллерам в приложениях, в которых не нужно держать особые предметы, вроде оружия. Чтобы процесс шёл быстро и правильно, компания представила свежую документацию для разработчиков с лучшими практиками и учётом особенностей Quest.
Трекинг рук открывает пользователям Quest массу преимуществ, делая устройство по-настоящему автономным. Эти очки созданы простыми, как смартфон, и работают на модифицированной версии Android. В перспективе в работе с ними не понадобятся даже контроллеры из комплекта. Но сейчас у долгожданной функции есть большие ограничения по точности, задержке, обнаружению жестов и зоне охвата трекинга. Разработчики должны учитывать их, если хотят создавать качественный софт. Новый раздел документации «Проектирование для рук» («Designing for Hands») даёт практические советы.
Для начала, нам предлагают «помнить, что руки — не контроллеры».
Есть некоторые сложности, которые возникают при разработке проектов для рук. Благодаря научно-фантастическим фильмам и сериалам у людей завышенные ожидания от того, что можно делать руками в виртуальной реальности. Но ждать, что ваши виртуальные руки будут работать так же, как настоящие, в настоящее время не приходится по нескольким причинам:
- существуют технологические ограничения, такие как ограниченная мощность отслеживания и проблемы с окклюзией;
- виртуальные объекты не обеспечивают тактильную обратную связь, на которую мы опираемся при взаимодействии с реальными объектами;
- выбор жестов рук, которые активируют систему без случайных срабатываний, может быть затруднён, так как руки изображают всевозможные жесты в даже ходе обычной беседы.
Вы можете найти решения, которые мы нашли для некоторых из этих проблем, в разделе «Лучшие практики».
[…]
Очень заманчиво просто адаптировать существующие взаимодействия с устройствами ввода, такими как Touch, и применять их для отслеживания рук. Но этот процесс ограничит вас уже размеченной территорией и может привести к взаимодействию, которое будет лучше с контролерами, но при этом упустит преимущество рук.
Вместо этого сосредоточьтесь на уникальных сильных сторонах рук в качестве инструментов ввода данных и помните о конкретных ограничениях текущей технологии для поиска нового естественного ручного интерактива. Например, один из поставленных нами вопросов заключался в том, как обеспечить обратную связь в отсутствие тактильного взаимодействия. Ответ привел к новому методу выбора, который затем открыл возможность существования совершенно новых трёхмерных компонентов.
Раздел «Взаимодействия» («Interactions») предлагает практические советы о том, как разработчикам следует организовать работу с контентом при помощи рук. Компания проводит чёткую линию между абсолютным и относительным взаимодействиями. Первое означает, что пользователь касается объектов, а второе — что он управляет ими на расстоянии, без прикосновений.
В разделе «Компоненты пользовательского интерфейса» («User Interface Components») содержатся конкретные рекомендации о том, как должны работать такие элементы, как кнопки и меню, и как их размеры должны соответствовать точности трекинга Quest. Здесь также есть примеры более сложных интерфейсных модулей, таких как тумблеры, радиальные селекторы и прокручиваемые списки.
Oculus пока не принимает в магазин для Quest приложения с отслеживанием рук, но собирается перейти от эксперимента к полноценному использованию функции. Тогда и настанет время сторонних разработчиков. Произойдёт ли это в 2020 году? Этот вопрос открыт.
Что касается аналогичной функции для Rift S, в компании ещё не приступили к её масштабному развитию.
Не пропускайте важнейшие новости о дополненной, смешанной и виртуальной реальности — подписывайтесь на Голографику в Telegram, ВК, Twitter и Facebook!
Далее: Oculus Quest научились включать отслеживание рук, когда вы кладёте Touch