Meta выпустила в App Lab приложение-пример, с которым разработчики могут опробовать возможности трекинга рук для Unreal Engine. Оно должно помочь в понимании адекватных реализаций управления без контроллеров для Quest 2 на движке от Epic Games. Просто загрузите приложение, включите его и отложите Touch в сторону.
Большую часть контента виртуальной реальности в мире создают с помощью одного из двух самых популярных игровых движков — Unity и Unreal Engine. Unreal несколько сложнее и более богат графически, поэтому его часто используют для крупнобюджетных проектов (с таким умозаключением можно поспорить, ведь графика правит бал не всегда).
Epic быстро включилась в гонку решений для новой метавселенской формации программного обеспечения. Это красноречиво подчеркнул генеральный директор компании Тим Суини (Tim Sweeney). На этом пути софт должен становиться всё реалистичнее, чему в некоторых сценариях помогает отказ от контроллеров как физических посредников между пользователем и интерфейсом. К тому же, людям постепенно стоит привыкать к отсутствию контроллеров в руках, ведь в будущем их ждут ЭМГ-браслеты.
Отслеживание рук — это вторичная система управления в Quest 2. Вторичность означает, что оборудование разрабатывали и оптимизировали под контроллеры, но после сумели реализовать и трекинг на камерах. В дальнейшем, судя по выпуску данного демо, поддержку трекинга рук будут только расширять, поскольку автономность очков делает естественным отказ от дополнительных аксессуаров.
Перед нами образец проекта, который содержит проверенные компоненты и механики работы с трекингом рук из более ранних демо «First Steps» и «Tiny Castles». Здесь можно будет попробовать телепортацию, захват, бросание и нажатие на кнопки. А для самых любопытных Meta разместила исходники на GitHub.
Не пропускайте важнейшие новости о дополненной и виртуальной реальности — подписывайтесь на Голографику в Telegram, ВК, Twitter и Facebook!
Далее: На Quest появились функции распознавания речи и пространственной привязки для смешанной реальности