Мессенджер Snapchat выпустил Lens Studio 3.2, обновление платформы для создания дополненной реальности, которая теперь поддерживает датчики LiDAR из новых iPhone и iPad Pro.
Лазерные времяпролётные датчики в модулях камер iPhone 12 Pro и iPhone 12 Pro Max обеспечивают более точное наложение и закрепление графики на объектах реального мира. Благодаря им Snapchat лучше понимает геометрию сцены, а также значения поверхностей и объектов.
Представители Snapchat говорят, что процессор Apple A14 Bionic и платформа ARKit могут отображать тысячи объектов в реальном времени, что позволяет разработчикам создавать среды с глубоким погружением для длительного изучения.
В Lens Studio 3.2 появились новые панели поиска. Они упрощают поиск шаблонов или узлов в Material Editor. Новые возможности Head Mesh и Hand Segmentation позволяют сегментировать руки для жестового управления эффектами и отслеживать всю голову, а не только лицо.
Функция сценариев поведения (Behavior Script) помогает в настройке различных эффектов и взаимодействий через раскрывающееся меню. Разработчики могут выбирать различные триггеры, такие как взаимодействие с мимикой лица или прикосновениями, и реагировать на них эффектами.
Шаблоны упростят знакомство с новыми функциями Lens Studio. Кроме того с помощью нового интерактивного режима предварительного просмотра в Lens Studio 3.2 разработчики могут смотреть свои проекты в дополненной реальности без iPhone 12 Pro и LiDAR.
Не пропускайте важнейшие новости о дополненной и виртуальной реальности —подписывайтесь на Голографику в Telegram, ВК, Twitter и Facebook!
Далее: Zappar предложила очки дополненной реальности за $40