Apple Vision Pro смогут увеличивать изображение в сквозном режиме, а вместе с этим описывать окружение, искать или читать с помощью встроенных нейросетей. Эти функции войдут в набор решений для доступности системы слабовидящим людям через обновление visionOS в конце 2025 года.
В прошлом году Apple анонсировала функции доступности за месяц до презентации visionOS 2 на WWDC24, поэтому новые мы можем увидеть в бета-версии visionOS 3 уже на июньской WWDC25. Готовое обновление обычно задерживается на несколько месяцев.
Сквозное масштабирование и распознавание
Сейчас функция лупы (Zoom) увеличивает лишь виртуальный контент. Обновление позволит разглядеть мелкие детали реального мира. А возможность описывать, находить или читать станет расширением VoiceOver, который в настоящее время функционирует как программа чтения с экрана.
Apple уточняет, что функция под названием Live Recognition будет обрабатывать сквозной поток с камер с использованием машинного обучения на устройстве для «описания окружения, поиска объектов, чтения документов и многого другого».
API сквозного видео
Apple также обещает предложить новый программный интерфейс для «разработчиков специальных возможностей» в «одобренных приложениях». API откроет доступ к видеопотоку «для предоставления прямой индивидуальной помощи для визуальной интерпретации».
Meta* в Horizon OS уже даёт доступ к камерам всем авторам приложений, хотя включать соответствующие функции софт может только с разрешения пользователя. Android XR последует этому примеру. VisionOS разрешает такое только для корпоративного использования. И для этого нужна специальная лицензия от Apple.
*В России признана экстремистской
Не пропускайте важнейшие новости о дополненной и виртуальной реальности — подписывайтесь на Голографику в Telegram, ВК и Twitter! Поддержите проект на Boosty.
Далее: MotionBlocks: учёные упростили движения в виаре для тех, кому они даются с трудом