Сквозное видео и нейросети помогут слабовидящим владельцам Vision Pro


Apple Vision Pro смогут увеличивать изображение в сквозном режиме, а вместе с этим описывать окружение, искать или читать с помощью встроенных нейросетей. Эти функции войдут в набор решений для доступности системы слабовидящим людям через обновление visionOS в конце 2025 года.

В прошлом году Apple анонсировала функции доступности за месяц до презентации visionOS 2 на WWDC24, поэтому новые мы можем увидеть в бета-версии visionOS 3 уже на июньской WWDC25. Готовое обновление обычно задерживается на несколько месяцев.

Сквозное масштабирование и распознавание

Сейчас функция лупы (Zoom) увеличивает лишь виртуальный контент. Обновление позволит разглядеть мелкие детали реального мира. А возможность описывать, находить или читать станет расширением VoiceOver, который в настоящее время функционирует как программа чтения с экрана. 

Apple уточняет, что функция под названием Live Recognition будет обрабатывать сквозной поток с камер с использованием машинного обучения на устройстве для «описания окружения, поиска объектов, чтения документов и многого другого».

API сквозного видео

Apple также обещает предложить новый программный интерфейс для «разработчиков специальных возможностей» в «одобренных приложениях». API откроет доступ к видеопотоку «для предоставления прямой индивидуальной помощи для визуальной интерпретации».

Meta* в Horizon OS уже даёт доступ к камерам всем авторам приложений, хотя включать соответствующие функции софт может только с разрешения пользователя. Android XR последует этому примеру. VisionOS разрешает такое только для корпоративного использования. И для этого нужна специальная лицензия от Apple.

*В России признана экстремистской

Не пропускайте важнейшие новости о дополненной и виртуальной реальности — подписывайтесь на Голографику в Telegram, ВК и Twitter! Поддержите проект на Boosty.

Далее: MotionBlocks: учёные упростили движения в виаре для тех, кому они даются с трудом