苹果Vision Pro手势+眼球融合交互的奥秘

这篇具有很好参考价值的文章主要介绍了苹果Vision Pro手势+眼球融合交互的奥秘。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

毫无疑问,Vision Pro在眼球追踪+手势的融合交互体验上,给AR/VR头戴设备带来了新突破,在用户体验上的提升非常明显。

​那么,为什么Vision Pro上这一功能会被如此值得关注呢?为了弄清楚,我们先来看看主流VR设备是如何做的。

苹果Vision Pro手势+眼球融合交互的奥秘,apple vision pro,交互

主流VR和Vision Pro的差异

在此之前,很多主流AR/VR产品已经采用这两种技术方案,只不过并未把两种交互方式融合,这其中有几点原因:

1,手势方面,包括Quest等主流VR设备以手柄交互体验为主,手势追踪仅作为补充式体验,即便从功能层面可以替代大部分手柄上的按键和功能。

苹果Vision Pro手势+眼球融合交互的奥秘,apple vision pro,交互

而Vision Pro没有手柄,首选方式是通过眼球追踪+手势来完成,当然也提供了辅助功能(含手势射线模式)。

2,主流VR的手势追踪必须将手放在摄像头FOV范围内,使用时双手必须微抬或举在身体前面,时间一长就非常累,导致用户体验差。

苹果Vision Pro手势+眼球融合交互的奥秘,apple vision pro,交互

而Vision Pro则拥有6颗SLAM+手势摄像头,其中有两颗向下的摄像头专门捕捉手垂放在腿上的视角。另外,还有两颗斜向下的摄像头同时兼顾SLAM和手势。甚至为了弱光环境下手势识别准确性,苹果还加入了两颗红外LED进行辅助。

苹果Vision Pro手势+眼球融合交互的奥秘,apple vision pro,交互

这种垂直视角的摄像头,专门用于捕捉大部分时间、不抬手的时候的手势,因为很多时候双手应该自然垂放在腿或桌子上,符合人体工学逻辑。苹果Vision Pro是AR/VR中的首家采用这一方案的设备,更是独一份。

苹果Vision Pro手势+眼球融合交互的奥秘,apple vision pro,交互

Vision Pro 直接手势

因为苹果在开发文档中也提到,如果使用直接手势(双手直接触碰虚拟物体,比如虚拟键盘等),需要将双手抬起至头显透镜FOV的视野之内,尽管它的捕捉摄像头范围够广,​必须让双手在FOV可见范围内才行。而多次/频繁的直接手势操作会带来疲劳感,应尽量避免。

3,眼球追踪方面,主流VR设备更注重VR应用内的场景,比如VR游戏凝视交互、Avatar眼球动作等,甚至也可以用于注视点渲染提升帧率等,确实提升了游戏体验。

苹果Vision Pro手势+眼球融合交互的奥秘,apple vision pro,交互

凝视的高光变化

苹果Vision Pro手势+眼球融合交互的奥秘,apple vision pro,交互

Vision Pro凝视+手势捏合

而Vision Pro采用的visionOS系统底层逻辑是大量2D窗口交互,包括文字选中、菜单选择都可以通过眼球+手势来完成,这其中眼球+手势融合交互就非常重要。当然,PS VR2部分游戏也提供眼球凝视菜单选项,体验尚可。

4,产品定位和价格方面的因素。VR一体机都是在主流价位去推广,通过SLAM摄像头同时完成头显定位和手柄追踪以及手势追踪,因此SLAM摄像头的安装角度主要照顾了头显的定位,而非手势追踪的体验。

这也就导致了,包括Quest等VR设备上通过斜向下的摄像头同时来捕捉手势,而双手放在腿部或靠下时完全不在捕捉范围。

而Vision Pro高举高打,不在乎售价意在通过高规格硬件提供高规格的体验。

当然,这里面还没有提到Vision Pro专门为摄像头、传感器准备的R1芯片,就是为了低延迟处理这些视觉数据,从而实现更精准交互方案,可以说Vision Pro的交互逻辑从软件、硬件、芯片、算法等多方位于一体,是一个鸿沟式的差异。

二、眼球+手势和纯手势对比

由上文得知,Vision Pro和之前的VR交互方式上存在较大差异。那么,两种交互方式又带来了哪些差异呢?

据青亭网了解,今年4月19日在ACM公布的一份论文“A Fitts' Law Study of Gaze-Hand Alignment for Selection in 3D User Interfaces”中,就明确提到了凝视+捏合的交互类型,并且对手势射线的供5种交互方式进行对比。

苹果Vision Pro手势+眼球融合交互的奥秘,apple vision pro,交互

该论文第一作者Uta Wagner来自于由丹麦奥胡斯大学计算机科学系,这里我们将其中的2类代表“仅基于手势射线”和“基于凝视射线+手势捏合”的测试差异进行对比。

2-1,选择目标测试

该研究基于菲茨定律研究进行设计,在FOV内不同深度呈现目标来进行“选择目标测试”,如上图,得出的结果是:

  • 吞吐量:凝视射线+捏合(2.1bits)>手势射线(1.4bits);
  • 错误率:无明显差异;
  • 物理消耗:凝视射线+捏合(2)>手势射线(4)。

2-2,AR菜单激活和选择测试

在进行AR菜单激活和选择测试中,得出的结果是:

  • 速度:凝视射线+捏合(2.5s)>手势射线(4.6s);
  • 错误:手势射线(1%)>凝视射线+捏合(3%);
  • 测试人员的喜好:凝视射线+捏合(6/16)>手势射线(0/16)。

苹果Vision Pro手势+眼球融合交互的奥秘,apple vision pro,交互

论文中所有测试方案

基于本论文的研究,得出的结论还有:

  • 1,所有测试方案中,结合凝视的方案在效率更高、速度更快,始终比手势射线表现更优秀;
  • 2,论文中提出的凝视射线+手势射线融合方案性能和其它相当,也比较受测试者欢迎,仅次于凝视射线+捏合;
  • 3,视察因素对平面图像中交互更为不利。

综上所述,基于凝视射线+捏合(苹果Vision Pro的方案,只不过它隐藏了凝视射线,但在UI中结合了高光等进行提示)在速度、效率上更高,也最受欢迎。同时,也表明凝视+手势结合的交互方式在今后AR/VR交互中更具潜力。不过要说的体感反馈,当然还是现在的手柄在体验和成本方面优势明显,今后在无手持设备的凝视+手势交互时代,智能手环或智能戒指也有望成为体感反馈的重要工具。

参考:Apple、ACM文章来源地址https://www.toymoban.com/news/detail-530102.html

到了这里,关于苹果Vision Pro手势+眼球融合交互的奥秘的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 蓝牙资讯|苹果Apple Watch可手势操控Mac和Apple TV等设备

    根据美国商标和专利局(USPTO)公示的清单,苹果公司近日获得了一项技术专利,概述了未来的 Apple Watch 手表,使用手势等操控 Mac 和 Apple TV 等设备。 该专利描述未来 Apple Watch 可以交互实现编辑图像、绘图、处理文档、制作电子表格、玩游戏、打电话、视频会议、电子邮件

    2024年02月13日
    浏览(27)
  • Apple Vision Pro:空间计算的未来已来,你准备好了吗?

    “ 正如iPhone带我们进入移动计算时代,Apple Vision Pro将带我们进入空间计算时代。” 我虽然没有亲身体验,但观看了许多国内外第一批体验者的体验分享,看得出来,这些体验者都十分兴奋,根据他们的描述,我仿佛看到了科幻电影《头号玩家》里的世界即将到来。 2023年6月

    2024年02月08日
    浏览(31)
  • 将Apple Vision Pro和visionOS与计算机视觉结合使用

    在2023年6月5日的WWDC大会上,苹果宣布推出多年来最大规模的硬件和软件组合产品。今年的“One more thing”(“还有一件事”)发布是苹果视觉专业版(Apple Vision Pro),这是一款集成了苹果生态系统的新型空间计算头戴式设备。 苹果视觉专业版是一个垂直整合的硬件和软件平

    2024年02月08日
    浏览(32)
  • [visionOS] [Apple Vision Pro] 3D模型文件格式转换:obj转usdz

    1,先要安装好Python3.7 【必须是Python3.7.x版本】 到Python官方去下载macOS版的Python3.7.x安装包 Python Releases for macOS | Python.org 要注意找一下,有些 3.7.x版本没有macOS安装包, 这里直接给出其中两个可以下载的 Python 3.7.8rc1 - June 17, 2020 Download macOS 64-bit installer Python 3.7.9 - Aug. 17, 2020

    2024年02月16日
    浏览(96)
  • [visionOS][Apple Vision Pro][SwiftUI] 定义一个UIImage变量,可动态改变,并显示在Image控件

    实际上,不需要加.onChange也可以的,这个只是响应myImage变化,跟Image更新图片没关系。 用@State标记一个属性时,SwitfUI会自动监听这个属性的变更,当这个属性发生改变,SwiftUI 会自动重新计算绘制视图。

    2024年02月16日
    浏览(34)
  • 苹果眼镜(Vision Pro)的开发者指南(2)

    探索构成空间计算的基本要素:窗口、体积和空间,并了解如何使用这些元素构建引人入胜的沉浸式体验。将带你了解用于为visionOS创建应用程序的框架,并向你展示如何进行深度、规模和沉浸式设计。探索如何使用来自Apple的工具,如Xcode和新的Reality Composer Pro,以及如何制

    2024年01月21日
    浏览(40)
  • 苹果眼镜(Vision Pro)的开发者指南(1)

    一、用到的底层核心框架: SwiftUI:无论开发者是要创建窗口、体积还是空间体验,SwiftUI 都是构建新的 visionOS 应用程序或将现有 iPadOS 或 iOS 应用程序引入平台的最佳方式。凭借全新的 3D 功能以及对深度、手势、效果和沉浸式场景类型的支持,SwiftUI 可以帮助你为 Vision Pro 构

    2024年01月22日
    浏览(43)
  • 苹果为 Vision Pro 头显申请游戏手柄专利

    苹果Vision Pro 推出后,美国专利局公布了两项苹果公司申请的游戏手柄专利,其中一项的专利图如下图所示。据 PatentlyApple 报道,虽然申请专利并不能保证苹果公司会推出游戏手柄,但是苹果公司同时也为游戏手柄申请了商标,这表明苹果公司有可能在未来为 Apple Vision Pro 配

    2024年02月11日
    浏览(33)
  • Apple 苹果发布 M3、M3 Pro 和 M3 Max 芯片

    本心、输入输出、结果 编辑:简简单单 Online zuozuo 地址:https://blog.csdn.net/qq_15071263 如果觉得本文对你有帮助,欢迎点赞、收藏、评论 Apple 苹果发布 M3、M3 Pro 和 M3 Max 芯片 北京时间10月31日8点,苹果举办名为“Scary Fast(快得吓人)”线上发布会,发布了全新的M3芯片系列,包

    2024年02月06日
    浏览(41)
  • 苹果头显Vision Pro深度解读3 苹果头显visonOS开发指南

    1  程序员visonOS开发指南   作为iOS开发者,切换到visionOS开发非常简单啊,过去的一些技术基本上都用得上。目前根据苹果WWDC官方的文档,视频,我们可以知道: 开发语言,使用的是swift object-c c c++等,swift当然作为首选。 开发界面,使用的是swiftUI, 如果要展示3D模型, 用Re

    2024年02月09日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包