虚拟现实场景中的交互方法、装置、设备及存储介质.pdf

上传人:万林****人 文档编号:14203071 上传时间:2023-09-18 格式:PDF 页数:30 大小:829.76KB
收藏 版权申诉 举报 下载
虚拟现实场景中的交互方法、装置、设备及存储介质.pdf_第1页
第1页 / 共30页
虚拟现实场景中的交互方法、装置、设备及存储介质.pdf_第2页
第2页 / 共30页
虚拟现实场景中的交互方法、装置、设备及存储介质.pdf_第3页
第3页 / 共30页
文档描述:

《虚拟现实场景中的交互方法、装置、设备及存储介质.pdf》由会员分享,可在线阅读,更多相关《虚拟现实场景中的交互方法、装置、设备及存储介质.pdf(30页完成版)》请在专利查询网上搜索。

1、(19)国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 202310195788.5(22)申请日 2023.02.24(71)申请人 北京字跳网络技术有限公司地址 100190 北京市海淀区紫金数码园4号楼2层0207(72)发明人 曹晋源(74)专利代理机构 北京远智汇知识产权代理有限公司 11659专利代理师 刘茜阳(51)Int.Cl.G06F 3/01(2006.01)G06F 3/04883(2022.01)(54)发明名称一种虚拟现实场景中的交互方法、装置、设备及存储介质(57)摘要本公开实施例提供了一种虚拟现实场景中的交互方法、装置、设。

2、备及存储介质。该方法接收作用在虚拟现实场景中的头部控制数据;基于头部控制数据确定关注区域并展示关注区域和控制点,控制点初始位于关注区域的中心点,关注区域中包括待交互对象;接收在手部操作区域内生成的手部姿态数据,手部操作区域与关注区域存在位移映射关系;移动控制点到目标显示位置,目标显示位置为手部姿态数据在关注区域中的映射位置;响应控制点作用于待交互对象时产生的交互操作。该方法能够有效解决单一交互给身体部位带来的交互疲劳问题;先缩小交互范围定位出关注区域然后通过控制点在关注区域中精准对象的方式,降低难以精准选定交互对象的风险,提高交互精准度。权利要求书2页 说明书19页 附图8页CN 116048。

3、281 A2023.05.02CN 116048281 A1.一种虚拟现实场景中的交互方法,其特征在于,包括:接收作用在虚拟现实场景中的头部控制数据;基于所述头部控制数据确定关注区域,并在所述虚拟现实场景中展示关注区域和控制点,所述控制点初始位于所述关注区域的设定位置处,所述关注区域中包括待交互对象;接收在手部操作区域内生成的手部姿态数据,所述手部操作区域与所述关注区域存在位移映射关系;移动所述控制点到目标显示位置,所述目标显示位置为所述手部姿态数据在所述关注区域中的映射位置;响应所述控制点作用于所述待交互对象时产生的交互操作。2.根据权利要求1所述的方法,其特征在于,还包括:控制所述关注区域。

4、在所述虚拟现实场景中随所接收头部控制数据的变化而移动;在移动后关注区域的移动属性值小于设定阈值的情况,保持所述控制点的显示位置不动;在所述移动属性值大于或等于所述设定阈值的情况,复位所述控制点到移动后关注区域的中心点。3.根据权利要求2所述的方法,其特征在于,在所述移动属性值大于或等于所述设定阈值的情况,还包括:取消所述手部操作区域与移动前关注区域的位移映射,并重新与移动后的关注区域建立位移映射关系。4.根据权利要求1所述的方法,其特征在于,还包括:接收到移动灵敏度调整操作,更新所述关注区域与所述手部操作区域的位移映射关系;接收到新的手部姿态数据时,按照更新后的位移映射关系确定所述手部姿态数据。

5、在所述关注区域中的映射位置,作为新的目标显示位置;移动所述控制点到所述新的目标显示位置。5.根据权利要求14任一项所述的方法,其特征在于,建立关注区域与手部操作区域位移映射关系的步骤包括:根据手部姿态数据中的手部位置数据,划定手部操作区域,并获取预设置的当前移动灵敏系数;将所述手部操作区域中坐标点与所述关注区域中坐标点通过选定的对齐基准点进行对齐;通过所述当前移动灵敏系数,建立所述手部操作区域中坐标点与所述关注区域中坐标点的位移映射关系。6.根据权利要求1所述的方法,其特征在于,在响应所述控制点作用于所述待交互对象时产生的交互操作之前,还包括:分析所述控制点对触发组件的触发行为,生成作用于所述。

6、待交互对象的交互操作;所述触发组件为所述待交互对象,和/或,为对所述待交互对象进行区域扩展后形成的触发区域。7.根据权利要求6所述的方法,其特征在于,所述触发区域的生成步骤包括:权利要求书1/2 页2CN 116048281 A2检测到所述控制点位于所述待交互对象的边缘区域时,以所述待交互对象的边缘框为起始位置进行等间距离区域扩展;将扩展形成的区域确定为所述触发区域,其中,等间距离的距离值小于所述待交互对象与相邻对象的邻接距离。8.根据权利要求1所述的方法,其特征在于,还包括:接收在所述手部操作区域外生成的区域外姿态数据;移动所述控制点到区域外显示位置,所述区域外显示位置处于所述关注区域外,为。

7、所述区域外姿态数据相对所述虚拟现实场景的场景映射位置。9.根据权利要求6所述的方法,其特征在于,还包括:响应所述控制点作用于所述关注区域外其他待交互对象时产生的交互操作。10.一种虚拟现实场景中的交互装置,其特征在于,包括:第一接收模块,用于接收作用在虚拟现实场景中的头部控制数据;第一展示模块,用于基于所述头部控制数据确定关注区域,并在所述虚拟现实场景中展示关注区域和控制点,所述控制点初始位于所述关注区域的设定位置处,所述关注区域中包括待交互对象;第二接收模块,用于接收在手部操作区域内生成的手部姿态数据,所述手部操作区域与所述关注区域存在位移映射关系;第二展示模块,用于移动所述控制点到目标显示。

8、位置,所述目标显示位置为所述手部姿态数据在所述关注区域中的映射位置;第一响应模块,用于响应所述控制点作用于所述待交互对象时产生的交互操作。11.一种电子设备,其特征在于,包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求19中任一所述的方法。12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求19中任一所述的方法。权利要求书2/2 页3CN 116048281 A3一种虚拟现实场景中的交互方法、装置、设备及存储介质技术领域0001本公开实施例涉及虚拟现实技。

9、术领域,尤其涉及一种虚拟现实场景中的交互方法、装置、设备及存储介质。背景技术0002虚拟现实(virtual reality,VR)技术逐渐应用到人们的生活中。VR可以利用电子设备模拟产生三维的虚拟现实场景,且可以通过虚拟现实设备(如虚拟现实眼镜、虚拟现实头盔等)呈现给用户,在提供在视觉、听觉、触觉或其他感官上的沉浸式体验。0003区别于在移动终端、台式机等设备上的二维平面交互,虚拟现实场景中的交互往往通过手势、手柄、头动及眼动等非接触式交互形式获得更加立体的输入。然而现有往往仅通过手势、手柄、头动及眼动的某一种输入方式在一个场景界面中实现交互。0004现有交互方式存在下述问题:1)存在精确度。

10、低问题,在所呈现二维平面界面距离玩家的虚拟角色很远时,很难选中所呈现界面上的某个较小的按钮或控件,影响了交互精确度;2)存在交互疲劳问题,长时间在一个场景下使用一种交互方式进行交互时(如用手柄来控制进度条进行虚拟网页界面浏览),需要该种交互方式下对应的身体部位一直持续一个状态,或重复做一个动作,容易造成玩家交互疲劳。上述问题均会影响玩家的沉浸式体验。发明内容0005本公开提供一种虚拟现实场景中的交互方法、装置、设备和存储介质,以实现虚拟现实场景中的组合式交互,提高交互便捷性。0006第一方面,本公开实施例提供了一种虚拟现实场景中的交互方法,该虚拟现实场景中的交互方法包括:0007接收作用在虚拟。

11、现实场景中的头部控制数据;0008基于所述头部控制数据确定关注区域,并在所述虚拟现实场景中展示关注区域和控制点,所述控制点初始位于所述关注区域的设定位置处,所述关注区域中包括待交互对象;0009接收在手部操作区域内生成的手部姿态数据,所述手部操作区域与所述关注区域存在位移映射关系;0010移动所述控制点到目标显示位置,所述目标显示位置为所述手部姿态数据在所述关注区域中的映射位置;0011响应所述控制点作用于所述待交互对象时产生的交互操作。0012第二方面,本公开实施例还提供了一种虚拟现实场景中的交互装置,该虚拟现实场景中的交互装置包括:0013第一接收模块,用于接收作用在虚拟现实场景中的头部控。

12、制数据;0014第一展示模块,用于基于所述头部控制数据确定关注区域,并在所述虚拟现实场说明书1/19 页4CN 116048281 A4景中展示关注区域和控制点,所述控制点初始位于所述关注区域的设定位置处,所述关注区域中包括待交互对象;0015第二接收模块,用于接收在手部操作区域内生成的手部姿态数据,所述手部操作区域与所述关注区域存在位移映射关系;0016第二展示模块,用于移动所述控制点到目标显示位置,所述目标显示位置为所述手部姿态数据在所述关注区域中的映射位置;0017第一响应模块,用于响应所述控制点作用于所述待交互对象时产生的交互操作。0018第三方面,本公开实施例还提供了一种电子设备,所。

13、述电子设备包括:0019一个或多个处理器;0020存储装置,用于存储一个或多个程序,0021当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任一实施例所述的虚拟现实场景中的交互方法。0022第四方面,本公开实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本发明任一实施例所述的虚拟现实场景中的交互方法。0023本公开实施例的技术方案,通过提供的虚拟现实场景中的交互方法,可以接收作用在虚拟现实场景中的头部控制数据;基于所述头部控制数据确定关注区域,并在所述虚拟现实场景中展示关注区域和控制点,所述控制点初始位于。

14、所述关注区域的设定位置处,所述关注区域中包括待交互对象;接收在手部操作区域内生成的手部姿态数据,所述手部操作区域与所述关注区域存在位移映射关系;移动所述控制点到目标显示位置,所述目标显示位置为所述手部姿态数据在所述关注区域中的映射位置;响应所述控制点作用于所述待交互对象时产生的交互操作。上述技术方案,在具备与虚拟现实场景的交互需求时,可以通过玩家的头部控制数据(如头部姿态数据或视线数据)先在虚拟现实场景中来粗略确定一个关注区域,然后再通过手部姿态数据在关注区域中映射出的控制点来进行精细化选择。区别于现有交互方案,本技术方案将头部控制数据与手部姿态数据相结合,以组合形式来实现在虚拟现实场景中的交。

15、互。能够有效解决单一交互给身体部位带来的交互疲劳问题;同时,本技术方案先缩小交互范围定位出关注区域然后通过控制点在关注区域中精准选定按钮或控件等交互对象的方式,也降低了难以精准选定交互对象风险,提高了交互精准度,从而提升了玩家在虚拟现实场景中的沉浸式体验。附图说明0024结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。0025图1给出了本公开实施例所提供的一种虚拟现实场景中的交互方法的流程示意图;0026图1a给出了在本实施例所提供虚拟现实场景的。

16、交互方法执行中生成的关注区域及控制点的效果展示图;0027图1b给出了在本实施例所提供虚拟现实场景的交互方法执行中移动控制点在目说明书2/19 页5CN 116048281 A5标显示位置的效果展示图;0028图1c和图1d分别给出了在本实施例所提供虚拟现实场景的交互方法执行中进行关注区域移动的效果展示图;0029图1e和图1f给出了现有基于射线交互方法在多窗口界面场景下进行交互对象选定的效果展示图;0030图1g和图1h给出了基于本实施例所提供方法在多窗口界面场景下进行交互对象选定的效果展示图;0031图1i至图1k给出了本实施例所提供交互方法中避免交互操作误触发的效果展示图;0032图2给。

17、出了本公开实施例所提供的一种虚拟现实场景中的交互装置的结构示意图;0033图3给出了本公开实施例所提供的一种电子设备的结构示意图。具体实施方式0034下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。0035应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的。

18、步骤。本公开的范围在此方面不受限制。0036本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。0037需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。0038需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指。

19、出,否则应该理解为“一个或多个”。0039本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。0040可以理解的是,在使用本公开各实施例公开的技术方案之前,均应当依据相关法律法规通过恰当的方式对本公开所涉及个人信息的类型、使用范围、使用场景等告知用户并获得用户的授权。0041例如,在响应于接收到用户的主动请求时,向用户发送提示信息,以明确地提示用户,其请求执行的操作将需要获取和使用到用户的个人信息。从而,使得用户可以根据提示信息来自主地选择是否向执行本公开技术方案的操作的电子设备、应用程序、服务器或存储介质等软件或硬件提供个人。

20、信息。0042作为一种可选的但非限定性的实现方式,响应于接收到用户的主动请求,向用户说明书3/19 页6CN 116048281 A6发送提示信息的方式例如可以是弹窗的方式,弹窗中可以以文字的方式呈现提示信息。此外,弹窗中还可以承载供用户选择“同意”或者“不同意”向电子设备提供个人信息的选择控件。0043可以理解的是,上述通知和获取用户授权过程仅是示意性的,不对本公开的实现方式构成限定,其它满足相关法律法规的方式也可应用于本公开的实现方式中。0044可以理解的是,本技术方案所涉及的数据(包括但不限于数据本身、数据的获取或使用)应当遵循相应法律法规及相关规定的要求。0045需要说明的是,现有的虚。

21、拟现实场景交互中,往往仅通过手势、手柄、头动或眼动中的一种来进行控制数据输入。如,对于主流的虚拟现实眼镜而言,其往往采用手柄来作为默认的交互方式,而手柄中的射线交互则使用的最多,在虚拟现实场景中,基于手柄进行的射线交互,虚拟现实设备可以接收手柄反馈的数据信息并在视觉效果上来产生射线,手柄在虚拟现实场景中会有相应的投射,可以呈现一个虚拟手柄,玩家可以操控该虚拟手柄,就相当于在真实空间场景中手持激光笔,能够通过虚拟手柄的射线在虚拟现实场景中指向要选择的对象。该种交互方式虽然能给玩家比较直观的体验,但该种交互方式存在的问题就是需要手部维持抬起的动作,手臂或手部肌肉很容易疲劳;此外,射线交互中主要采用。

22、角度数据到平面的转换,交互对象距离玩家越远,射线每一角度变化对应的移动变化就越大,很难精准的选定交互对象。0046又如,在虚拟现实场景中也可以通过眼动或头动的方式来进行交互,然后这些交互方式同样存在交互疲劳以及交互精准度低的问题,且交互方式还存在一些场景限定,有些场景交互无法仅通过头动或眼动的产生的数据来实现。0047基于此,本实施例提供了一种多种输入方式相组合来进行虚拟现实场景交互的交互方法。图1给出了本公开实施例所提供的一种虚拟现实场景中的交互方法的流程示意图,本公开实施例适用于在虚拟现实场景中进行交互的情况,该方法可以由虚拟现实场景中的交互装置来执行,该装置可以通过软件和/或硬件的形式实。

23、现,可选的,通过电子设备来实现,该电子设备优选为虚拟现实设备,如虚拟现实眼镜、虚拟现实头盔等。0048如图1所示,本公开实施例的方法具体可包括:0049S101、接收作用在虚拟现实场景中的头部控制数据。0050在本实施例中,所述虚拟现实场景可认为是利用虚拟现实技术通过虚拟现实设备呈现给玩家的场景画面。其可以通过玩家不同的选择呈现不同的虚拟现实场景。示例性的,可以是选择进入的游戏场景,也可以是信息浏览场景,信息浏览场景可以是远距离呈现一个窗口界面,也可以是多个窗口界面,窗口界面可以是菜单界面、网页界面等。0051在本实施例中,可认为玩家通过选择进入了任一虚拟现实场景,作为本实施例所提供方法执行主。

24、体的虚拟现实设备可以呈现玩家所选择虚拟现实场景的场景画面。0052在本实施例中,所述头部控制数据具体可认为是通过眼动采集装置或头动采集装置捕获到的数据,所述头部控制数据可以是眼动采集装置在玩家眼动时捕获的视线数据,也可以是头动采集装置在玩家头部动作时捕获的头部姿态数据。本步骤可以接收到头动和/或眼动时生成的头部姿态数据或者视线数据。0053S102、基于所述头部控制数据确定关注区域,并在所述虚拟现实场景中展示关注区域和控制点,所述控制点初始位于所述关注区域的设定位置处,所述关注区域中包括待说明书4/19 页7CN 116048281 A7交互对象。0054在本实施例中,接收到的头部控制数据可以。

25、转换为虚拟空间中的姿态信息,比如可以确定玩家在虚拟现实场景中的朝向以及位置等信息,也可以确定玩家的视线方向等信息。在虚拟现实场景中呈现有可视化或者可视化窗口界面,如游戏、地图等场景中的花草树木以及建筑物或其他游戏人物等,又如信息浏览场景中的菜单窗口界面、网页窗口界面等,所呈现的景物或者窗口界面中包括供玩家进行交互的交互对象,如被攻击对象、游戏道具、装备等,又如窗口界面中的各种按钮、控件等。0055本步骤可以通过头部控制数据中的朝向信息或者视线信息,来粗略确定出玩家当前在虚拟现实场景中所关注的一个范围区域,本实施例可以将该范围区域记为关注区域并以可视化形式进行展示,所展示的关注区域可以是一个圆形。

26、或者四边形的平面区域,且关注区域在原则上不能影响虚拟现实场景中其他景物的展示,本步骤可以通过提高透明度的方式来弱化关注区域的呈现。同时,关注区域内对应存在中心点,本实施例可以在该关注区域的中心点处以可视化形式展示一个控制点,也可认为控制点初始呈现在关注区域的中心点处。0056需要说明的是,本实施例所接收的头部控制数据中可能包括头部姿态数据以及视线数据,本步骤可以选择其中一种(如头部姿态数据或者视线数据)来进行关注区域的确定;也可以将两种数据相结合来进行关注区域的确定。0057在其中一种实现方式中,可以通过头部姿态数据来确定玩家在虚拟现实场景中的朝向,本实施例可以沿朝向方向圈定一个设定范围的场景。

27、区域,来作为关注区域,其中,设定范围可以通过玩家的视角范围来设定,并保证设定范围不大于视角范围。0058在另一种实现方式中,可以通过实现数据来确定玩家眼部在虚拟现实场景中的视线方向,本实施例可以沿视线方向圈定一个设定范围的场景区域,来作为关注区域。可以知道的是,本实施例也可以将头部姿态数据和视线数据相结合,先通过头部姿态数据中的朝向方向在虚拟现实场景中确定关注区域的圈定方向,然后通过视线数据中的视线方向来定关注区域的所在位置。0059此外,需要说明的是,本实施例通过头部控制数据圈定关注区域的目的在于对某个待交互对象所处位置的粗略定位所在,其中,待交互对象可认为是虚拟现实场景中呈现的某个景物或者。

28、所呈现窗口界面中的某个按钮/控件。上述步骤接收到的头部控制数据可以认为的是玩家关注到某个待交互对象时由相应捕获装置捕获到的数据,这些数据侧面反映了待交互对象在虚拟现实空间中所处的位置。0060接上述描述,对于玩家而言,当其在所展示的虚拟现实场景选择出要触发的某个交互对象后,可以通过眼动将视线投射到该要触发的交互对象上,也可以通过头动将面部朝向该要触发的交互对象。对于虚拟现实设备而言,与虚拟现实设备配套的眼动采集装置及头动采集装置就相应的捕获到视线数据及头部姿态数据,所捕获的数据就可以作为头部控制数据,并通过本实施例上述S101的步骤来实现数据接收。0061由此,可以认为通过本实施例确定的关注区。

29、域中包含了玩家期望进行交互操作的待交互对象。本步骤呈现的关注区域以及中心点均可以看作交互实现中的视觉效果,能够让玩家在交互中有更好的感观体验。0062示例性的,图1a给出了在本实施例所提供虚拟现实场景的交互方法执行中生成的说明书5/19 页8CN 116048281 A8关注区域及控制点的效果展示图。如图1a所示,所呈现的虚拟现实场景可以是一个窗口界面11,关注区域12展示在该窗口界面11中,控制点13初始位于关注区域12的中心点处,关注区域12中还包括了玩家期望进行交互操作的待交互对象14,该待交互对象14优选展示为一个虚拟按钮。0063S103、接收在手部操作区域内生成的手部姿态数据,所述。

30、手部操作区域与所述关注区域存在位移映射关系。0064在本实施例中,本步骤可以接收到手部姿态数据,该手部姿态数据可认为是玩家手部动作在所构建的手部操作区域内投射形成的数据。其中,所述手部姿态数据可通过对手部姿态捕获装置所捕获数据的投射来获得,所捕获数据具体可以是对玩家手部动作进行捕获并产生的数据,所捕获数据可以是6dof格式的数据,其可以投射在手部操作区域内形成二维形式的手部姿态数据。0065其中,手部姿态捕获装置可优选为与虚拟现实设备配套的手柄,玩家手持手柄进行手部活动时,手柄可以捕获玩家的手部动作并形成相应的6dof数据,相应的,手柄在虚拟现实场景画面中可呈现一个虚拟手柄。0066在本实施例。

31、中,所述手部操作区域可认为是以虚拟手柄当前位置为中心构建形成的一个虚拟平面区域,其可以通过可视化形式临近虚拟手柄展示在虚拟现实场景画面中,或者,仅是在逻辑层面上将玩家手部在真实空间中的活动区域与该虚拟平面区域建立关联,并不以可视化形式呈现在虚拟现实场景画面中。进行手部操作区域构建时,可以以手部的当前位置为中心,形成一个圆形或者四边形的平面区域,圆形的半径或四边形的长宽可以是一个预设值。0067接上述描述,该手部操作区域的执行功能可相当于真实空间内作为计算机设备输入装置的鼠标操控区或者触摸式面板,手柄可对应于鼠标操控区中活动的鼠标,或者对应于触摸式面板中活动的手指或触摸物,真实空间中的计算机设备。

32、,随着鼠标的活动或者对触摸面板的触摸活动,屏幕界面上的光标可进行相应移动。0068在本实施例中,所构建手部操作区域的目的可认为是随着玩家操纵手柄在该手部操作区域内活动,呈现在虚拟现实场景中的控制点也能够在关注区域内活动。而保证控制点在关注区域内移动的关键在于所构建的手部操作区域与关注区域之间建立有位移映射关系。其中,所述手部操作区域与关注区域之间存在的位移映射关系可类似于真实空间中鼠标操控区或者触摸式面板与计算机设备屏幕界面的移动映射关系,通过该位移映射关系具体可用于将在手部操作区域中的移动映射为控制点在关注区域中的移动。0069S104、移动所述控制点到目标显示位置,所述目标显示位置为所述手。

33、部姿态数据在所述关注区域中的映射位置。0070在本实施例中,通过上述接收的手部姿态数据,可以确定出手柄在手部操作区域中的位置信息,通过手部操作区域与关注区域之间的位移映射关系,可以确定出该位置信息在关注区域中的映射位置,该映射位置可以看作控制点的目标显示位置,本步骤可以将控制点由原来的显示位置移动到该目标显示位置,其中,控制点原来的显示位置可以是初始所在的关注区域中心点位置,也可以是控制点随手柄动作而呈现的历史显示位置。0071需要说明的是,本实施例可认为上述S103及S104为可持续更迭执行的步骤,只要手柄在手部操作区域中发生移动,S103就可以实时接收到手部姿态数据,相应的,本步骤就说明书。

34、6/19 页9CN 116048281 A9可以根据S103实时接收的手部姿态数据,来实时确定其在关注区域中对应的映射位置,并可基于映射位置实时进行控制点的移动。同样的,当手柄停留在手部操作区域中对应的某一位置时,控制点也将移动停留在该位置在关注区域对应的映射位置处。0072示例性的,图1b给出了在本实施例所提供虚拟现实场景的交互方法执行中移动控制点在目标显示位置的效果展示图。如图1b所示,虚拟现实场景同样为窗口界面11,窗口界面11中呈现了关注区域12,控制点13可以通过所接收手部姿态数据的变化发生移动,其移动轨迹可以通过第一轨迹线15来表征,可以看出,控制点13最终停留在待交互对象14的可。

35、触发位置处,其中,本示例认为用于手部姿态数据移动的手部操作区域为一个非可视化区域,只存在逻辑层面的数据交互,不进行展示,同时图1b中并未示出虚拟手柄的相关描述。0073S105、响应所述控制点作用于所述待交互对象时产生的交互操作。0074在本实施例中,通过头部控制区域对玩家锁定的待交互对象进行粗略定位形成关注区域后,可以利用控制点在关注区域中移动来对待交互对象进行精细定位。0075示例性的,本实施可以在玩家对手柄的操控下,通过上述S103及S104将控制点移动到待交互对象的呈现位置处,或者,移动到待交互对象关联呈现的触发组件处。控制点处于待交互对象关联的位置处后,可以将玩家对手柄的操控行为转换。

36、为作用在待交互对象上的触发行为,该触发行为可以是点击、拖动、滑动等。0076在本实施例中,通过对作用在待交互对象上的触发行为的分析可以生成相应的交互操作,本步骤可以对生成的该交互操作进行响应,如可以执行点击操作对应的功能逻辑,也可以执行拖动操作对应的功能逻辑等。0077本公开实施例提供的一种虚拟现实场景中的交互方法,在具备与虚拟现实场景的交互需求时,可以通过玩家的头部控制数据(如头部姿态数据或视线数据)先在虚拟现实场景中来粗略确定一个关注区域,然后再通过手部姿态数据在关注区域中映射出的控制点来进行精细化选择。区别于现有交互方案,本技术方案将头部控制数据与手部姿态数据相结合,以组合形式来实现在虚。

37、拟现实场景中的交互。能够有效解决单一交互给身体部位带来的交互疲劳问题;同时,本技术方案先缩小交互范围定位出关注区域然后通过控制点在关注区域中精准选定按钮或控件等交互对象的方式,也降低了难以精准选定交互对象风险,提高了交互精准度,从而提升了玩家在虚拟现实场景中的沉浸式体验。0078作为本公开实施例的第一可选实施例,在上述实施例的基础上,本第一可选实施例可以进一步对上述虚拟现实场景中的交互方法进行优化,具体可以包括下述执行步骤:0079a1)控制所述关注区域在所述虚拟现实场景中随所接收头部控制数据的变化而移动。0080在本实施例中,随着玩家的眼动行为或头动行为,相应的眼动采集装置或头动采集装置捕获。

38、到的视线数据或头部姿态数据也会发生变化,本实施例可以将视线数据和/或头部姿态数据记为头部控制数据,本实施例可以接收到变化后的头部控制数据。且基于上述所描述头部控制数据与关注区域之间的关联,本步骤可以在接收到变化后的头部控制数据时,重新确定其对应的关注区域,并在虚拟现实场景中呈现重确的关注区域。0081考虑到重确关注区域在区域大小以及呈现形态上均未发生变化,在可视化层面相当于关注区域的呈现位置随着头动和/或眼动发生移动。同时,可以知道的是,本实施例可以确定出关注区域移动时相对于在前位置的移动距离,以及移动速度等关注区域的移动属说明书7/19 页10CN 116048281 A10性信息。另外,区。

39、别于关注区域随头部控制数据的实时变化而实时移动,初始呈现于关注区域中心点处的控制点则分情况跟随移动。0082示例性的,为防止头动和/或眼动带来的输入抖动,控制点可以基于移动后关注区域相对在前关注区域的移动属性信息来分情况确定是否跟随关注区域的中心点移动。0083接上述描述,本实施例根据关注区域移动时确定的移动属性信息,来获得跟关注区域的移动距离集移动速度关联的移动属性值,本步骤可以将该移动属性值与预先设置的一个设定阈值作比对。0084b1)在移动后关注区域的移动属性值小于设定阈值的情况,保持所述控制点的显示位置不动。0085具体的,如果移动属性值小于该设定阈值,可以通过本步骤继续保持控制点在关。

40、注区域移动前所处的显示位置不动。0086c1)在所述移动属性值大于或等于所述设定阈值的情况,复位所述控制点到移动后关注区域的中心点。0087具体的,如果移动属性值大于或等于该设定阈值,则可以通过本步骤来控制控制点的显示位置移动,并具体复位显示在移动后关注区域的中心点处。0088图1c和图1d分别给出了在本实施例所提供虚拟现实场景的交互方法执行中进行关注区域移动的效果展示图,如图1c所示,关注区域12由原来位置(颜色较浅圆形区域)移动到当前位置(颜色较深圆形区域),可以看出图1c中关注区域12的移动距离较短,相对于的移动属性值也较小,基于上述步骤的描述,可认为此时的移动属性值小于设定阈值,由此,。

41、图1c中的控制点13依旧处于原有显示位置,并不随关注区域12的移动而随之移动。0089如图1d所示,关注区域12由原来位置(颜色较浅圆形区域)移动到当前位置(颜色较深圆形区域),可以看出图1d中关注区域12的移动距离相对较长,所对应的移动属性值也较大,基于上述步骤的描述,可认为此时的移动属性值大于设定阈值,由此,图1d中的控制点13在关注区域12移动到当前位置后,其显示位置也由原始显示位置复位到关注区域12的中心点处。0090上述第一可选实施例,相当于在上述实施例基础上对虚拟现实场景中交互方法的功能扩展,其进一步说明了关注区域与头部控制数据的关联关系,当玩家在虚拟现实场景中期望的待交互对象发生。

42、调整时,就可以通过眼动和/或头动操作来改变头部控制数据,以此通过关注区域的移动来对新的待交互对象进行粗略定位。进一步说明了组合交互方式在实际应用中的有效性,更好的提升了玩家体验。0091在上述第一可选实施例的基础上,也可以进一步对上述虚拟现实场景中的交互方法进行优化,在所述移动属性值大于或等于所述设定阈值的情况下,具体还可以包括:0092取消所述手部操作区域与移动前关注区域的位移映射,并与移动后的关注区域建立位移映射关系。0093本实施例所提供方法中实现头部、眼部及手部组合式输入进行交互控制的关键在于将手部动作对应的手部操作区域与眼部及头部关联的关注区域建立位移映射,使得控制点能够通过手部动作。

43、在关注区域内进行精细化移动。可以知道的是,当关注区域在虚拟现实场景中的位置发生变化时,手部操作区域与原有关注区域之间存在映射关系将无法支持控制点后续的移动操作,为保证控制点后续在关注区域内的正常移动,可以通过本第一可说明书8/19 页11CN 116048281 A11选实施例中的该步骤来取消手部操作区域与移动前原有关注区域的位移映射,并重新建立手部操作区域与移动后关注区域的位移映射关系。0094需要说明的是,本实施例可以基于本步骤在关注区域移动过程中实时更新手部操作区域与其建立位移映射关系,但考虑到计算资源的占用以及非必要性,本实施例可优选只对移动后稳定呈现的关注区域建立其与手部操作区域的位。

44、移映射关系。0095同样需要说明的是,手部操作区域以玩家所持有手柄在虚拟现实场景中所呈现虚拟手柄的手柄位置为关键信息来构建,因此,当虚拟手柄的位置变化满足设定条件时,手部操作区域的区域位置也存在变化的可能,当手部操作区域的区域位置发生变化时,同样需要重新构建其与关注区域的位移映射关系。0096在本实施例中,对于手部操作区域与关注区域位移映射关系的构建,其可以通过将手部操作区域中坐标点与关注区域中坐标点在同一坐标系下相互对齐,并赋予给定的移动灵敏系数来实现。0097示例性的,所建立的位移映射关系表现出的效果可以描述为:操控手柄在手部操作区域以第一移动轨迹进行移动,可以获取到第一移动轨迹上的手部操。

45、作区域坐标点;基于位移映射关系,可以确定出第一移动轨迹上的手部操作区域坐标点在关注区域上对齐的关注区域坐标点,基于确定的关注区域坐标点构成的第二移动轨迹就可以认为时操控手柄时在关注区域中响应后所呈现的轨迹。0098本第一可选实施例上述技术实现同样说明了组合交互方式在实际应用中的有效性,更好的提升了玩家体验。0099为更好的说明本实施例所提供方法的在交互疲劳以及交互精确度上的有效改进,本实施例通过下述示例来进行效果说明。本示例以包含多个窗口界面的信息浏览场景为例,当玩家想要进行交互的交互对象由其中一个窗口界面变换到另一个窗口界面时,如果想要对另一窗口界面上的新待交互对象进行交互操作,则采用现有的。

46、手柄射线进行交互时,需要大幅度的移动手柄,来保证移动后的射线能够指向另一窗口界面中的新待交互对象。0100图1e和图1f给出了现有基于射线交互方法在多窗口界面场景下进行交互对象选定的效果展示图。如图1e和图1f所示,具体给出了虚拟现实场景的俯视图,其中,第一窗口界面110和第二窗口界面111分别呈现为两条线段,并给出了虚拟手柄16在俯视图下的展示。图1e给出了跨窗口界面交互前的初始呈现的状态,此时虚拟手柄16指向第一窗口界面110中的任一待交互对象,且视觉效果上可以呈现一条射线100。图1f给出了跨窗口界面交互的过程呈现,该交互过程中,玩家将控制虚拟手柄16进行大角度范围值1000的移动,从而。

47、使视觉效果的射线100由第一窗口界面110指向第二窗口界面上的某个待交互对象。0101可以看出现有交互实现中仅依赖虚拟手柄进行交互输入,多窗口界面的切换需要进行大角度范围值的移动,玩家体验并不好。0102接上述描述,采用本实施例所提供交互方法进行多窗口界面的切换时,只需要先通过玩家头动或眼动,来将关注区域由一个窗口界面切换到另一个窗口界面上进行呈现,然后只需在呈现的关注区域内对手柄进行小角度范围的转动即可通过控制点定位到新的待交互对象。0103图1g和图1h给出了基于本实施例所提供方法在多窗口界面场景下进行交互对象说明书9/19 页12CN 116048281 A12选定的效果展示图。如图1g。

48、和图1h所示,同样给出了虚拟现实场景的俯视图,其中,第一窗口界面110和第二窗口界面111分别呈现为两条线段,同样给出了虚拟手柄16在俯视图下的展示。图1g给出了跨窗口界面交互前的初始呈现状态,此时虚拟手柄16对应的控制点在第一窗口界面110的关注区域内呈现,其中,图中采用了第二射线130来表示控制点与虚拟手柄16的视觉效果。图1h给出了本实施例方法跨窗口界面交互的过程呈现,该交互过程中,玩家只需扭动头部,使得玩家面部朝向该第二窗口界面111,或者玩家转动眼部,使得眼部视线方向处于该第二窗口界面111上。并可以通过在第二窗口界面111上的面部朝向或者视线方向来呈现一个用于粗略定位新待交互对象的。

49、关注区域图1f中以虚射线来表示虚拟手柄16与关注区域中控制点的俯视视觉效果,之后可以小角度范围值1300的转动虚拟手柄16,使得控制点能够指向处于该关注区域内的新待交互对象。此时,控制点与虚拟手柄的俯视视觉效果可以通过第二射线130来体现。0104可以看出,本实施例提供的交互方法中,基于头动、眼动及手部动作的组合方式来实现交互操作的响应,能够更好的解决交互疲劳以及交互精确度低的问题,有效提升了玩家体验。0105作为本公开实施例的第二可选实施例,在上述实施例的基础上,本第二可选实施例可以进一步对上述虚拟现实场景中的交互方法进行优化,具体可以包括下述执行步骤:0106a2)接收到移动灵敏度调整操作。

50、,更新所述关注区域与所述手部操作区域的位移映射关系。0107在本实施例中,手柄在手部操作区域中一次移动的位移,与控制点在关注区域中的所对应位移的长度值,可以根据移动灵敏度的不同来进行调整。本实施例可以通过某一按键或者手势来通过生成的移动灵敏度调整操作来启动移动灵敏度的调整。0108本步骤可以在接收到移动灵敏度调整操作后,来更新所述关注区域与所述手部操作区域的位移映射关系,以调整移动灵敏度。可以知道的是,如果接收到的移动灵敏度调整操作想要降低移动灵敏度,则可以通过调整关注区域与手部操作区域的位移映射关系,来减少手柄进行一次移动时控制点在关注区域中映射的位移长度值。该种情况在效果呈现上相当于玩家移。

展开阅读全文
内容关键字: 虚拟现实 场景 中的 交互 方法 装置 设备 存储 介质
关于本文
本文标题:虚拟现实场景中的交互方法、装置、设备及存储介质.pdf
链接地址:https://www.zhuanlichaxun.net/pdf/14203071.html
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2017-2018 zhuanlichaxun.net网站版权所有
经营许可证编号:粤ICP备2021068784号-1 
 


收起
展开