基于虚拟现实的操控方法、装置及电子设备与流程

未命名 09-24 阅读:45 评论:0


1.本公开涉及虚拟现实技术领域,尤其涉及一种基于虚拟现实的操控方法、装置及电子设备。


背景技术:

2.随着社会生产力和科学技术的不断发展,各行各业对虚拟现实(virtual reality,vr)技术的需求日益旺盛。vr技术也取得了巨大进步,并逐步成为一个新的科学技术领域。
3.目前,用户在使用虚拟现实设备去体验虚拟现实图像效果的过程中,可通过实体设备按钮进行操控,如设置菜单等,以满足用户常用功能操作。
4.然而,这种实体设备按钮容易损坏,进而容易影响到用户的操控。并且这种方式给用户所带来的科技感也较差,也影响了用户一定的使用体验。


技术实现要素:

5.有鉴于此,本公开提供了一种基于虚拟现实的操控方法、装置及电子设备,主要目的在于改善目前通过实体设备按钮进行操控的方式,由于实体设备按钮容易损坏,进而会容易影响到用户的操控,并且这种方式给用户所带来的科技感也较差,从而影响了用户使用体验的技术问题。
6.第一方面,本公开提供了一种基于虚拟现实的操控方法,包括:
7.监测摄像头对用户拍摄的图像信息;
8.识别所述图像信息中的目标对象的动作信息;
9.根据所述目标对象的动作信息,在虚拟现实空间中显示至少一交互组件模型,以及执行用户所选交互组件模型预先绑定的交互功能事件。
10.第二方面,本公开提供了一种基于虚拟现实的操控装置,包括:
11.监测模块,被配置为监测摄像头对用户拍摄的图像信息;
12.识别模块,被配置为识别所述图像信息中的目标对象的动作信息;
13.显示模块,被配置为根据所述目标对象的动作信息,在虚拟现实空间中显示至少一交互组件模型,以及执行用户所选交互组件模型预先绑定的交互功能事件。
14.第三方面,本公开提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面所述的基于虚拟现实的操控方法。
15.第四方面,本公开提供了一种电子设备,包括存储介质、处理器及存储在存储介质上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现第一方面所述的基于虚拟现实的操控方法。
16.借由上述技术方案,本公开提供的一种基于虚拟现实的操控方法、装置及电子设备,与目前通过实体设备按钮进行操控的方式相比,本公开提出一种无需借助实体设备按钮进行vr操控的改进方案。具体的,在vr设备侧可首先监测摄像头对用户拍摄的图像信息;
再识别图像信息中的目标对象的动作信息;然后根据识别到的该目标对象的动作信息,在虚拟现实空间中显示至少一交互组件模型,以及执行用户所选交互组件模型预先绑定的交互功能事件。通过应用本公开的技术方案,可有效改善由于实体设备按钮容易损坏,进而会容易影响到用户操控的技术问题。给用户所带来的科技感更强,提高了用户的vr使用体验。
17.上述说明仅是本公开技术方案的概述,为了能够更清楚了解本公开的技术手段,而可依照说明书的内容予以实施,并且为了让本公开的上述和其它目的、特征和优点能够更明显易懂,以下特举本公开的具体实施方式。
附图说明
18.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
19.为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
20.图1示出了本公开实施例提供的一种基于虚拟现实的操控方法的流程示意图;
21.图2示出了本公开实施例提供的另一种基于虚拟现实的操控方法的流程示意图;
22.图3示出了本公开实施例提供的悬浮球形式的交互组件模型的显示示例效果的示意图;
23.图4示出了本公开实施例提供的点击交互组件模型的显示示例效果的示意图;
24.图5示出了本公开实施例提供的应用场景的交互组件模型的显示示例效果的示意图;
25.图6示出了本公开实施例提供的应用场景的拍摄器模型的显示示例效果的示意图;
26.图7示出了本公开实施例提供的一种基于虚拟现实的操控装置的结构示意图。
具体实施方式
27.下面将参照附图更详细地描述本公开的实施例。需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
28.为了改善目前通过实体设备按钮进行操控的方式,由于实体设备按钮容易损坏,进而会容易影响到用户的操控,并且这种方式给用户所带来的科技感也较差,从而影响了用户使用体验的技术问题。本实施例提供了一种基于虚拟现实的操控方法,如图1所示,可应用于vr设备端侧,该方法包括:
29.步骤101、监测摄像头对用户拍摄的图像信息。
30.摄像头可与vr设备连接,用户在使用vr设备的过程中,摄像头可对用户进行拍摄,得到图像信息。例如,可对用户的全身进行拍摄,或者对用户的特定部位进行拍摄等,具体可根据实际需求预先设定。本实施例可通过图像监测的方式,来获取到用户的操控指令,无需借助实体设备按钮进行vr操控。
31.步骤102、识别图像信息中的目标对象的动作信息。
32.目标对象可预先进行设定,即vr设备系统以图像信息中的哪个参考目标进行识
别,得到用户的vr操控指令。如目标对象可包括:用户手部、和/或用户腿部、和/或用户头部、和/或用户腰部、和/或用户臀部、和/或用户穿戴设备等。
33.对于本实施例,可根据识别到的该目标对象的动作信息,判断是否符合显示交互组件模型的预设条件。其中,交互组件模型可为用于交互的组件模型,这些交互组件模型各自预先绑定有交互功能事件,进而用户可通过选择其中的交互组件模型来实现对应的vr交互功能。本实施例中可针对图像监测的目标对象,预先设定显示这些交互组件模型的条件。例如,用户手部、和/或用户腿部、和/或用户头部、和/或用户腰部、和/或用户臀部、和/或用户穿戴设备等满足一定的动作要求,即可判定符合显示这些交互组件模型的条件,进而可在虚拟现实空间中显示交互组件模型,并可根据目标对象后续的动作信息内容,执行用户所选交互组件模型预先绑定的交互功能事件,即执行步骤103所示的过程。
34.步骤103、根据目标对象的动作信息,在虚拟现实空间中显示至少一交互组件模型,以及执行用户所选交互组件模型预先绑定的交互功能事件。
35.例如,预先将这些交互组件模型的三维空间位置与用户本身虚拟角色的三维空间位置进行绑定,然后基于用户本身虚拟角色实时的三维空间位置,确定这些交互组件模型当前显示的三维空间位置,进而依据此位置显示这些交互组件模型,使得这些交互组件模型呈现在用户虚拟角色的面前,如呈现出手环形式的多个交互组件模型等。
36.在唤起显示交互组件模型之后,本实施例可继续监测对用户拍摄的图像信息,通过识别图像信息中用户手部、和/或用户腿部、和/或用户头部、和/或用户腰部、和/或用户臀部、和/或用户穿戴设备等的动作信息,确定用户在显示的交互组件模型中所选的目标交互组件模型,进而可执行该目标交互组件模型预先绑定的交互功能事件,来实现对应的vr交互功能。
37.与目前通过实体设备按钮进行操控的方式相比,本实施例提出了一种无需借助实体设备按钮进行vr操控的改进方案。具体可通过图像监测的方式,来获取到用户的操控指令。本实施例的改进方案可有效改善由于实体设备按钮容易损坏,进而会容易影响到用户操控的技术问题。给用户所带来的科技感更强,提高了用户的vr使用体验。
38.进一步的,作为上述实施例的细化和扩展,为了完整说明本实施例方法的具体实现过程,本实施例提供了如图2所示的具体方法,该方法包括:
39.步骤201、监测摄像头对用户拍摄的图像信息。
40.步骤202、根据图像信息中的目标对象,判断是否符合显示交互组件模型的预设条件。
41.以目标对象包括用户手部为例,相应可选的,步骤202具体可包括:首先识别图像信息中的用户手势信息;然后判断该用户手势信息是否与预设手势信息匹配;若用户手势信息与预设手势信息匹配,则判定符合显示交互组件模型的预设条件,进而可在虚拟现实空间中显示至少一交互组件模型,也可认为是步骤103中显示交互组件模型的一种具体可选方式。
42.在本可选实施例中,对于可唤起显示交互组件模型的预设手势信息可根据实际需求预先设置,如用户做出剪刀手的手势可触发唤起显示交互组件模型,也可做到不同的预设手势信息可唤起显示的交互组件模型也不同。这种通过用户手势识别来唤起显示交互组件模型的方式,可方便用户操控,提高了用户对vr操控的效率。
43.示例性的,判断用户手势信息是否与预设手势信息匹配,具体可包括:若用户手部抬起幅度大于预设幅度阈值(可根据实际需求预先设置),则判定用户手势信息与预设手势信息匹配。
44.例如,如图3所示,基于图像识别技术,用户抬起手部可唤出如悬浮球形式的交互组件模型,其中,每个悬浮球各自代表一种操控功能,后续用户可基于悬浮球功能进行交互。如图3所示,悬浮球1、2、3、4、5从左往右依次可包括:“离开房间”、“拍摄”、“发表情”、“发弹幕”、“菜单”等交互组件模型。
45.而以目标对象包括用户手持设备(如手柄设备)为例,相应可选的,步骤202具体可包括:首先识别图像信息中的手持设备位置信息;然后判断手持设备位置信息是否符合预设的位置变化规则;若手持设备位置信息符合预设的位置变化规则,则判定符合显示交互组件模型的预设条件,进而可在虚拟现实空间中显示至少一交互组件模型,也可认为是步骤103中显示交互组件模型的另一种具体可选方式。
46.在本可选实施例中,对于可唤起显示交互组件模型的手持设备的预设位置变化规则可根据实际需求预先设置,如用户手持设备做出空中画圈的动作可触发唤起显示交互组件模型,也可做到不同的预设位置变化规则能够唤起显示的交互组件模型也不同。这种通过用户手持设备位置变化识别来唤起显示交互组件模型的方式,由于vr设备可对用户手持设备使用多种传感器对其进行检测,因此可有效辅助进行精准判别是否符合唤起显示交互组件模型的预设条件,在方便用户操控的同时,可有效提高用户对vr操控的精确性。
47.示例性的,判断手持设备位置信息是否符合预设的位置变化规则,具体包括:若手持设备抬起幅度大于预置幅度阈值(可根据实际需求预先设置),则判定手持设备位置信息符合预设的位置变化规则。
48.例如,与图3所示的示例类似,基于图像识别技术,用户抬起手持设备可唤出如悬浮球形式的交互组件模型,其中,每个悬浮球各自代表一种操控功能,后续用户可基于悬浮球功能进行交互。
49.进一步的,对于本实施例,为了防止用户误操作(如用户在体验vr游戏中,一些游戏中的常规手势操控行为可能会唤起显示交互组件模型,进而会影响到用户的vr游戏体验),还可结合用户所在的场景和/或用户焦点处于的区域,来综合判断是否符合显示交互组件模型的预设条件。
50.例如,在用户处于特定vr场景,和/或用户焦点触发显示了vr控制器等情况下,再根据图像信息中的目标对象,判断是否符合显示交互组件模型的预设条件。通过这种综合判别方式,可防止用户误操作唤起显示交互组件模型,保证用户vr体验的流畅性,进而可提升用户的vr使用体验。
51.步骤203、若判定符合显示交互组件模型的预设条件,则通过识别图像信息中的目标对象,在虚拟现实空间中显示交互组件模型的同时,一并显示与目标对象对应的虚拟对象模型。
52.其中,虚拟对象模型能够跟随目标对象的运动进行动态变化显示。在本实施例中,可根据图像信息中目标对象的运动,映射到虚拟现实空间当中,使得目标对象的虚拟对象模型能够跟随该目标对象运动。例如,通过识别用户手部图像,在虚拟现实空间中显示交互组件模型的同时,显示用户的虚拟手部图像,该虚拟手部图像能够跟随用户手部图像的手
部动作信息进行动态变化显示。再例如,通过识别用户手持设备图像,在虚拟现实空间中显示交互组件模型的同时,显示虚拟的手持设备图像,该虚拟的手持设备图像能够跟随用户手持设备图像的设备移动信息进行动态变化显示。
53.通过这种可选方式,使得用户可参考自己在虚拟现实空间中所呈现的虚拟对象模型(如虚拟手部或虚拟手持设备等),做出动作来完成在显示的交互组件模型中点击选择自己所需功能的交互组件模型。便于用户操控,可提高用户对vr操控的效率。
54.为了进一步便于用户操控,增强科技感,可选的,步骤203具体可包括:基于虚拟对象模型的空间位置变化,动态调整交互组件模型的空间显示位置,使得交互组件模型能够跟随虚拟对象模型进行运动显示。对于本可选方式,可预先将虚拟对象模型的空间位置与交互组件模型的空间显示位置进行绑定,进而在虚拟对象模型的空间位置变化时,交互组件模型也能够跟随虚拟对象模型进行运动显示。例如,用户手部运动时,在虚拟现实空间中的虚拟手部不但会跟随运动,而且显示的交互组件模型也会跟随运动,便于用户找准所需要选择的交互组件模型的位置,进而精确点击选择该交互组件模型。
55.而为了显示方便,可选的,步骤203具体可包括:在虚拟对象模型的预设范围内显示交互组件模型。例如,在显示虚拟手部的同时,显示如悬浮球形式的交互组件模型,并且这些悬浮球可在虚拟手部附近的区域范围内显示,便于用户选择操控。
56.在用户唤起显示交互组件模型之后,具体可通过执行步骤204至206所示的过程,实现用户所需的交互功能。
57.步骤204、通过识别目标对象的位置,映射到虚拟现实空间中,确定相应第一点击标志的空间位置。
58.步骤205、若第一点击标志的空间位置与交互组件模型中的目标交互组件模型的空间位置匹配,则确定目标交互组件模型为用户所选的交互组件模型。
59.步骤206、执行目标交互组件模型预先绑定的交互功能事件。
60.例如,如图4所示,用户可通过左手抬起的动作,使得在虚拟现实空间中映射的用户虚拟左手进入到用户当前的视角范围内,来唤起显示如悬浮球形式的交互组件模型,然后通过移动右手来选择点击其中的交互组件模型。在vr设备侧,会根据用户的手部图像,通过识别用户右手的位置,映射到虚拟现实空间中,确定相应点击标志的空间位置,如果该点击标志的空间位置与“发表情”的交互组件模型的空间位置匹配,则用户选择点击了该“发表情”功能;最后执行该“发表情”的交互组件模型预先绑定的交互功能事件,即触发调用发表情功能,进而显示出表情面板模型。
61.而在实际应用中,触发显示的功能面板中可能会存在多个选项,为了实现进一步的选项操控,可选的,步骤206具体可包括:首先在虚拟现实空间中显示目标交互组件模型对应的选项面板模型;再通过识别目标对象的位置,映射到虚拟现实空间中,确定相应第二点击标志的空间位置;若第二点击标志的空间位置与选项面板中的目标选项的空间位置匹配,则确定目标选项为用户在选项面板中所选的选项,并触发执行相应的事件。
62.例如,如图4所示,在显示“发表情”的功能面板模型后,上面会存在多个表情选项,用户可通过移动右手来选择点击其中的表情选项。在vr设备侧,会根据用户的手部图像,通过识别用户右手的位置,映射到虚拟现实空间中,确定相应点击标志的空间位置,如果该点击标志的空间位置与“惊吓”的表情选项的空间位置匹配,则用户选择点击了该“惊吓”的表
情选项;最后执行发送该“惊吓”的表情,进而可在用户本身虚拟角色的头部上方显示该“惊吓”的表情样式图像。
63.上述实施例内容说明了交互组件模型如何唤起显示以及如何点击选择使用的具体过程,而在不需要显示该交互组件模型时,为了方便用户操控,进一步可选的,上述在虚拟现实空间中显示至少一交互组件模型之后,本实施例方法还可包括:根据图像信息中的目标对象,判断是否符合取消显示交互组件模型的预置条件(可根据实际需求进行预先设置);若判定符合取消显示交互组件模型的预置条件,则在虚拟现实空间中取消显示这些交互组件模型。
64.示例性的,上述根据图像信息中的目标对象,判断是否符合取消显示交互组件模型的预置条件,具体可包括:基于图像信息中的用户手势信息或手持设备位置信息,确定是否符合取消显示交互组件模型的预置条件。例如,用户左手抬起一定幅度,使得在虚拟现实空间中映射的用户虚拟左手进入到用户当前的视角范围内,来唤起显示交互组件模型;而在用户不需要显示这些交互组件模型时,可将抬起的左手放下,使得在虚拟现实空间中映射的用户虚拟左手脱离至用户当前的视角范围外,可取消显示这些交互组件模型,而在需要显示交互组件模型时,再抬起左手即可。
65.为了说明上述各实施例的具体实施过程,应用本实施例的方法给出如下应用示例,但不限于此:
66.目前基于vr技术可使用户观看到虚拟的现场直播等视频内容,如用户佩戴vr设备后进入到虚拟的演唱会现场,观看演出内容,犹如身在现场的感觉。
67.而为了满足用户在观看vr视频过程中的拍摄需求,基于本实施例方法的内容,可利用摄像头拍摄用户手部图像或用户手持设备图像,并基于图像识别技术对该图像中的用户手部手势或手持设备位置变化进行判断,若判定用户手部或用户手持设备抬起一定幅度,使得在虚拟现实空间中映射的用户虚拟手部或虚拟手持设备进入到用户当前的视角范围内,则可在虚拟现实空间中唤起显示交互组件模型。如图5所示,基于图像识别技术,用户抬起手持设备可唤出如悬浮球形式的交互组件模型,其中,每个悬浮球各自代表一种操控功能,用户可基于悬浮球功能进行交互。如图5所示,具体可包括:“离开房间”、“拍摄”、“发表情”、“发弹幕”、“2d直播”等交互组件模型。
68.在唤出如悬浮球形式的交互组件模型后,根据后续监测到的用户手部图像或用户手持设备图像,通过识别用户手部或用户手持设备的位置,映射到虚拟现实空间中,确定相应点击标志的空间位置,如果该点击标志的空间位置与显示的这些交互组件模型中的目标交互组件模型的空间位置匹配,则确定目标交互组件模型为用户所选的交互组件模型;最后执行目标交互组件模型预先绑定的交互功能事件。
69.用户可通过左手的手柄抬起来唤起显示如悬浮球形式的交互组件模型,然后通过移动右手的手柄位置选择点击其中的交互组件。在vr设备侧,会根据用户的手柄图像,通过识别右手手柄的位置,映射到虚拟现实空间中,确定相应点击标志的空间位置,如果该点击标志的空间位置与“拍摄”的交互组件模型的空间位置匹配,则用户选择点击了该“拍摄”功能;最后执行该“拍摄”的交互组件模型预先绑定的交互功能事件,即触发调用拍摄功能。在虚拟现实图像中,选择与拍摄器模型的拍摄范围所对应的场景信息渲染到纹理。在虚拟现实空间中显示拍摄器模型,并将渲染得到的纹理贴图放置在拍摄器模型预设的取景框区域
内。
70.如图6所示,用户点击了“拍摄”功能的悬浮球后,可展示相应的拍摄功能面板,进而虚拟现实空间中显示如自拍杆相机形式的拍摄器模型,然后在取景框中显示取景画面。如果用户需要拍摄自己所期望的拍摄范围内的图像信息,可通过输入拍摄范围的调整指令,对拍摄器模型的拍摄范围进行动态调整。
71.与现有录屏的方式不同,本实施例方案这种虚拟拍摄方式是对所选范围内的vr场景信息实时渲染到纹理,然后再贴到取景框的区域内,无需借助实体相机模块的那些传感器,因此可保证拍摄图像的画面质量。并且在拍摄器移动过程中,能够实时将动态移动拍摄范围内的vr场景内容呈现在预设的取景框区域内,取景画面展示效果不会受到拍摄器摆动等因素的影响,可很好地模拟出用户真实拍摄的感受,进而可提升用户的vr使用体验。而相比于使用实体设备按钮进行触发拍摄功能调用的方式,本实施例方案提出无需借助实体设备按钮进行vr操控的改进方案,可改善由于实体设备按钮容易损坏,进而会容易影响到用户操控的技术问题。
72.进一步的,作为图1和图2所示方法的具体实现,本实施例提供了一种基于虚拟现实的操控装置,如图7所示,该装置包括:监测模块31、识别模块32、显示模块33。
73.监测模块31,被配置为监测摄像头对用户拍摄的图像信息;
74.识别模块32,被配置为识别所述图像信息中的目标对象的动作信息;
75.显示模块33,被配置为根据所述目标对象的动作信息,在虚拟现实空间中显示至少一交互组件模型,以及执行用户所选交互组件模型预先绑定的交互功能事件。
76.在具体的应用场景中,可选的,所述目标对象包括:用户手部;相应的,显示模块33,具体被配置为识别所述图像信息中的用户手势信息;判断所述用户手势信息是否与预设手势信息匹配;若所述用户手势信息与预设手势信息匹配,则在虚拟现实空间中显示至少一交互组件模型。
77.在具体的应用场景中,显示模块33,具体还被配置为若用户手部抬起幅度大于预设幅度阈值,则判定所述用户手势信息与预设手势信息匹配。
78.在具体的应用场景中,可选的,所述目标对象包括:用户手持设备;相应的,显示模块33,具体被配置为识别所述图像信息中的手持设备位置信息;判断所述手持设备位置信息是否符合预设的位置变化规则;若所述手持设备位置信息符合预设的位置变化规则,则在虚拟现实空间中显示至少一交互组件模型。
79.在具体的应用场景中,显示模块33,具体还被配置为若手持设备抬起幅度大于预置幅度阈值,则判定所述手持设备位置信息符合预设的位置变化规则。
80.在具体的应用场景中,显示模块33,具体被配置为在虚拟现实空间中显示所述交互组件模型的同时,一并显示与所述目标对象对应的虚拟对象模型,其中,所述虚拟对象模型能够跟随所述目标对象的运动进行动态变化显示。
81.在具体的应用场景中,显示模块33,具体还被配置为基于所述虚拟对象模型的空间位置变化,动态调整所述交互组件模型的空间显示位置,使得所述交互组件模型能够跟随所述虚拟对象模型进行运动显示。
82.在具体的应用场景中,显示模块33,具体还被配置为在所述虚拟对象模型的预设范围内显示所述交互组件模型。
83.在具体的应用场景中,显示模块33,具体被配置为通过识别所述目标对象的位置,映射到虚拟现实空间中,确定相应第一点击标志的空间位置;若所述第一点击标志的空间位置与所述交互组件模型中的目标交互组件模型的空间位置匹配,则确定所述目标交互组件模型为用户所选的交互组件模型;执行所述目标交互组件模型预先绑定的交互功能事件。
84.在具体的应用场景中,显示模块33,具体还被配置为在虚拟现实空间中显示所述目标交互组件模型对应的选项面板模型;通过识别所述目标对象的位置,映射到虚拟现实空间中,确定相应第二点击标志的空间位置;若所述第二点击标志的空间位置与所述选项面板中的目标选项的空间位置匹配,则确定所述目标选项为用户在所述选项面板中所选的选项,并触发执行相应的事件。
85.在具体的应用场景中,显示模块33,还被配置为在虚拟现实空间中显示至少一交互组件模型之后,根据所述图像信息中的目标对象,判断是否符合取消显示交互组件模型的预置条件;若判定符合取消显示交互组件模型的预置条件,则在虚拟现实空间中取消显示所述至少一交互组件模型。
86.在具体的应用场景中,显示模块33,具体还被配置为基于所述图像信息中的用户手势信息或手持设备位置信息,确定是否符合取消显示交互组件模型的预置条件。
87.需要说明的是,本实施例提供的一种基于虚拟现实的操控处理装置所涉及各功能单元的其它相应描述,可以参考图1和图2中的对应描述,在此不再赘述。
88.基于上述如图1和图2所示方法,相应的,本实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述如图1和图2所示的基于虚拟现实的操控方法。
89.基于这样的理解,本公开的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是cd-rom,u盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施场景的方法。
90.基于上述如图1和图2所示的方法,以及图7所示的虚拟装置实施例,为了实现上述目的,本公开实施例还提供了一种电子设备,具体可以为虚拟现实设备,如vr头戴设备等,该设备包括存储介质和处理器;存储介质,用于存储计算机程序;处理器,用于执行计算机程序以实现上述如图1和图2所示的基于虚拟现实的操控方法。
91.可选的,上述实体设备还可以包括用户接口、网络接口、摄像头、射频(radio frequency,rf)电路,传感器、音频电路、wi-fi模块等等。用户接口可以包括显示屏(display)、输入单元比如键盘(keyboard)等,可选用户接口还可以包括usb接口、读卡器接口等。网络接口可选的可以包括标准的有线接口、无线接口(如wi-fi接口)等。
92.本领域技术人员可以理解,本实施例提供的上述实体设备结构并不构成对该实体设备的限定,可以包括更多或更少的部件,或者组合某些部件,或者不同的部件布置。
93.存储介质中还可以包括操作系统、网络通信模块。操作系统是管理上述实体设备硬件和软件资源的程序,支持信息处理程序以及其它软件和/或程序的运行。网络通信模块用于实现存储介质内部各组件之间的通信,以及与信息处理实体设备中其它硬件和软件之间通信。
94.通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本公开可以借助软件加必要的通用硬件平台的方式来实现,也可以通过硬件实现。通过应用本实施例的方案,可有效改善由于实体设备按钮容易损坏,进而会容易影响到用户操控的技术问题。给用户所带来的科技感更强,提高了用户的vr使用体验。
95.需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
96.以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所述的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

技术特征:
1.一种基于虚拟现实的操控方法,其特征在于,包括:监测摄像头对用户拍摄的图像信息;识别所述图像信息中的目标对象的动作信息;根据所述目标对象的动作信息,在虚拟现实空间中显示至少一交互组件模型,以及执行用户所选交互组件模型预先绑定的交互功能事件。2.根据权利要求1所述的方法,其特征在于,所述目标对象包括:用户手部;所述根据所述目标对象的动作信息,在虚拟现实空间中显示至少一交互组件模型,具体包括:识别所述图像信息中的用户手势信息;判断所述用户手势信息是否与预设手势信息匹配;若所述用户手势信息与预设手势信息匹配,则在虚拟现实空间中显示至少一交互组件模型。3.根据权利要求2所述的方法,其特征在于,所述判断所述用户手势信息是否与预设手势信息匹配,具体包括:若用户手部抬起幅度大于预设幅度阈值,则判定所述用户手势信息与预设手势信息匹配。4.根据权利要求1所述的方法,其特征在于,所述目标对象包括:用户手持设备;所述根据所述目标对象的动作信息,在虚拟现实空间中显示至少一交互组件模型,具体包括:识别所述图像信息中的手持设备位置信息;判断所述手持设备位置信息是否符合预设的位置变化规则;若所述手持设备位置信息符合预设的位置变化规则,则在虚拟现实空间中显示至少一交互组件模型。5.根据权利要求4所述的方法,其特征在于,所述判断所述手持设备位置信息是否符合预设的位置变化规则,具体包括:若手持设备抬起幅度大于预置幅度阈值,则判定所述手持设备位置信息符合预设的位置变化规则。6.根据权利要求2至5中任一项所述的方法,其特征在于,所述根据所述目标对象的动作信息,在虚拟现实空间中显示至少一交互组件模型,包括:在虚拟现实空间中显示所述交互组件模型的同时,一并显示与所述目标对象对应的虚拟对象模型,其中,所述虚拟对象模型能够跟随所述目标对象的运动进行动态变化显示。7.根据权利要求6所述的方法,其特征在于,所述通过识别所述图像信息中的所述目标对象,在虚拟现实空间中显示所述交互组件模型的同时,一并显示与所述目标对象对应的虚拟对象模型,具体包括:基于所述虚拟对象模型的空间位置变化,动态调整所述交互组件模型的空间显示位置,使得所述交互组件模型能够跟随所述虚拟对象模型进行运动显示。8.根据权利要求6所述的方法,其特征在于,所述通过识别所述图像信息中的所述目标对象,在虚拟现实空间中显示所述交互组件模型的同时,一并显示与所述目标对象对应的虚拟对象模型,具体包括:
在所述虚拟对象模型的预设范围内显示所述交互组件模型。9.根据权利要求1所述的方法,其特征在于,所述根据所述目标对象的动作信息,在虚拟现实空间中显示至少一交互组件模型,以及执行用户所选交互组件模型预先绑定的交互功能事件,具体包括:通过识别所述目标对象的位置,映射到虚拟现实空间中,确定相应第一点击标志的空间位置;若所述第一点击标志的空间位置与所述交互组件模型中的目标交互组件模型的空间位置匹配,则确定所述目标交互组件模型为用户所选的交互组件模型;执行所述目标交互组件模型预先绑定的交互功能事件。10.根据权利要求9所述的方法,其特征在于,所述执行所述目标交互组件模型预先绑定的交互功能事件,具体包括:在虚拟现实空间中显示所述目标交互组件模型对应的选项面板模型;通过识别所述目标对象的位置,映射到虚拟现实空间中,确定相应第二点击标志的空间位置;若所述第二点击标志的空间位置与所述选项面板中的目标选项的空间位置匹配,则确定所述目标选项为用户在所述选项面板中所选的选项,并触发执行相应的事件。11.根据权利要求1所述的方法,其特征在于,在虚拟现实空间中显示至少一交互组件模型之后,所述方法还包括:根据所述图像信息中的目标对象,判断是否符合取消显示交互组件模型的预置条件;若判定符合取消显示交互组件模型的预置条件,则在虚拟现实空间中取消显示所述至少一交互组件模型。12.根据权利要求11所述的方法,其特征在于,所述根据所述图像信息中的目标对象,判断是否符合取消显示交互组件模型的预置条件,具体包括:基于所述图像信息中的用户手势信息或手持设备位置信息,确定是否符合取消显示交互组件模型的预置条件。13.一种基于虚拟现实的操控装置,其特征在于,包括:监测模块,被配置为监测摄像头对用户拍摄的图像信息;识别模块,被配置为识别所述图像信息中的目标对象的动作信息;显示模块,被配置为根据所述目标对象的动作信息,在虚拟现实空间中显示至少一交互组件模型,以及执行用户所选交互组件模型预先绑定的交互功能事件。14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至12中任一项所述的方法。15.一种电子设备,包括存储介质、处理器及存储在存储介质上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至12中任一项所述的方法。

技术总结
本公开涉及一种基于虚拟现实的操控方法、装置及电子设备,涉及虚拟现实技术领域,其中方法包括:首先监测摄像头对用户拍摄的图像信息;再识别所述图像信息中的目标对象的动作信息;然后根据所述目标对象的动作信息,在虚拟现实空间中显示至少一交互组件模型,以及执行用户所选交互组件模型预先绑定的交互功能事件。通过应用本公开的技术方案,可有效改善由于实体设备按钮容易损坏,进而会容易影响到用户操控的技术问题。给用户所带来的科技感更强,提高了用户的VR使用体验。提高了用户的VR使用体验。提高了用户的VR使用体验。


技术研发人员:吴培培 李笑林 冀利悦 赵文珲 王丹阳
受保护的技术使用者:北京字跳网络技术有限公司
技术研发日:2022.03.17
技术公布日:2023/9/22
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

航空商城 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

评论

相关推荐