设备控制方法、装置、设备及存储介质与流程
未命名
09-24
阅读:56
评论:0
1.本技术涉及设备控制领域,尤其涉及一种设备控制方法、装置、设备及存储介质。
背景技术:
2.随着移动设备技术的快速发展,移动设备上集成的功能也越来越多。
3.目前,当用户想要开启移动设备的某个功能时,需要操作移动设备找到相应的功能图标,对功能图标进行触发操作,开启相应的功能。开启移动设备功能的操作相对繁琐,降低用户体验。
技术实现要素:
4.本技术提供一种设备控制方法、装置、设备及存储介质,通过对移动设备进行移动动作操作,快速开启移动设备的相应功能。本技术的技术方案如下:
5.本技术实施例提供一种设备控制方法,应用于移动设备,所述方法包括:
6.获取移动设备的位移数据和/或姿态数据;
7.根据所述移动设备的位移数据和/或所述姿态数据,确定所述移动设备的动作状态;
8.若所述移动设备的动作状态满足预设状态信息,则采集用户的面部图像;
9.对所述用户的面部图像进行至少一种图像检测,得到所述至少一种图像检测的检测结果;
10.根据所述至少一种图像检测的检测结果,启动与所述至少一种图像检测对应的功能。
11.可选地,所述获取移动设备的位移数据和/或姿态数据,包括:
12.采集所述移动设备的位移数据;
13.根据所述移动设备的位移数据,计算所述移动设备的姿态数据。
14.可选地,所述根据所述移动设备的位移数据和/或所述姿态数据,确定所述移动设备的动作状态,包括:
15.将所述移动设备的位移数据和/或所述姿态数据输入到动作检测模型中,得到所述移动设备发生目标动作的概率;
16.根据所述移动设备发生目标动作的概率,确定移动设备的动作状态。
17.可选地,所述位移数据至少包括x轴加速度、z轴加速度、x轴角速度和滚转角,所述根据所述移动设备的位移数据和/或所述姿态数据,确定所述移动设备的动作状态,包括:
18.将所述x轴加速度,z轴加速度,x轴角速度和滚转角输入到动作检测模型中,得到所述移动设备发生移动动作的概率;
19.根据所述移动设备发生移动动作的概率,确定所述移动设备发生移动动作的次数。
20.可选地,所述对所述用户的面部图像进行至少一种图像检测,得到所述至少一种
图像检测的检测结果,包括以下至少一种操作:
21.对所述用户的面部图像进行人脸检测,得到是否存在人脸的人脸检测结果;
22.对所述用户的面部图像进行用户身份验证,得到身份验证是否通过的身份验证结果;
23.对所述用户的面部图像进行眼球注视识别,得到用户的眼球是否注视所述移动设备的屏幕的屏幕注视结果。
24.可选地,若所述图像检测为多种,所述根据所述至少一种图像检测的检测结果,启动与所述至少一种图像检测对应的功能,包括:
25.从多种图像检测中确定出检测结果为检测通过的候选图像检测;
26.根据所述候选图像检测的优先级,启动所述候选图像检测对应的功能。
27.可选地,所述根据所述候选图像检测的优先级,启动所述候选图像检测对应的功能,包括:
28.从所述候选图像检测中确定出优先级满足设定优先级条件的目标图像检测;
29.启动所述目标图像检测对应的功能。
30.本技术实施例提供一种设备控制装置,包括:
31.获取模块,用于获取移动设备的位移数据和/或姿态数据;
32.确定模块,用于根据所述移动设备的位移数据和/或所述姿态数据,确定所述移动设备的动作状态;
33.采集模块,若所述移动设备的动作状态满足预设状态信息,则用于采集用户的面部图像;
34.检测模块,用于对所述用户的面部图像进行至少一种图像检测,得到所述至少一种图像检测的检测结果;
35.启动模块,用于根据所述至少一种图像检测的检测结果,启动与所述至少一种图像检测对应的功能。
36.可选地,所述获取模块在获取移动设备的位移数据和/或姿态数据时,用于采集所述移动设备的位移数据;根据所述移动设备的位移数据,计算所述移动设备的姿态数据。
37.可选地,所述检测模块包括动作检测子模块和状态确定子模块;
38.所述动作检测子模块,用于将所述移动设备的位移数据和/或所述姿态数据输入到动作检测模型中,得到所述移动设备发生目标动作的概率;
39.所述状态确定子模块,用于根据所述移动设备发生目标动作的概率,确定移动设备的动作状态。
40.可选地,所述位移数据包括x轴加速度、z轴加速度、x轴角速度和滚转角,所述检测模块在根据所述移动设备的位移数据和/或所述姿态数据,确定所述移动设备的动作状态时,用于将所述x轴加速度,z轴加速度,x轴角速度和滚转角输入到动作检测模型中,得到所述移动设备发生移动动作的概率;根据所述移动设备发生移动动作的概率,确定所述移动设备发生移动动作的次数。
41.可选地,所述检测模块在对所述用户的面部图像进行至少一种图像检测,得到所述至少一种图像检测的检测结果时,包括以下至少一种操作:
42.对所述用户的面部图像进行人脸检测,得到是否存在人脸的人脸检测结果;
43.对所述用户的面部图像进行用户身份验证,得到身份验证是否通过的身份验证结果;
44.对所述用户的面部图像进行眼球注视识别,得到用户的眼球是否注视所述移动设备的屏幕的屏幕注视结果。
45.可选地,若所述图像检测为多种,所述启动模块在根据所述至少一种图像检测的检测结果,启动与所述至少一种图像检测对应的功能时,用于从多种图像检测中确定出检测结果为检测通过的候选图像检测;根据所述候选图像检测的优先级,启动所述候选图像检测对应的功能。
46.可选地,所述启动模块在根据所述候选图像检测的优先级,启动所述候选图像检测对应的功能时,用于从所述候选图像检测中确定出优先级满足设定优先级条件的目标图像检测;启动所述目标图像检测对应的功能。
47.本技术实施例提供一种移动设备,包括:存储器,处理器和通信组件;
48.所述存储器,用于存储计算机程序;
49.所述处理器,用于执行所述计算机程序,以实现上述方法中的各步骤。
50.本技术实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法中的各步骤。
51.本技术的实施例提供的技术方案至少带来以下有益效果:
52.在本技术的一些实施例中,获取移动设备的位移数据和/或姿态数据;根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态,以确定移动设备当前的移动动作;在移动设备当前的移动动作满足预设状态信息后,则采集用户的面部图像;对用户的面部图像进行至少一种图像检测,得到至少一种图像检测的检测结果;根据至少一种图像检测的检测结果,启动与至少一种图像检测对应的功能,通过对移动设备进行移动动作,开启相应的功能,功能开启方便快捷,提升用户体验。
53.应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本技术。
附图说明
54.此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本技术的实施例,并与说明书一起用于解释本技术的原理,并不构成对本技术的不当限定。
55.图1为本技术示例性实施例提供的一种设备控制系统的结构示意图;
56.图2为本技术示例性实施例提供的手机的姿态数据的示意图;
57.图3为本技术示例性实施例提供的另一种设备控制方法的流程示意图;
58.图4a为本技术示例性实施例提供的一种设备控制装置的结构示意图;
59.图4b为本技术示例性实施例提供的一种检测模块的结构示意图;
60.图5为本技术示例性实施例提供的一种移动设备的结构示意图。
具体实施方式
61.为了使本领域普通人员更好地理解本技术的技术方案,下面将结合附图,对本技术实施例中的技术方案进行清楚、完整地描述。
62.需要说明的是,本技术的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本技术的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本技术相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本技术的一些方面相一致的装置和方法的例子。
63.目前,当用户想要开启移动设备的某个功能时,若移动设备的屏幕处于锁屏状态时,首先需要解锁屏幕,然后在移动设备的显示屏上的界面中找到相应的功能图标,对功能图标进行触发操作,开启相应的功能。由此可以看出,开启移动设备功能的操作相对繁琐,降低用户体验。
64.针对上述存在的技术问题,在本技术的一些实施例中,获取移动设备的位移数据和/或姿态数据;根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态,以确定移动设备当前的移动动作;在移动设备当前的移动动作满足预设状态信息后,则采集用户的面部图像;对用户的面部图像进行至少一种图像检测,得到至少一种图像检测的检测结果;根据至少一种图像检测的检测结果,启动与至少一种图像检测对应的功能,通过对移动设备进行移动动作,开启相应的功能,功能开启方便快捷,提升用户体验。
65.以下结合附图,详细说明本技术各实施例提供的技术方案。
66.图1为本技术示例性实施例提供的一种设备控制方法的流程示意图。如图1所示,该方法包括:
67.s101:获取移动设备的位移数据和/或姿态数据;
68.s102:根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态;
69.s103:若移动设备的动作状态满足预设状态信息,则采集用户的面部图像;
70.s104:对用户的面部图像进行至少一种图像检测,得到至少一种图像检测的检测结果;
71.s105:根据至少一种图像检测的检测结果,启动与至少一种图像检测对应的功能。
72.在本实施例中,上述方法的执行主体为移动设备,本技术对移动设备的类型不作限定,移动设备包括但不限于以下任意一种:手机,平板电脑,vr设备,ar设备,智能手表以及其他智能穿戴设备。
73.需要说明的是,本技术采用移动设备的移动动作,本技术采用移动设备的移动动作开启移动设备相应的功能。其中,移动设备的移动动作包括但不限于以下几种:平移、旋转。其中,驱动移动设备的主体可以为用户,也可以为其他机械设备。
74.需要说明的是,移动设备的位移数据包括但不限于:三轴加速度和三轴角速度,在载体坐标下,三轴加速度包括x轴加速度、y轴加速度和z轴加速度;三轴角速度包括x轴角速度、y轴角速度和z轴角速度。其中,移动设备通过自身设置的加速度计获取三轴加速度,移动设备通过自身设置的角速度计获取三轴角速度。
75.移动设备的姿态数据包括但不限于:滚转角、俯仰角和偏航角。
76.图2为本技术示例性实施例提供的手机的姿态数据的示意图。以移动设备为手机为例,对手机的姿态数据作出说明。如图2所示,当手机左右摇摆时(绕y轴旋转),得到变化的滚转角φ,滚转角φ的角度范围为[-90,90];当手机前后摇摆时(绕x轴旋转),得到变化
的俯仰角θ,俯仰角θ的角度范围为[-180,180];当手机横屏转换成竖屏或竖屏转换成横屏时(绕z轴旋转),即得到变化的偏航角ψ,偏航角ψ的角度范围为[-180,180]。
[0077]
在上述实施例中,移动设备获取自身的位移数据和/或姿态数据;移动设备根据自身的位移数据和/或姿态数据,确定移动设备的动作状态,以确定移动设备当前的移动动作;在移动设备当前的移动动作满足预设状态信息后,则采集用户的面部图像;对用户的面部图像进行至少一种图像检测,得到至少一种图像检测的检测结果;移动设备根据至少一种图像检测的检测结果,启动与至少一种图像检测对应的功能,通过对移动设备进行移动动作,开启相应的功能,功能开启方便快捷,提升用户体验。
[0078]
例如,以移动设备为手机为例,手机响应于数据获取指令,获取三轴加速度和三轴角速度;基于三轴加速度计算得到滚转角;根据x轴加速度、z轴加速度、x轴角速度和滚转角确定移动设备当前的移动动作;在移动设备当前的移动动作为预设的旋转两次后,利用移动设备上设置的前置摄像头采集用户的面部图像;对用户的面部图像进行人脸检测和身份验证操作,若人脸检测的检测结果为检测通过,身份验证操作的检测结果为检测未通过,则启动人脸检测对应的手电筒功能。
[0079]
再例如,以移动设备为手机为例,手机响应于数据获取指令,获取三轴加速度和三轴角速度;基于三轴加速度、三轴角速度计算得到滚转角、俯仰角和偏航角;手机根据三轴加速度、三轴角速度、滚转角、俯仰角和偏航角确定移动设备当前的移动动作;在移动设备当前的移动动作为预设的左右平移两次后,利用移动设备上设置的前置摄像头采集用户的面部图像;对用户的面部图像进行人脸检测和身份验证操作,若人脸检测和身份验证操作的检测结果均为检测通过,则同时启动人脸检测对应的手电筒功能以及身份验证操作对应的付款码功能。
[0080]
在本实施例中,移动设备获取自身的位移数据和/或姿态数据。一种可实现的方式为,采集移动设备的位移数据;根据移动设备的位移数据,计算移动设备的姿态数据。其中,当移动设备发生移动动作时,移动设备获取自身的位移数据,进一步,移动设备基于自身的位移数据,计算得到自身的姿态数据。
[0081]
在上述实施例中,触发移动设备获取自身的位移数据的条件包括但不限于以下几种触发方式:
[0082]
触发方式一:移动设备监测到自身发生移动动作时,触发移动设备获取自身的位移数据。
[0083]
触发方式二:移动设备按照设定周期定期获取自身的位移数据。
[0084]
在上述实施例中,移动设备根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态。一种可实现的方式为,将移动设备的位移数据和/或姿态数据输入到动作检测模型中,得到移动设备发生目标动作的概率;根据移动设备发生目标动作的概率,确定移动设备的动作状态。本技术实施例利用动作检测模型对移动设备发生目标动作的概率进行检测,在移动设备发生目标动作的概率大于设定概率阈值时,确定移动设备发生一次目标动作,进而确定移动设备发生目标动作的次数。需要说明的是,本技术实施例对设定概率阈值不作限定,可以根据实际情况作出调整。例如,设定概率阈值可以为0.9、0.95等。
[0085]
在使用动作检测模型之前,首先需要模型训练得到动作检测模型。
[0086]
首先,收集大量的移动设备的位移样本数据集和/或姿态样本数据集,以及与位移
样本数据集和/或姿态样本数据集对应的移动动作样本数据集,其中移动设备尽可能地覆盖多种类型的移动设备,以提升样本覆盖率。
[0087]
接着,可将位移样本数据集和/或姿态样本数据集与移动动作样本数据集输入预先搭建好的初始神经网络模型中。在初始神经网络模型内部,可根据模型参数对位移样本数据集和/或姿态样本数据集与移动动作样本数据集进行特征提取以及计算等操作,并由神经网络模型的输出层输出移动动作检测结果。接着,初始神经网络模型的损失函数层,可根据输出的移动动作检测结果与真实的移动动作样本数据的差别,计算损失函数。若损失函数不满足设定的要求,则可调整模型参数,继续迭代训练。当初始神经网络模型的损失函数满足设定的要求时,得到训练完成的动作检测模型。
[0088]
在本技术的一种实施方式中,将x轴加速度,z轴加速度,x轴角速度和滚转角输入到动作检测模型中,得到移动设备发生移动动作的概率;根据移动设备发生移动动作的概率,确定移动设备发生移动动作的次数。需要说明的是,采用的更多的位移数据和/或姿态数据,确定移动设备的动作状态更加准确,但也会带来较大的计算量,因此,本实施例采用其中的部分数据:x轴加速度,z轴加速度,x轴角速度和滚转角,对移动设备发生移动动作的概率进行预测,可以降低设备的计算量,提高设备利用率。
[0089]
例如,将x轴加速度,z轴加速度,x轴角速度和滚转角输入到动作检测模型中,得到移动设备发生旋转动作的概率;根据移动设备发生旋转动作的概率,确定移动设备是否发生旋转动作,进而确定移动设备发生旋转动作的次数。采用较少的位移数据以及姿态数据,对移动设备发生移动动作的概率进行预测,可以降低设备的计算量,提高设备利用率。
[0090]
再例如,将三轴加速度、三轴角速度、滚转角、俯仰角和偏航角输入到动作检测模型中,得到移动设备发生旋转动作的概率,根据移动设备发生旋转动作的概率,确定移动设备是否发生旋转动作,进而确定移动设备发生旋转动作的次数。采用全部位移数据和/或姿态数据对移动设备发生移动动作的概率进行预测,可以得到更加准确的计算结果。
[0091]
移动设备判断自身的动作状态是否满足预设状态信息。若是,则采集用户的面部图像进行至少一种图像检测;若否,则停止采集用户的面部图像。需要说明的是,本技术实施例对预设状态信息不作限定,预设状态信息可以为旋转一次,平移一次,旋转两次和平移两次,预设状态信息可以根据实际情况作出调整。
[0092]
需要说明是,本技术实施例中的图像检测包括但不限于以下几种:人脸检测,用户身份验证和眼球注视识别。
[0093]
相应地,对用户的面部图像进行图像检测,得到图像检测的检测结果。包括以下至少一种操作:
[0094]
对用户的面部图像进行人脸检测,得到是否存在人脸的人脸检测结果;
[0095]
对用户的面部图像进行用户身份验证,得到身份验证是否通过的身份验证结果;对用户的面部图像进行眼球注视识别,得到用户的眼球是否注视移动设备的屏幕的屏幕注视结果。
[0096]
需要说明的是,一种图像检测可以关联一种功能,也可以关联多种功能。各种图像检测之间可以存在优先级,例如,各种图像检测之间按照优先级从低到高的顺序依次为:人脸检测,用户身份验证和眼球注视识别。对于人脸检测关联的功能可以为相对简单的功能,比如截屏,手电和控制中心;对于用户身份验证关联的功能可以为相对复杂的功能,比如付
款码,乘车码,扫码界面等;对于眼球注视识别关联的功能为安全性能相关的功能,比如付款应用等。
[0097]
在上述以及下述各实施例中,对于各种类型的图像检测的检测结果为检测通过结果或者检测不通过结果,作出如下说明:对于人脸检测,检测到存在人脸的人脸检测结果为检测通过结果,检测到不存在人脸的人脸检测结果为检测不通过结果。对于人脸检测,身份验证通过的身份验证结果为检测通过结果,身份验证不通过的验证结果为检测不通过结果。对于眼球注视识别,用户的眼球注视移动设备的屏幕的屏幕注视结果为检测通过结果,用户的眼球未注视移动设备的屏幕的屏幕注视结果为检测未通过结果。
[0098]
在上述实施例中,根据至少一种图像检测的检测结果,启动与至少一种图像检测对应的功能,包括但不限于以下几种启动方式:
[0099]
启动方式一:若图像检测为一种;若图像检测的检测结果为检测通过,则启动该图像检测对应的功能;
[0100]
启动方式二:若图像检测为多种;从多种图像检测中确定出检测结果为检测通过的候选图像检测;启动候选图像检测对应的功能;
[0101]
启动方式三:若图像检测为多种;从多种图像检测中确定出检测结果为检测通过的候选图像检测;根据候选图像检测的优先级,启动候选图像检测对应的功能;
[0102]
在上述启动方式一中,对于一种图像检测,若图像检测的检测结果为检测通过,则启动该图像检测对应的功能;若图像检测的检测结果为检测不通过,则不启动该图像检测对应的功能。例如,若人脸检测的检测结果为检测到人脸的结果,即检测通过的结果,则开启人脸检测对应的功能。
[0103]
在上述启动方式二中,从多种图像检测中确定出检测结果为检测通过的候选图像检测,启动所有候选图像检测对应的功能。例如,从人脸检测,用户身份验证和眼球注视识别中确定出人脸检测和用户身份验证为检测通过的检测结果,开启人脸检测和用户身份验证对应的功能。
[0104]
在上述启动方式三中,从多种图像检测中确定出检测结果为检测通过的候选图像检测;从候选图像检测中确定出优先级满足设定优先级条件的目标图像检测;启动目标图像检测对应的功能。可选地,从多种图像检测中确定出检测结果为检测通过的候选图像检测,从候选图像检测中确定出优先级最高的目标图像检测;启动目标图像检测对应的功能。需要说明的是,本技术实施例对设定优先级条件不作限定,设定优先级条件也可以为第二优先级的图像检测,设定优先级条件可以根据实际情况作出调整。例如,从人脸检测,用户身份验证和眼球注视识别中确定出人脸检测和用户身份验证为检测通过的检测结果,将用户身份验证和眼球注视识别两种图像检测作为候选图像检测,从用户身份验证和眼球注视识别中确定出优先级最高的眼球注视识别作为目标图像检测,启动目标图像检测对应的功能。
[0105]
在上述实施例中,移动设备根据不同的开启逻辑,可能开启多个功能,用户可以手动关闭不需要的功能,而保留所需的功能。
[0106]
基于上述各实施例的描述,图3为本技术示例性实施例提供的另一种设备控制方法的流程示意图。如图3所示,该方法包括:
[0107]
s301:获取移动设备的位移数据和/或姿态数据;
[0108]
s302:根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态;
[0109]
s303:若移动设备的动作状态满足预设状态信息,则采集用户的面部图像;
[0110]
s304:对用户的面部图像进行至少一种图像检测,得到至少一种图像检测的检测结果;
[0111]
s305:从多种图像检测中确定出检测结果为检测通过的候选图像检测;
[0112]
s306:从候选图像检测中确定出优先级满足设定优先级条件的目标图像检测;
[0113]
s307:启动目标图像检测对应的功能。
[0114]
在本实施例中,本实施例各步骤的实现方式均可参见前述各实施例的相应内容。本实施例也可以存在上述实施例的有益效果,在此不再赘述。
[0115]
在本技术的上述方法实施例中,获取移动设备的位移数据和/或姿态数据;根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态,以确定移动设备当前的移动动作;在移动设备当前的移动动作满足预设状态信息后,则采集用户的面部图像;对用户的面部图像进行至少一种图像检测,得到至少一种图像检测的检测结果;根据至少一种图像检测的检测结果,启动与至少一种图像检测对应的功能,通过对移动设备进行移动动作,开启相应的功能,功能开启方便快捷,提升用户体验。
[0116]
图4a为本技术示例性实施例提供的一种设备控制装置40的结构示意图。如图4a所示,该设备控制装置40包括:获取模块41,确定模块42,采集模块43,检测模块44和启动模块45。
[0117]
其中,获取模块41,用于获取移动设备的位移数据和/或姿态数据;
[0118]
确定模块42,用于根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态;
[0119]
采集模块43,若移动设备的动作状态满足预设状态信息,则用于采集用户的面部图像;
[0120]
检测模块44,用于对用户的面部图像进行至少一种图像检测,得到至少一种图像检测的检测结果;
[0121]
启动模块45,用于根据至少一种图像检测的检测结果,启动与至少一种图像检测对应的功能。
[0122]
可选地,获取模块41在获取移动设备的位移数据和/或姿态数据时,用于采集移动设备的位移数据;根据移动设备的位移数据,计算移动设备的姿态数据。
[0123]
可选地,图4b为本技术示例性实施例提供的一种检测模块44的结构示意图。如图4b所示,检测模块44包括动作检测子模块441和状态确定子模块442;
[0124]
动作检测子模块441,用于将移动设备的位移数据和/或姿态数据输入到动作检测模型中,得到移动设备发生目标动作的概率;
[0125]
状态确定子模块442,用于根据移动设备发生目标动作的概率,确定移动设备的动作状态。
[0126]
可选地,位移数据包括x轴加速度、z轴加速度、x轴角速度和滚转角,检测模块44在根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态时,用于将x轴加速度,z轴加速度,x轴角速度和滚转角输入到动作检测模型中,得到移动设备发生移动动作的概率;根据移动设备发生移动动作的概率,确定移动设备发生移动动作的次数。
[0127]
可选地,检测模块44在对用户的面部图像进行至少一种图像检测,得到至少一种图像检测的检测结果时,包括以下至少一种操作:
[0128]
对用户的面部图像进行人脸检测,得到是否存在人脸的人脸检测结果;
[0129]
对用户的面部图像进行用户身份验证,得到身份验证是否通过的身份验证结果;
[0130]
对用户的面部图像进行眼球注视识别,得到用户的眼球是否注视移动设备的屏幕的屏幕注视结果。
[0131]
可选地,若图像检测为多种,启动模块45在根据至少一种图像检测的检测结果,启动与至少一种图像检测对应的功能时,用于从多种图像检测中确定出检测结果为检测通过的候选图像检测;根据候选图像检测的优先级,启动候选图像检测对应的功能。
[0132]
可选地,启动模块45在根据候选图像检测的优先级,启动候选图像检测对应的功能时,用于从候选图像检测中确定出优先级满足设定优先级条件的目标图像检测;启动目标图像检测对应的功能。
[0133]
图5为本技术示例性实施例提供的一种移动设备的结构示意图。如图5所示,该移动设备包括:存储器501和处理器502。另外,该智能头戴设备还包括电源组件503、通信组件504和显示屏505等必要组件。
[0134]
存储器501,用于存储计算机程序,并可被配置为存储其它各种数据以支持在智能头戴设备上的操作。这些数据的示例包括用于在智能头戴设备上操作的任何应用程序或方法的指令。
[0135]
存储器501,可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(sram),电可擦除可编程只读存储器(eeprom),可擦除可编程只读存储器(eprom),可编程只读存储器(prom),只读存储器(rom),磁存储器,快闪存储器,磁盘或光盘。
[0136]
通信组件504,用于与其他设备进行数据传输。
[0137]
处理器502,可执行存储器501中存储的计算机指令,以用于:获取移动设备的位移数据和/或姿态数据;根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态;若移动设备的动作状态满足预设状态信息,则采集用户的面部图像;对用户的面部图像进行至少一种图像检测,得到至少一种图像检测的检测结果;根据至少一种图像检测的检测结果,启动与至少一种图像检测对应的功能。
[0138]
可选地,处理器502在获取移动设备的位移数据和/或姿态数据时,用于:采集移动设备的位移数据;根据移动设备的位移数据,计算移动设备的姿态数据。
[0139]
可选地,处理器502在根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态时,用于:将移动设备的位移数据和/或姿态数据输入到动作检测模型中,得到移动设备发生目标动作的概率;根据移动设备发生目标动作的概率,确定移动设备的动作状态。
[0140]
可选地,位移数据至少包括x轴加速度、z轴加速度、x轴角速度和滚转角,处理器502在根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态时,用于:将x轴加速度,z轴加速度,x轴角速度和滚转角输入到动作检测模型中,得到移动设备发生移动动作的概率;根据移动设备发生移动动作的概率,确定移动设备发生移动动作的次数。
[0141]
可选地,处理器502在对用户的面部图像进行至少一种图像检测,得到至少一种图
像检测的检测结果时,包括以下至少一种操作:
[0142]
对用户的面部图像进行人脸检测,得到是否存在人脸的人脸检测结果;
[0143]
对用户的面部图像进行用户身份验证,得到身份验证是否通过的身份验证结果;
[0144]
对用户的面部图像进行眼球注视识别,得到用户的眼球是否注视移动设备的屏幕的屏幕注视结果。
[0145]
可选地,若图像检测为多种,处理器502在根据至少一种图像检测的检测结果,启动与至少一种图像检测对应的功能时,用于:从多种图像检测中确定出检测结果为检测通过的候选图像检测;根据候选图像检测的优先级,启动候选图像检测对应的功能。
[0146]
可选地,处理器502根据候选图像检测的优先级,启动候选图像检测对应的功能时,用于:从候选图像检测中确定出优先级满足设定优先级条件的目标图像检测;启动目标图像检测对应的功能。
[0147]
相应地,本技术实施例还提供一种存储有计算机程序的计算机可读存储介质。当计算机可读存储介质存储计算机程序,且计算机程序被一个或多个处理器执行时,致使一个或多个处理器执行图1方法实施例中的各步骤。
[0148]
相应地,本技术实施例还提供一种计算机程序产品,计算机程序产品包括计算机程序/指令,计算机程序/指令被处理器执行图1中的方法实施例中的各步骤。
[0149]
上述图5中的通信组件被配置为便于通信组件所在设备和其他设备之间有线或无线方式的通信。通信组件所在设备可以接入基于通信标准的无线网络,如wifi,2g、3g、4g/lte、5g等移动通信网络,或它们的组合。在一个示例性实施例中,通信组件经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件还包括近场通信(nfc)模块,以促进短程通信。例如,在nfc模块可基于射频识别(rfid)技术,红外数据协会(irda)技术,超宽带(uwb)技术,蓝牙(bt)技术和其他技术来实现。
[0150]
上述图5中的电源组件,为电源组件所在设备的各种组件提供电力。电源组件可以包括电源管理系统,一个或多个电源,及其他与为电源组件所在设备生成、管理和分配电力相关联的组件。
[0151]
上述图5中的显示屏包括屏幕,其屏幕可以包括液晶显示屏(lcd)和触摸面板(tp)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。
[0152]
还可以包括音频组件。
[0153]
音频组件,可被配置为输出和/或输入音频信号。例如,音频组件包括一个麦克风(mic),当音频组件所在设备处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器或经由通信组件发送。在一些实施例中,音频组件还包括一个扬声器,用于输出音频信号。
[0154]
在本技术的上述设备、装置、存储介质及计算机程序产品实施例中,获取移动设备的位移数据和/或姿态数据;根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态,以确定移动设备当前的移动动作;在移动设备当前的移动动作满足预设状态信息后,则采集用户的面部图像;对用户的面部图像进行至少一种图像检测,得到至少一种图像
检测的检测结果;根据至少一种图像检测的检测结果,启动与至少一种图像检测对应的功能,通过对移动设备进行移动动作,开启相应的功能,功能开启方便快捷,提升用户体验。
[0155]
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0156]
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0157]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0158]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0159]
在一个典型的配置中,计算设备包括一个或多个处理器(cpu)、输入/输出接口、网络接口和内存。
[0160]
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram)。内存是计算机可读介质的示例。
[0161]
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
[0162]
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设
备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
[0163]
以上仅是本技术的具体实施方式,使本领域技术人员能够理解或实现本技术。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本技术的精神或范围的情况下,在其它实施例中实现。因此,本技术将不会被限制于本文的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
技术特征:
1.一种设备控制方法,其特征在于,应用于移动设备,包括:获取移动设备的位移数据和/或姿态数据;根据所述移动设备的位移数据和/或所述姿态数据,确定所述移动设备的动作状态;若所述移动设备的动作状态满足预设状态信息,则采集用户的面部图像;对所述用户的面部图像进行至少一种图像检测,得到所述至少一种图像检测的检测结果;根据所述至少一种图像检测的检测结果,启动与所述至少一种图像检测对应的功能。2.根据权利要求1所述的方法,其特征在于,所述获取移动设备的位移数据和/或姿态数据,包括:采集所述移动设备的位移数据;根据所述移动设备的位移数据,计算所述移动设备的姿态数据。3.根据权利要求1所述的方法,其特征在于,所述根据所述移动设备的位移数据和/或所述姿态数据,确定所述移动设备的动作状态,包括:将所述移动设备的位移数据和/或所述姿态数据输入到动作检测模型中,得到所述移动设备发生目标动作的概率;根据所述移动设备发生目标动作的概率,确定移动设备的动作状态。4.根据权利要求1所述的方法,其特征在于,所述位移数据至少包括x轴加速度、z轴加速度、x轴角速度和滚转角,所述根据所述移动设备的位移数据和/或所述姿态数据,确定所述移动设备的动作状态,包括:将所述x轴加速度,z轴加速度,x轴角速度和滚转角输入到动作检测模型中,得到所述移动设备发生移动动作的概率;根据所述移动设备发生移动动作的概率,确定所述移动设备发生移动动作的次数。5.根据权利要求1所述的方法,其特征在于,所述对所述用户的面部图像进行至少一种图像检测,得到所述至少一种图像检测的检测结果,包括以下至少一种操作:对所述用户的面部图像进行人脸检测,得到是否存在人脸的人脸检测结果;对所述用户的面部图像进行用户身份验证,得到身份验证是否通过的身份验证结果;对所述用户的面部图像进行眼球注视识别,得到用户的眼球是否注视所述移动设备的屏幕的屏幕注视结果。6.根据权利要求1所述的方法,其特征在于,若所述图像检测为多种,所述根据所述至少一种图像检测的检测结果,启动与所述至少一种图像检测对应的功能,包括:从多种图像检测中确定出检测结果为检测通过的候选图像检测;根据所述候选图像检测的优先级,启动所述候选图像检测对应的功能。7.根据权利要求6所述的方法,其特征在于,所述根据所述候选图像检测的优先级,启动所述候选图像检测对应的功能,包括:从所述候选图像检测中确定出优先级满足设定优先级条件的目标图像检测;启动所述目标图像检测对应的功能。8.一种设备控制装置,其特征在于,包括:获取模块,用于获取移动设备的位移数据和/或姿态数据;确定模块,用于根据所述移动设备的位移数据和/或所述姿态数据,确定所述移动设备
的动作状态;采集模块,若所述移动设备的动作状态满足预设状态信息,则用于采集用户的面部图像;检测模块,用于对所述用户的面部图像进行至少一种图像检测,得到所述至少一种图像检测的检测结果;启动模块,用于根据所述至少一种图像检测的检测结果,启动与所述至少一种图像检测对应的功能。9.根据权利要求8所述的设备控制装置,其特征在于,所述获取模块在获取移动设备的位移数据和/或姿态数据时,用于采集所述移动设备的位移数据;根据所述移动设备的位移数据,计算所述移动设备的姿态数据。10.根据权利要求8所述的设备控制装置,其特征在于,所述检测模块包括动作检测子模块和状态确定子模块;所述动作检测子模块,用于将所述移动设备的位移数据和/或所述姿态数据输入到动作检测模型中,得到所述移动设备发生目标动作的概率;所述状态确定子模块,用于根据所述移动设备发生目标动作的概率,确定移动设备的动作状态。11.根据权利要求8所述的设备控制装置,其特征在于,所述位移数据至少包括x轴加速度、z轴加速度、x轴角速度和滚转角,所述检测模块在根据所述移动设备的位移数据和/或所述姿态数据,确定所述移动设备的动作状态时,用于将所述x轴加速度,z轴加速度,x轴角速度和滚转角输入到动作检测模型中,得到所述移动设备发生移动动作的概率;根据所述移动设备发生移动动作的概率,确定所述移动设备发生移动动作的次数。12.根据权利要求8所述的设备控制装置,其特征在于,所述检测模块在对所述用户的面部图像进行至少一种图像检测,得到所述至少一种图像检测的检测结果时,包括以下至少一种操作:对所述用户的面部图像进行人脸检测,得到是否存在人脸的人脸检测结果;对所述用户的面部图像进行用户身份验证,得到身份验证是否通过的身份验证结果;对所述用户的面部图像进行眼球注视识别,得到用户的眼球是否注视所述移动设备的屏幕的屏幕注视结果。13.根据权利要求8所述的设备控制装置,其特征在于,若所述图像检测为多种,所述启动模块在根据所述至少一种图像检测的检测结果,启动与所述至少一种图像检测对应的功能时,用于从多种图像检测中确定出检测结果为检测通过的候选图像检测;根据所述候选图像检测的优先级,启动所述候选图像检测对应的功能。14.根据权利要求13所述的设备控制装置,其特征在于,所述启动模块在根据所述候选图像检测的优先级,启动所述候选图像检测对应的功能时,用于从所述候选图像检测中确定出优先级满足设定优先级条件的目标图像检测;启动所述目标图像检测对应的功能。15.一种移动设备,其特征在于,包括:存储器,处理器和通信组件;所述存储器,用于存储计算机程序;所述处理器,用于执行所述计算机程序,以实现如权利要求1-7中任一项所述的方法中的各步骤。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7中任一项所述的方法中的各步骤。
技术总结
本申请实施例涉及一种设备控制方法、装置、设备及存储介质。在本申请的一些实施例中,获取移动设备的位移数据和/或姿态数据;根据移动设备的位移数据和/或姿态数据,确定移动设备的动作状态,以确定移动设备当前的移动动作;在移动设备当前的移动动作满足预设状态信息后,则采集用户的面部图像;对用户的面部图像进行至少一种图像检测,得到至少一种图像检测的检测结果;根据至少一种图像检测的检测结果,启动与至少一种图像检测对应的功能,通过对移动设备进行移动动作,开启相应的功能,功能开启方便快捷,提升用户体验。提升用户体验。提升用户体验。
技术研发人员:张逸帆
受保护的技术使用者:北京小米移动软件有限公司
技术研发日:2022.03.15
技术公布日:2023/9/23
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
航空商城 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/