游戏中机器人角色的投放方法、装置、设备及存储介质与流程

未命名 09-24 阅读:59 评论:0


1.本技术涉及游戏技术领域,具体而言,涉及一种游戏中机器人角色的投放方法、装置、设备及存储介质。


背景技术:

2.在一些对战类型的多人同地图淘汰游戏中,每一局最终的胜利者非常少;相比最终胜利,击杀数和幸存排名数是带来正面体验的更广泛的来源。但这两者都是零和博弈,这就导致这类游戏会让一部分非核心玩家因为挫败感较强而容易流失,进而降低了玩家进行游戏的积极性。
3.目前,针对这个问题,主要是在每一局游戏中投放一定数量的机器人角色,且投放的机器人角色是按照简单的有限状态机(finite-state machine,一种典型的游戏ai模型,机器人角色根据当前的所处状态执行预设列表中的行动)进行移动。例如,在每一局游戏中,机器人角色的出生点位置可以是随机确定的,或者直接出生在目标玩家所操控的目标虚拟角色的附近,然后,在机器人角色出生后直奔目标虚拟角色而去,目标虚拟角色可以直接与机器人角色对战,使得机器人角色能够被目标虚拟角色击杀,从而达到了帮助一部分新手或连败玩家提高游戏体验的效果。
4.但是,在每一局游戏中所投放的机器人角色是根据当前的所处状态执行预设列表中的行动,存在机器人角色的行为过于简单等问题,很容易被玩家识别,从而导致游戏战斗体验大幅下降。


技术实现要素:

5.本技术的目的在于,针对上述现有技术中的不足,提供一种游戏中机器人角色的投放方法、装置、设备及存储介质,以便控制机器人角色以很大概率偶遇到指定的目标游戏角色,达到了帮助目标游戏角色提高游戏击杀体验的效果,提高了玩家的游戏战斗体验。
6.为实现上述目的,本技术实施例采用的技术方案如下:
7.第一方面,本技术实施例提供了一种游戏中机器人角色的投放方法,包括:
8.确定目标游戏角色;
9.获取所述目标游戏角色在游戏场景内的第一游戏开始位置,并基于所述第一游戏开始位置在所述游戏场景中确定至少一个第二游戏开始位置,所述第二游戏开始位置是用于在所述游戏场景内投放机器人角色的备选位置;
10.基于所述第一游戏开始位置和预先训练的路径决策模型,计算得出所述目标游戏角色在所述游戏场景中的第一游戏路线;
11.基于所述至少一个第二游戏开始位置和所述路径决策模型,预测得出所述游戏场景中的至少一个第二游戏路线;
12.基于所述第一游戏路线和所述第二游戏路线,从所述至少一个第二游戏开始位置中确定至少一个投放位置,以在所述投放位置投放至少一个机器人角色。
13.在一种可能的实现方式中,所述确定目标游戏角色,包括:
14.根据参与游戏的游戏角色对应的游戏数据,确定所述目标游戏角色;
15.其中,所述游戏数据至少包括所述游戏角色的历史对战结果。
16.在一种可能的实现方式中,所述基于所述第一游戏开始位置在所述游戏场景中确定至少一个第二游戏开始位置,包括:
17.在所述游戏场景中所述第一游戏开始位置的预设范围内,确定至少一个第二游戏开始位置。
18.在一种可能的实现方式中,所述基于所述第一游戏路线和所述第二游戏路线,从所述至少一个第二游戏开始位置中确定至少一个投放位置,包括:
19.获取与所述目标游戏角色匹配的机器人投放策略;
20.基于所述机器人投放策略、所述第一游戏路线和所述第二游戏路线,在所述至少一个第二游戏开始位置中确定至少一个投放位置。
21.在一种可能的实现方式中,所述基于所述第一游戏路线和所述第二游戏路线,从所述至少一个第二游戏开始位置中确定至少一个投放位置,还包括:
22.基于所述第一游戏路线和所述第二游戏路线交点数量,从所述至少一个第二游戏开始位置中确定至少一个投放位置。
23.在一种可能的实现方式中,所述根据参与游戏的游戏角色对应的游戏数据,确定所述目标游戏角色,包括:
24.若当前参与游戏的游戏角色的数量小于预设数量,则根据参与游戏的游戏角色对应的游戏数据,确定所述目标游戏角色。
25.在一种可能的实现方式中,在所述投放位置投放至少一个机器人角色之后,所述方法还包括:
26.在所述游戏场景中控制所述机器人角色按所述第二游戏路线移动。
27.在一种可能的实现方式中,所述方法还包括:
28.若所述目标游戏角色的实际路线与所述第一游戏路线的偏差值大于第一预设阈值,则基于所述目标游戏角色的当前位置以及所述路径决策模型,计算得出所述目标游戏角色的第三游戏路线,并基于所述第三游戏路线更新所述第二游戏路线。
29.在一种可能的实现方式中,所述基于所述第三游戏路线更新所述第二游戏路线,包括:
30.获取所述第二游戏路线中的至少一个可调决策点,所述可调决策点对应多个行走策略,各行走策略的权重差异小于第二预设阈值;
31.确定所述可调决策点中与所述目标游戏角色的当前位置距离最近的目标可调决策点;
32.基于所述第三游戏路线,确定所述目标可调决策点的目标行走策略;
33.按照所述目标行走策略更新所述第二游戏路线。
34.在一种可能的实现方式中,所述基于所述第一游戏开始位置和预先训练的路径决策模型,计算得出所述目标游戏角色在所述游戏场景中的第一游戏路线之前,还包括:
35.获取参与所述游戏的玩家在历史游戏过程中生成的历史游戏行为数据,所述历史游戏行为数据包括:各玩家所操控的游戏角色的游戏参数、环境参数,所述游戏参数包括如
下至少一项:位置信息、动作信息、资源信息、任务点所在位置,所述环境参数包括如下至少一项:热门资源所在位置、环境攻击信息;
36.以所述历史游戏行为数据作为样本数据,训练得到所述路径决策模型。
37.第二方面,本技术实施例还提供了一种游戏中机器人角色的投放装置,所述装置包括:
38.确定模块,用于确定目标游戏角色;
39.获取模块,用于获取所述目标游戏角色在游戏场景内的第一游戏开始位置,并基于所述第一游戏开始位置在所述游戏场景中确定至少一个第二游戏开始位置,所述第二游戏开始位置是用于在所述游戏场景内投放机器人角色的备选位置;
40.计算模块,用于基于所述第一游戏开始位置和预先训练的路径决策模型,计算得出所述目标游戏角色在所述游戏场景中的第一游戏路线;基于所述至少一个第二游戏开始位置和所述路径决策模型,预测得出所述游戏场景中的至少一个第二游戏路线;
41.所述确定模块,还用于基于所述第一游戏路线和所述第二游戏路线,从所述至少一个第二游戏开始位置中确定至少一个投放位置,以在所述投放位置投放至少一个机器人角色。
42.在一种可能的实现方式中,所述确定模块,还用于:
43.根据参与游戏的游戏角色对应的游戏数据,确定所述目标游戏角色;
44.其中,所述游戏数据至少包括所述游戏角色的历史对战结果。
45.在一种可能的实现方式中,所述确定模块,还用于:
46.在所述游戏场景中所述第一游戏开始位置的预设范围内,确定至少一个第二游戏开始位置。
47.在一种可能的实现方式中,所述确定模块,还用于:
48.获取与所述目标游戏角色匹配的机器人投放策略;
49.基于所述机器人投放策略、所述第一游戏路线和所述第二游戏路线,在所述至少一个第二游戏开始位置中确定至少一个投放位置。
50.在一种可能的实现方式中,所述确定模块,还用于:
51.基于所述第一游戏路线和所述第二游戏路线交点数量,从所述至少一个第二游戏开始位置中确定至少一个投放位置。
52.在一种可能的实现方式中,所述确定模块,还用于:
53.若当前参与游戏的游戏角色的数量小于预设数量,则根据参与游戏的游戏角色对应的游戏数据,确定所述目标游戏角色。
54.在一种可能的实现方式中,所述装置还包括:
55.控制模块,用于在所述游戏场景中控制所述机器人角色按所述第二游戏路线移动。
56.在一种可能的实现方式中,所述计算模块,还用于:
57.若所述目标游戏角色的实际路线与所述第一游戏路线的偏差值大于第一预设阈值,则基于所述目标游戏角色的当前位置以及所述路径决策模型,计算得出所述目标游戏角色的第三游戏路线;
58.所述装置还包括:
59.更新模块,用于基于所述第三游戏路线更新所述第二游戏路线。
60.在一种可能的实现方式中,所述更新模块,还用于:
61.获取所述第二游戏路线中的至少一个可调决策点,所述可调决策点对应多个行走策略,各行走策略的权重差异小于第二预设阈值;
62.确定所述可调决策点中与所述目标游戏角色的当前位置距离最近的目标可调决策点;
63.基于所述第三游戏路线,确定所述目标可调决策点的目标行走策略;
64.按照所述目标行走策略更新所述第二游戏路线。
65.在一种可能的实现方式中,所述装置还包括:
66.所述获取模块,还用于获取参与所述游戏的玩家在历史游戏过程中生成的历史游戏行为数据,所述历史游戏行为数据包括:各玩家所操控的游戏角色的游戏参数、环境参数,所述游戏参数包括如下至少一项:位置信息、动作信息、资源信息、任务点所在位置,所述环境参数包括如下至少一项:热门资源所在位置、环境攻击信息;
67.训练模块,用于以所述历史游戏行为数据作为样本数据,训练得到所述路径决策模型。
68.第三方面,本技术实施例提供一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述处理器执行所述机器可读指令,以执行如上述第一方面所述的游戏中机器人角色的投放方法的步骤。
69.第四方面,本技术实施例提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如上述第一方面所述的游戏中机器人角色的投放方法的步骤。
70.本技术的有益效果是:
71.本技术实施例提出一种游戏中机器人角色的投放方法,该方法包括:确定目标游戏角色;获取目标游戏角色在游戏场景内的第一游戏开始位置,并基于第一游戏开始位置在游戏场景中确定至少一个第二游戏开始位置,第二游戏开始位置是用于在游戏场景内投放机器人角色的备选位置;基于第一游戏开始位置和预先训练的路径决策模型,计算得出目标游戏角色在游戏场景中的第一游戏路线;基于至少一个第二游戏开始位置和路径决策模型,预测得出游戏场景中的至少一个第二游戏路线;基于第一游戏路线和第二游戏路线,从至少一个第二游戏开始位置中确定至少一个投放位置,以在投放位置投放至少一个机器人角色。在本方案中,主要先是利用预先训练得到的符合所有玩家在真实环境下的路径决策模型、以及目标玩家所操控的目标游戏角色在游戏场景内的第一游戏开始位置(即出生点、或者游戏中当前所处的位置),推算出目标游戏角色在接下来的游戏场景中可能会行走的第一游戏路线;同时,根据路径决策模型、以及由第一游戏开始位置确定的至少一个第二游戏开始位置(即,在游戏场景内机器人角色可能会出现的备选位置),预测出机器人角色可能会行走的第二游戏路线;然后,根据目标游戏角色的第一游戏路线、以及机器人角色的第二游戏路线,从至少一个第二游戏开始位置筛选出至少一个机器人角色的投放位置,其中,投放位置为与目标玩家以符合常理方式相遇的机器人角色的出生点;最后,在筛选出的投放位置投放至少一个机器人角色,以使得被投放的机器人角色按照第二游戏路线进行移
动,从而可以制造机器人角色与目标游戏角色的偶遇效果,使得机器人角色能够被目标游戏角色击杀(或者,也有可能被其他游戏角色击杀),让目标玩家有击杀体验,同时又不至于让目标玩家明显察觉到是与机器人角色进行对战,达到了帮助一部分新手或连败玩家提高游戏体验的效果,提高了玩家的游戏战斗体验。
附图说明
72.为了更清楚地说明本技术实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本技术的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
73.图1为本技术实施例提供的游戏中机器人角色的投放方法的流程示意图;
74.图2为本技术实施例提供的第一游戏位置与第二游戏位置的示意图;
75.图3为本技术实施例提供的游戏中机器人角色的投放方法的另一流程示意图;
76.图4为本技术实施例提供的第一游戏路线与第二游戏路线的示意图一;
77.图5为本技术实施例提供的第一游戏路线与第二游戏路线的示意图二;
78.图6为本技术实施例提供的游戏中机器人角色的投放方法的另一流程示意图;
79.图7为本技术实施例提供的第三游戏路线与第二游戏路线的示意图;
80.图8为本技术实施例提供的游戏中机器人角色的投放方法的又一流程示意图;
81.图9为本技术实施例提供的游戏中机器人角色的投放装置的结构示意图;
82.图10为本技术实施例提供的电子设备结构示意图。
具体实施方式
83.为使本技术实施例的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述,应当理解,本技术中附图仅起到说明和描述的目的,并不用于限定本技术的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本技术中使用的流程图示出了根据本技术的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本技术内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
84.另外,所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本技术实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本技术的实施例的详细描述并非旨在限制要求保护的本技术的范围,而是仅仅表示本技术的选定实施例。基于本技术的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本技术保护的范围。
85.需要说明的是,本技术实施例中将会用到术语“包括”,用于指出其后所声明的特征的存在,但并不排除增加其它的特征。
86.在提出本技术方案之前,现有技术中,主要是在每一局游戏中投放一定数量的机器人角色,且投放的机器人角色是按照简单的有限状态机(finite-state machine,一种典型的游戏ai模型,机器人角色根据当前的所处状态执行预设列表中的行动)进行移动。例
如,在每一局游戏中,机器人角色的出生点位置可以是随机确定的,或者直接出生在目标玩家所操控的目标游戏角色的附近,然后,在机器人角色出生后直奔目标游戏角色而去,目标游戏角色可以直接与机器人角色对战,使得机器人角色可以被目标游戏角色击杀,从而达到了帮助一部分新手或连败玩家提高游戏体验的效果。
87.但是,在每一局游戏中所投放的机器人角色是根据当前的所处状态执行预设列表中的行动,存在机器人角色的行为过于简单等问题,很容易被玩家识别(比如,在一些游戏场景中,目标游戏角色身处很偏远的地方,机器人角色则穿越很远距离径直向隐蔽中的目标游戏角色移动,一般正常玩家几乎不会采取这种移动路径,这样很容易导致机器人角色被目标玩家识破),从而导致游戏战斗体验大幅下降,甚至会使得玩家觉得游戏的在线人数较少从而可能流失。
88.本技术实施例基于上述问题,提出一种游戏中机器人角色的投放方法,利用预先训练得到的符合所有玩家在真实环境下的路径决策模型、以及目标玩家所操控的目标游戏角色在游戏场景内的第一游戏开始位置(即出生点、或者游戏中当前所处的位置),推算出目标游戏角色在接下来的游戏场景中可能会行走的第一游戏路线;同时,根据路径决策模型、以及由第一游戏开始位置确定的至少一个第二游戏开始位置(即,在游戏场景内机器人角色可能会出现的备选位置),预测出机器人角色可能会行走的第二游戏路线;然后,根据目标游戏角色的第一游戏路线、以及机器人角色的第二游戏路线,从至少一个第二游戏开始位置筛选出至少一个机器人角色的投放位置,其中,投放位置为与目标玩家以符合常理方式相遇的机器人角色的出生点;最后,在筛选出的投放位置投放至少一个机器人角色,以使得被投放的机器人角色按照第二游戏路线进行移动,从而可以制造机器人角色与目标游戏角色的偶遇效果,使得机器人角色能够被目标游戏角色击杀,让目标玩家有击杀体验,同时又不至于让目标玩家明显察觉到是与机器人角色对战,达到了帮助一部分新手或连败玩家提高游戏体验的效果,提高了玩家的游戏战斗体验。
89.在本技术其中一种实施例中的游戏中机器人角色的投放方法可以运行于本地终端设备或者是服务器。当游戏中机器人角色的投放方法运行于服务器时,该方法则可以基于云交互系统来实现与执行,其中,云交互系统包括服务器和客户端设备。
90.在一可选的实施方式中,云交互系统下可以运行各种云应用,例如:云游戏。以云游戏为例,云游戏是指以云计算为基础的游戏方式。在云游戏的运行模式下,游戏程序的运行主体和游戏画面呈现主体是分离的,游戏中机器人角色的投放方法的储存与运行是在云游戏服务器上完成的,客户端设备的作用用于数据的接收、发送以及游戏画面的呈现,举例而言,客户端设备可以是靠近用户侧的具有数据传输功能的显示设备,如,移动终端、电视机、计算机、掌上电脑等;但是进行信息处理的为云端的云游戏服务器。在进行游戏时,玩家操作客户端设备向云游戏服务器发送操作指令,云游戏服务器根据操作指令运行游戏,将游戏画面等数据进行编码压缩,通过网络返回客户端设备,最后,通过客户端设备进行解码并输出游戏画面。
91.在一可选的实施方式中,以游戏为例,本地终端设备存储有游戏程序并用于呈现游戏画面。本地终端设备用于通过图形用户界面与玩家进行交互,即,常规的通过电子设备下载安装游戏程序并运行。该本地终端设备将图形用户界面提供给玩家的方式可以包括多种,例如,可以渲染显示在终端的显示屏上,或者,通过全息投影提供给玩家。举例而言,本
地终端设备可以包括显示屏和处理器,该显示屏用于呈现图形用户界面,该图形用户界面包括游戏画面,该处理器用于运行该游戏、生成图形用户界面以及控制图形用户界面在显示屏上的显示。
92.在一种可能的实施方式中,本技术实施例提供了一种游戏中机器人角色的投放方法,利用该方法使得机器人角色在特定的投放位置上被投放并基于第二游戏路线在游戏场景内移动。当机器人角色移动至目标游戏角色所在的区域时,通过终端设备提供的图形用户界面可以显示机器人角色。玩家相应可以控制目标游戏角色做出移动、击杀等动作。其中,终端设备可以是前述提到的本地终端设备,也可以是前述提到的云交互系统中的客户端设备。
93.如下将通过多个实施例对本技术的游戏中机器人角色的投放方法的具体实现进行详细说明。
94.图1为本技术实施例提供的游戏中机器人角色的投放方法的流程示意图,需要说明的是,本技术所提供的游戏中机器人角色的投放方法并不以图1以及以下所述的具体顺序为限制。
95.应当理解,在其它实施例中,本技术所提供的游戏中机器人角色的投放方法其中部分步骤的顺序可以根据实际需要相互交换,或者其中的部分步骤也可以省略或删除。如图1所示,该方法包括:
96.s101、确定目标游戏角色。
97.示例性的,目标游戏角色可以是游戏场景中的新手或连败玩家所操控的游戏角色。
98.在本实施例中,主要是为了帮助目标玩家(如,新手或连败玩家)提高游戏体验的效果,提出可以在游戏场景中的某一些随机位置(或者特定位置)处投放至少一个机器人角色,以制造出机器人角色与目标玩家所操控的目标游戏角色之间的偶遇效果,进而使得机器人角色被目标游戏角色击杀,让目标玩家有击杀体验,达到提高了玩家的游戏战斗体验,避免出现游戏玩家流失的情况,从而增加游戏玩家的粘合度。
99.可选地,可以根据各玩家所操控的游戏角色在多场游戏中的游戏行为,其中,游戏行为包括:击杀比、输赢局数、历史获胜率等,来确定哪些玩家为新手玩家、连败玩家、或者需要帮助提高游戏体验的玩家,以便于精准地从多个玩家中确定出目标玩家,并将目标玩家所操控的游戏角色作为目标游戏角色。
100.s102、获取目标游戏角色在游戏场景内的第一游戏开始位置,并基于第一游戏开始位置在游戏场景中确定至少一个第二游戏开始位置。
101.其中,第二游戏开始位置是用于在游戏场景内投放机器人角色的备选位置。
102.可选地,第一游戏开始位置可以为目标游戏角色刚进入游戏时的出生点位置,或者是目标游戏角色在游戏中的当前位置点。同时,还可以根据第一游戏开始位置在游戏场景中确定至少一个第二游戏开始位置,例如,可以将距离第一游戏开始位置最近的任务点所在的位置(或者热门资源所在的位置)作为第二游戏开始位置;或者,在第一游戏开始位置的第一距离范围内随机生成多个至少一个第二游戏开始位置。
103.s103、基于第一游戏开始位置和预先训练的路径决策模型,计算得出目标游戏角色在游戏场景中的第一游戏路线。
104.其中,路径决策模型可以是根据游戏内大量玩家的历史游戏行为数据,使用神经网络的算法,训练得到的一个网络模型。
105.在本实施例中,将上述得到的目标游戏角色在游戏中的第一游戏开始位置输入至路径决策模型中,得到目标游戏角色在接下来的游戏中可能的行走路径,即第一游戏路线。其中,第一游戏路线包括多个位置点、以及各位置点的行走方向。
106.s104、基于至少一个第二游戏开始位置和路径决策模型,预测得出游戏场景中的至少一个第二游戏路线。
107.可选地,同时将至少一个第二游戏开始位置输入至路径决策模型,预测得到至少一个机器人角色在接下来的游戏中可能的行走路径,即第二游戏路线。其中,第二游戏路线包括多个位置点、以及各位置点的行走方向。
108.这样,使得机器人角色也可以学习到真人玩家的游戏行为,使得预测得到的机器人角色在游戏中行走的第二游戏路线更接近于真人玩家,使得机器人角色的活动更具随机性、更逼真,避免了机器人角色在游戏中的游戏行为过于简单粗暴,提升游戏玩家的游戏体验。
109.s105、基于第一游戏路线和第二游戏路线,从至少一个第二游戏开始位置中确定至少一个投放位置,以在投放位置投放至少一个机器人角色。
110.应理解,投放位置为目标游戏角色在游戏中可能经过的某一个位置点。这样,使得可以在各投放位置处投放至少一个机器人角色,以达到制造出机器人角色与目标游戏角色之间的偶遇效果。这种制造的偶遇效果,可以避免出现“目标游戏角色在很偏远、不可能被别人看到的地方,也会有机器人角色径直穿过开阔无物的地形来找目标游戏角色”这种一眼就能够被玩家识别出是机器人角色的不良体验。此外,机器人角色也会像真人玩家一样,前往热门资源点、或赶去任务地点,并在这个行走过程中与目标游戏角色相遇。
111.示例性地,例如,各投放位置投放的机器人角色数量可以是一个、或者多个,且各投放位置投放的机器人角色的时间也可以是同一时间段、或者是不同的时间段。
112.在本实施例中,可以根据第一游戏路线和至少一个第二游戏路线,从至少一个第二游戏开始位置(即备选位置)筛选出机器人角色的投放位置(即投放位置机器人角色在游戏中的出生点位置),并将投放位置作为投放机器人角色的位置点。这种基于路径决策模型精确地投放机器人角色,使得被投放的机器人角色按照第二游戏路线进行移动,以制造出机器人角色与目标游戏角色之间的偶遇效果,以使得机器人角色能够被目标游戏角色击杀,让目标玩家有击杀体验,同时又不至于让目标玩家明显察觉到是与机器人角色对战,达到了帮助一部分新手或连败玩家提高游戏体验的效果,提高了玩家的游戏战斗体验。
113.综上所述,本技术实施例提出一种游戏中机器人角色的投放方法,该方法包括:确定目标游戏角色;获取目标游戏角色在游戏场景内的第一游戏开始位置,并基于第一游戏开始位置在游戏场景中确定至少一个第二游戏开始位置,第二游戏开始位置是用于在游戏场景内投放机器人角色的备选位置;基于第一游戏开始位置和预先训练的路径决策模型,计算得出目标游戏角色在游戏场景中的第一游戏路线;基于至少一个第二游戏开始位置和路径决策模型,预测得出游戏场景中的至少一个第二游戏路线;基于第一游戏路线和第二游戏路线,从至少一个第二游戏开始位置中确定至少一个投放位置,以在投放位置投放至少一个机器人角色。在本方案中,主要先是利用预先训练得到的符合所有玩家在真实环境
下的路径决策模型、以及目标玩家所操控的目标游戏角色在游戏场景内的第一游戏开始位置(即出生点、或者游戏中当前所处的位置),推算出目标游戏角色在接下来的游戏场景中可能会行走的第一游戏路线;同时,根据路径决策模型、以及由第一游戏开始位置确定的至少一个第二游戏开始位置(即,在游戏场景内机器人角色可能会出现的备选位置),预测出机器人角色可能会行走的第二游戏路线;然后,根据目标游戏角色的第一游戏路线、以及机器人角色的第二游戏路线,从至少一个第二游戏开始位置筛选出至少一个机器人角色的投放位置,其中,投放位置为与目标玩家以符合常理方式相遇的机器人角色的出生点;最后,在筛选出的投放位置投放至少一个机器人角色,以使得被投放的机器人角色按照第二游戏路线进行移动,从而可以制造机器人角色与目标游戏角色的偶遇效果,使得机器人角色能够被目标游戏角色击杀(或者,也有可能被其他游戏角色击杀),让目标玩家有击杀体验,同时又不至于让目标玩家明显察觉到是与机器人角色进行对战,对战结果(如,击杀/阵亡比)可以维持玩家激励,达到了帮助一部分新手或连败玩家提高游戏体验的效果,提高了玩家的游戏战斗体验。
114.将通过如下实施例,具体讲解上述步骤s101中如何确定目标游戏角色。
115.作为一种可选的实施方式,上述步骤s101包括:
116.根据参与游戏的游戏角色对应的游戏数据,确定目标游戏角色;其中,所述游戏数据至少包括游戏角色的历史对战结果。
117.示例性地,游戏角色的历史对战结果可以是指在实际的游戏对局中,某一些玩家的历史获胜率(或者胜负率)、击杀数量、玩家游戏水平值(kill death assist,简称kda);其中,玩家游戏水平值用于表征在玩家参与游戏中击杀率和战败率的对比,kda数值越高,则表征游戏玩家的游戏水平越高。
118.在本实施例中,例如,某一些玩家的历史获胜率(或者胜负率)、击杀数量、玩家游戏水平值均大于或等于各自预设阈值,这种对战结果会使得这些玩家因为挫败感较强而容易流失,则可以将这些挫败感较强的玩家作为目标玩家,同时将目标玩家所操控的游戏角色作为目标游戏角色。这样,使得在目标玩家进入下一局游戏(或者是接下来的游戏中)匹配时,可以根据目标游戏角色的历史对战结果,为目标游戏角色针对性地投放一定数量的机器人角色,使得机器人角色能够被目标游戏角色击杀,从而让目标玩家有击杀体验,以帮助目标玩家提高游戏体验,从而可以避免发生玩家流失的情况。
119.将通过如下实施例,具体讲解上述步骤s102中如何基于第一游戏开始位置在游戏场景中确定至少一个第二游戏开始位置。
120.作为一种可选的实施方式,上述步骤s102包括:在游戏场景中第一游戏开始位置的预设范围内,确定至少一个第二游戏开始位置。
121.在本实施例中,为了使得玩家可以尽快有击杀体验且计算量小,提出可以在目标游戏角色所处的第一游戏开始位置的预设范围内,确定出至少一个第二游戏开始位置,即待投放的机器人角色的备选位置。
122.例如,参考图2所示,目标游戏角色所处的第一游戏开始位置为p0,则在距离第一游戏开始位置p0为10米的范围内随机生成4个第二游戏开始位置,即p21、p22、p23以及p24。
123.作为另一种可选的实施方式,为了解决上述在目标游戏角色所处的第一游戏开始位置的预设范围内确定出至少一个第二游戏开始位置时,存在投放的多个机器人角色可能
会碰到一起的情况,还提出可以在游戏中全局地图中选取至少一个第二游戏开始位置,其中,选取的第二游戏开始位置可以为任务点所处的位置、或者是热门资源所处的位置。这种在游戏中全局地图中选取第二游戏开始位置的方式,可以避免目标游戏角色在游戏中在同一时间碰到多个机器人角色的情况,使得机器人角色在任意位置点出生,机器人角色的游戏行为更具随机性、更逼真,从而提升了游戏玩家的游戏体验。
124.将通过如下实施例,具体讲解上述步骤s105中如何基于第一游戏路线和第二游戏路线,从至少一个第二游戏开始位置中确定至少一个投放位置。
125.作为一种可选的实施方式,参考图3所示,上述步骤s105包括:
126.s301、获取与目标游戏角色匹配的机器人投放策略。
127.其中,机器人投放策略可以包括与目标游戏角色匹配的机器人角色投放数量与投放时间、与目标游戏角色的相遇时间等。
128.这样,使得可以根据机器人投放策略,确定各投放位置处机器人角色投放数量与投放时间,以控制机器人角色与目标游戏角色应何时相遇、以及机器人角色应何时被目标游戏角色击杀。
129.例如,目标游戏角色的历史对战结果(或者是前半场游戏中的对战结果)表现不佳,需要在这一整场游戏中(或者是后半场游戏中)帮助目标游戏角色击杀的机器人角色数量为至少3个,如在游戏开始后第3分钟有1个、第10分钟1个、第15分钟1个。
130.可选的,可以针对每个游戏角色分别生成相应的机器人投放策略,或者,也可以针对同一类游戏角色共同生成一个或多个机器人投放策略,本技术对此不做具体限定。例如,同一级别的某些游戏角色在当前时间之前的一段时间内的游戏表现相当,则可以为这些游戏角色共同生成一个公用的机器人投放策略。
131.可选的,机器人投放策略可以根据目标游戏角色的最近游戏表现进行动态更新。例如,可以在目标游戏角色每结束3场游戏之后,根据目标游戏角色在该3场游戏中的游戏数据,更新机器人投放策略。以使得机器人投放策略与玩家的实际能力或状态更加匹配。
132.s302、基于机器人投放策略、第一游戏路线和第二游戏路线,在至少一个第二游戏开始位置中确定至少一个投放位置。
133.在上述实施例的基础上,可以按照机器人投放策略、第一游戏路线和第二游戏路线,从至少一个第二游戏开始位置中筛选出至少3个投放位置,并分别游戏开始后第3分钟在第一个投放位置处投放一个机器人角色、第10分钟在第二个投放位置处投放一个机器人角色、第15分钟在第三个投放位置处投放一个机器人角色。
134.作为另一种可选的实施方式,上述步骤s105包括:
135.基于第一游戏路线和第二游戏路线交点数量,从至少一个第二游戏开始位置中确定至少一个投放位置。
136.其中,第一游戏路线和第二游戏路线的交点为机器人角色和目标游戏角色在游戏中的相遇点。若第一游戏路线和第二游戏路线的交点数量越多,则机器人角色和目标游戏角色相遇的几率越大。
137.在本实施例中,参考图4所示,例如,为了便于说明,假设第二游戏开始位置为2个,则第二游戏路线为2条,可以计算第一游戏路线和各条第二游戏路线的交点,其中,第一游戏路线l1与第二游戏路线l21的交点数量为4个,第一游戏路线与第二游戏路线l22的交点
数量为1个,则第一游戏路线l1与第二游戏路线l21的交点数量最多,则将第二游戏路线l21的第二游戏开始位置p21作为一个投放位置,并控制被投放至第二游戏开始位置p21的机器人角色按照第二游戏路线l21进行移动,从而有效提高机器人角色与目标游戏角色的偶遇概率。
138.此外,还可以根据游戏场景需要制造出目标游戏角色与机器人角色的偶遇场景,如,“目标游戏角色被机器人角色从背后偷袭,但机器人角色被目标虚拟角色反杀”、“目标游戏角色正好行进到机器人角色背后,占据偷袭先手”等正面的游戏体验,提高游戏体验。
139.将通过如下实施例,具体讲解何时需要确定目标游戏角色。
140.作为一种可选的实施方式,根据参与游戏的游戏角色对应的游戏数据,确定目标游戏角色,包括:
141.若当前参与游戏的游戏角色的数量小于预设数量,则根据参与游戏的游戏角色对应的游戏数据,确定目标游戏角色。
142.例如,在某一局游戏中,若当前参与游戏的游戏角色的数量过少,则容易使得玩家觉得当前游戏在线人数较少,从而容易流失。因此,在本实施例中,为了避免出现玩家流失的情况,可以根据当前参与游戏的游戏角色的数量,判断当前是否需要确定目标游戏角色。
143.在本实施例中,可以在刚一进入游戏场景后(或者是在游戏过程中),获取当前参与游戏的游戏角色数量,若当前参与游戏的游戏角色数量为6个,但这局游戏需要凑齐10个人才可以开启游戏(或者继续游戏),也即,当前参与游戏的游戏角色数量6小于预设数量10。因此,针对这种情况,可以根据参与游戏的游戏角色对应的游戏数据,从多个游戏角色中确定目标游戏角色,以为目标游戏角色投放一定数量的机器人角色,使得投放的机器人角色可以被目标游戏角色或者其他游戏角色击杀。
144.将通过如下实施例,具体讲解在投放位置投放至少一个机器人角色之后,如何控制机器人角色进行移动。
145.作为一种可选的实施方式,在投放位置投放至少一个机器人角色的步骤之后,该方法还包括:在游戏场景中控制机器人角色按第二游戏路线移动。
146.在本实施例中,在将至少一个机器人角色分别投放至上述确定的投放位置后,还需要控制机器人角色按照第二游戏路线进行移动,从而有效提高机器人角色与目标游戏角色的偶遇概率。
147.将通过如下实施例,具体讲解在投放位置投放至少一个机器人角色之后,若第一游戏路线发生变更后,如何继续控制机器人角色进行移动。
148.作为一种可选的实施方式,该方法还包括:
149.若目标游戏角色的实际路线与第一游戏路线的偏差值大于第一预设阈值,则基于目标游戏角色的当前位置以及路径决策模型,计算得出目标游戏角色的第三游戏路线,并基于第三游戏路线更新第二游戏路线。
150.可选的,上述实际路线与第一游戏路线的偏差值可以通过实际路线与第一游戏路线上各位置点的位置偏差来确定。示例性的,动态选取当前时间前5秒的实际子路线和第一游戏子路线,分别从实际子路线和第一游戏子路线中选择n个采样位置点,n为大于1的整数。按照各采样位置点的顺序,生成n个位置点对,每个位置点对中包括实际子路线中的一个第一位置点以及第一游戏子路线中与第一位置点具有相同顺序编号的第二位置点。针对
每个位置点对,分别计算其中第一位置点与第二位置点的位置偏差值,该偏差值可以通过第一位置点和第二位置点的三维坐标计算。进而,对n个位置点对所计算出的位置偏差值进行融合处理,从而计算出实际路线与第一游戏路线的偏差值。其中,上述融合处理例如可以包括:均值、方差等处理方式。
151.应理解,在实际的游戏对局中,目标游戏角色的实际路线主要是基于目标玩家所操控确定的,具有一定的随机性、任意性。这样,使得目标游戏角色的实际路线、与基于路径决策模型推算出的第一游戏路线可能存在一定偏差。例如,参考图5所示,目标游戏角色的实际路线为l11、第一游戏路线为l1,则可以根据目标游戏角色的实际路线为l11上的各位置点、以及第一游戏路线l1上的各位置点之间的差值,计算得到目标游戏角色的实际路线l11与第一游戏路线l1的偏差值m,若偏差值m大于第一预设阈值,则将目标游戏角色的当前位置p1输入至路径决策模型,得到目标游戏角色的第三游戏路线(图5中未示出),即第三游戏路线为目标游戏角色在接下来的游戏中可能的行走路线。
152.同时,为了使机器人角色以更符合真人玩家的游戏行为的移动方式遇到目标游戏角色,提出还需要根据第三游戏路线对之前预测得到的机器人角色的第二游戏路线进行实时调整,使得在机器人角色在游戏中的实际路线会尽可能主动向目标游戏角色靠近,提高机器人角色与目标游戏角色偶遇的概率。此外,这样还可以使得机器人角色的实际路线更灵活、更拟真,不会因为机器人角色的实际路线过于简单而被目标玩家所识别,从而提升游戏体验。
153.在另一种可实现的方式中,若目标游戏角色的实际路线与第一游戏路线的偏差值小于或等于第一预设阈值,则不需对机器人角的第二游戏路线进行更新。
154.将通过如下实施例,具体讲解如何基于第三游戏路线更新第二游戏路线。
155.作为一种可选的实施方式,参考图6所示,该方法还包括:
156.s601、获取第二游戏路线中的至少一个可调决策点。
157.其中,可调决策点对应多个行走策略,各行走策略的权重差异小于第二预设阈值。
158.可选的,可调决策点为第二游戏路线上的一个或位置点。在前述路径决策模型输出的第二游戏路线中,可以包括多个位置点,每个位置点上均携带行走策略及行走策略的权重。其中,行走策略可以指在该位置点上的行走方向,行走策略的权重表示向该行走方向行走的概率。各位置点上的行走策略可以包括多个。对于第二游戏路线上的一些位置点,其所包括的多个行走策略中各行走策略的权重差异悬殊,则表明在这些位置点上大概率会按照权重最大的行走策略来行走,则这些位置点可以称为不可调决策点。例如,在某个位置点a上,行走策略“向左走”的权重为90%,行走策略“向右走”的权重为10%,则表明在这个位置点上,绝大多数玩家都会选择向左走,因此不适合在这个位置点上突然改变策略向右走,因此,该位置点a为一个不可调决策点。与之相对的,对于第二游戏路线上的另一些位置点,其所包括的多个行走策略中各行走策略的权重差异较小,则表明在这些位置点上可以按照其中任意一个行走决策行走,则这些位置点可以称为上述的可调决策点。例如,在某个位置点b上,行走策略“向左走”的权重为51%,行走策略“向右走”的权重为49%,则表明在这个位置点上,一部分玩家会选择向左走,一部分玩家会选择向右走,即无论是向右走或者向左走都是自然不突兀的,因此,可以在这个位置点上从向左走改变为向右走,因此,该位置点b为一个可调决策点。
159.可选的,可调决策点对应多个行走策略包括:移动至下一个位置点行走方向,行走方向可以为游戏场景中的任一方向,如行走方向为向左、向右、左上角、或者左下角等,且向左、向右、左上角、或者左下角的权重差异均小于第二预设阈值。
160.在本实施例中,将至少一个第二游戏开始位置输入至路径决策模型中,预测得出机器人角色在游戏场景中移动时至少一个第二游戏路线上的各可调决策点。
161.s602、确定可调决策点中与目标游戏角色的当前位置距离最近的目标可调决策点。
162.在本实施例中,可以参考图7所示,可以目标游戏角色的当前位置为p1,第二游戏路线上的可调决策点包括p3、p4、p5,根据各可调决策点的坐标、以及目标游戏角色的当前位置的坐标p1,分别计算各可调决策点与目标游戏角色的当前位置之间的距离值,通过对比计算得到的各距离值,发现可调决策点p4距离目标游戏角色的当前位置p1的距离值为最小,则可调决策点p4作为目标可调决策点。
163.s603、基于第三游戏路线,确定目标可调决策点的目标行走策略。
164.可选地,可以根据目标游戏角色行走的第三游戏路线,得到可调决策点p4的行走策略为向左上角,即机器人角色移动至下一个位置点的行走方向为向左上角。
165.s604、按照目标行走策略更新第二游戏路线。
166.在上述实施例的基础上,可以根据上述确定的目标行走策略,及时对机器人角色下一次移动的位置点进行调整,即对第二游戏路线进行更新。这样,使得在机器人角色在游戏中的实际路线调整中会尽可能主动向目标游戏角色靠近,提高机器人角色与目标游戏角色偶遇的概率。
167.在本实施例中,根据目标游戏角色在实际中的第三游戏路线、以及第二游戏路线上的目标可调策略点,及时对第二游戏路线进行更新,提高机器人角色遇到目标游戏角色的概率。
168.将通过如下实施例,具体讲解如何训练得到路径决策模型。
169.作为一种可选的实施方式,参考图8所示,在基于第一游戏开始位置和预先训练的路径决策模型,计算得出目标游戏角色在所述游戏场景中的第一游戏路线之前,该方法还包括:
170.s801、获取参与游戏的玩家在历史游戏过程中生成的历史游戏行为数据。
171.其中,历史游戏行为数据包括:各玩家所操控的游戏角色的游戏参数、环境参数,游戏参数包括如下至少一项:位置信息、动作信息、资源信息、任务点所在位置,环境参数包括如下至少一项:热门资源所在位置、环境攻击信息。例如,位置信息为玩家所操控的目标游戏角色在游戏中的各位置点。
172.在本实施例中,可以从存储有所有玩家游戏行为的游戏数据库中,获取参与游戏的玩家在历史游戏过程中生成的历史游戏行为数据,比如,可以获取到所有玩家所操控的游戏角色的职业、当前这局游戏过去时间、游戏角色当前的位置信息、游戏角色的状态、游戏角色的装备信息、环境攻击信息所在区域的位置和大小、附近热门资源的分布点、附近任务点的位置点等,并将玩家的历史游戏行为数据作为函数的自变量(即训练样本),将游戏角色的移动路径作为因变量。
173.s802、以历史游戏行为数据作为样本数据,训练得到路径决策模型。
174.在本实例中,可以选用神经网络算法作为初始路径决策模型,也可以选用其他机器学习算法,在此对选取的初始路径决策模型不做具体限定。
175.将上述获取到的历史游戏行为数据作为样本数据输入至初始路径决策模型中,对初始路径决策模型进行迭代训练,当经过多次迭代得到的临时路径决策模的准确率已经无法得到明显的提升时,则将最后一次训练得到的临时路径决策模作为最终训练得到的路径决策模型。这样,可以确保训练得到的路径决策模型能够学习到真人玩家在游戏中的游戏行为,提高了对目标游戏角色的第一游戏路线、以及机器人角色第二游戏路线预测的准确性。
176.值得说明的是,针对路径决策模型是可以可自我迭代训练学习的,当游戏版本发生更迭时,可以利用新生成的游戏行为数据重新训练得到路径决策模型,游戏避免了随着游戏版本更新,需要反复调整规则的人力与时间投入的问题。
177.基于同一发明构思,本技术实施例中还提供了与游戏中机器人角色的投放对应的游戏中机器人角色的投放装置,由于本技术实施例中的装置解决问题的原理与本技术实施例上述游戏中机器人角色的投放方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
178.图9为本技术实施例提供的游戏中机器人角色的投放装置的结构示意图,该装置包括:
179.确定模块901,用于确定目标游戏角色;
180.获取模块902,用于获取目标游戏角色在游戏场景内的第一游戏开始位置,并基于第一游戏开始位置在游戏场景中确定至少一个第二游戏开始位置,第二游戏开始位置是用于在游戏场景内投放机器人角色的备选位置;
181.计算模块903,用于基于第一游戏开始位置和预先训练的路径决策模型,计算得出目标游戏角色在游戏场景中的第一游戏路线;基于至少一个第二游戏开始位置和路径决策模型,预测得出游戏场景中的至少一个第二游戏路线;
182.确定模块901,还用于基于第一游戏路线和第二游戏路线,从至少一个第二游戏开始位置中确定至少一个投放位置,以在投放位置投放至少一个机器人角色。
183.在一种可能的实现方式中,确定模块901,还用于:
184.根据参与游戏的游戏角色对应的游戏数据,确定目标游戏角色;
185.其中,游戏数据至少包括游戏角色的历史对战结果。
186.在一种可能的实现方式中,确定模块901,还用于:
187.在游戏场景中第一游戏开始位置的预设范围内,确定至少一个第二游戏开始位置。
188.在一种可能的实现方式中,确定模块901,还用于:
189.获取与目标游戏角色匹配的机器人投放策略;
190.基于机器人投放策略、第一游戏路线和第二游戏路线,在至少一个第二游戏开始位置中确定至少一个投放位置。
191.在一种可能的实现方式中,确定模块901,还用于:
192.基于第一游戏路线和第二游戏路线交点数量,从至少一个第二游戏开始位置中确定至少一个投放位置。
193.在一种可能的实现方式中,确定模块901,还用于:
194.若当前参与游戏的游戏角色的数量小于预设数量,则根据参与游戏的游戏角色对应的游戏数据,确定目标游戏角色。
195.在一种可能的实现方式中,该装置还包括:
196.控制模块,用于在游戏场景中控制机器人角色按第二游戏路线移动。
197.在一种可能的实现方式中,计算模块903,还用于:
198.若目标游戏角色的实际路线与第一游戏路线的偏差值大于第一预设阈值,则基于目标游戏角色的当前位置以及路径决策模型,计算得出目标游戏角色的第三游戏路线;
199.该装置还包括:
200.更新模块,用于基于第三游戏路线更新第二游戏路线。
201.在一种可能的实现方式中,更新模块,还用于:
202.获取第二游戏路线中的至少一个可调决策点,可调决策点对应多个行走策略,各行走策略的权重差异小于第二预设阈值;
203.确定可调决策点中与目标游戏角色的当前位置距离最近的目标可调决策点;
204.基于第三游戏路线,确定目标可调决策点的目标行走策略;
205.按照目标行走策略更新第二游戏路线。
206.在一种可能的实现方式中,该装置还包括:
207.获取模块902,还用于获取参与游戏的玩家在历史游戏过程中生成的历史游戏行为数据,历史游戏行为数据包括:各玩家所操控的游戏角色的游戏参数、环境参数,游戏参数包括如下至少一项:位置信息、动作信息、资源信息、任务点所在位置,环境参数包括如下至少一项:热门资源所在位置、环境攻击信息;
208.训练模块,用于以历史游戏行为数据作为样本数据,训练得到路径决策模型。
209.上述装置用于执行前述实施例提供的方法,其实现原理和技术效果类似,在此不再赘述。
210.以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(application specific integrated circuit,简称asic),或,一个或多个微处理器(digital singnal processor,简称dsp),或,一个或者多个现场可编程门阵列(field programmable gate array,简称fpga)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(central processing unit,简称cpu)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称soc)的形式实现。
211.本技术实施例还提供了一种电子设备,该电子设备可以包括前述实施例中的终端设备或服务器,如图10所示,为本技术实施例提供的电子设备结构示意图包括:处理器1001、存储器1002、和总线1003。所述存储器1002存储有所述处理器1001可执行的机器可读指令(比如,图7中的装置中响应模块、控制模块对应的执行指令等),当电子设备运行时,所述处理器1001与所述存储器1002之间通过总线1003通信,所述机器可读指令被所述处理器1001执行时执行上述方法实施例中的方法步骤。
212.可选地,本技术还提供一种程序产品,例如计算机可读存储介质,包括程序,该程序在被处理器执行时用于执行上述方法实施例。
213.在本技术所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
214.所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
215.另外,在本技术各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
216.上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本技术各个实施例所述方法的部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(英文:read-only memory,简称:rom)、随机存取存储器(英文:random access memory,简称:ram)、磁碟或者光盘等各种可以存储程序代码的介质。

技术特征:
1.一种游戏中机器人角色的投放方法,其特征在于,包括:确定目标游戏角色;获取所述目标游戏角色在游戏场景内的第一游戏开始位置,并基于所述第一游戏开始位置在所述游戏场景中确定至少一个第二游戏开始位置,所述第二游戏开始位置是用于在所述游戏场景内投放机器人角色的备选位置;基于所述第一游戏开始位置和预先训练的路径决策模型,计算得出所述目标游戏角色在所述游戏场景中的第一游戏路线;基于所述至少一个第二游戏开始位置和所述路径决策模型,预测得出所述游戏场景中的至少一个第二游戏路线;基于所述第一游戏路线和所述第二游戏路线,从所述至少一个第二游戏开始位置中确定至少一个投放位置,以在所述投放位置投放至少一个机器人角色。2.根据权利要求1所述的游戏中机器人角色投放方法,其特征在于,所述确定目标游戏角色,包括:根据参与游戏的游戏角色对应的游戏数据,确定所述目标游戏角色;其中,所述游戏数据至少包括所述游戏角色的历史对战结果。3.根据权利要求1所述的游戏中机器人角色的投放方法,其特征在于,所述基于所述第一游戏开始位置在所述游戏场景中确定至少一个第二游戏开始位置,包括:在所述游戏场景中所述第一游戏开始位置的预设范围内,确定至少一个第二游戏开始位置。4.根据权利要求1所述的游戏中机器人角色的投放方法,其特征在于,所述基于所述第一游戏路线和所述第二游戏路线,从所述至少一个第二游戏开始位置中确定至少一个投放位置,包括:获取与所述目标游戏角色匹配的机器人投放策略;基于所述机器人投放策略、所述第一游戏路线和所述第二游戏路线,在所述至少一个第二游戏开始位置中确定至少一个投放位置。5.根据权利要求1所述的游戏中机器人角色的投放方法,其特征在于,所述基于所述第一游戏路线和所述第二游戏路线,从所述至少一个第二游戏开始位置中确定至少一个投放位置,还包括:基于所述第一游戏路线和所述第二游戏路线交点数量,从所述至少一个第二游戏开始位置中确定至少一个投放位置。6.根据权利要求2所述的游戏中机器人角色的投放方法,其特征在于,所述根据参与游戏的游戏角色对应的游戏数据,确定所述目标游戏角色,包括:若当前参与游戏的游戏角色的数量小于预设数量,则根据参与游戏的游戏角色对应的游戏数据,确定所述目标游戏角色。7.根据权利要求1所述的游戏中机器人角色的投放方法,其特征在于,在所述投放位置投放至少一个机器人角色之后,所述方法还包括:在所述游戏场景中控制所述机器人角色按所述第二游戏路线移动。8.根据权利要求7所述的游戏中机器人角色的投放方法,其特征在于,所述方法还包括:
若所述目标游戏角色的实际路线与所述第一游戏路线的偏差值大于第一预设阈值,则基于所述目标游戏角色的当前位置以及所述路径决策模型,计算得出所述目标游戏角色的第三游戏路线,并基于所述第三游戏路线更新所述第二游戏路线。9.根据权利要求8所述的游戏中机器人角色的投放方法,其特征在于,所述基于所述第三游戏路线更新所述第二游戏路线,包括:获取所述第二游戏路线中的至少一个可调决策点,所述可调决策点对应多个行走策略,各行走策略的权重差异小于第二预设阈值;确定所述可调决策点中与所述目标游戏角色的当前位置距离最近的目标可调决策点;基于所述第三游戏路线,确定所述目标可调决策点的目标行走策略;按照所述目标行走策略更新所述第二游戏路线。10.根据权利要求1-9任一项所述的方法,其特征在于,所述基于所述第一游戏开始位置和预先训练的路径决策模型,计算得出所述目标游戏角色在所述游戏场景中的第一游戏路线之前,还包括:获取参与所述游戏的玩家在历史游戏过程中生成的历史游戏行为数据,所述历史游戏行为数据包括:各玩家所操控的游戏角色的游戏参数、环境参数,所述游戏参数包括如下至少一项:位置信息、动作信息、资源信息、任务点所在位置,所述环境参数包括如下至少一项:热门资源所在位置、环境攻击信息;以所述历史游戏行为数据作为样本数据,训练得到所述路径决策模型。11.一种游戏中机器人角色的投放装置,其特征在于,所述装置包括:确定模块,用于确定目标游戏角色;获取模块,用于获取所述目标游戏角色在游戏场景内的第一游戏开始位置,并基于所述第一游戏开始位置在所述游戏场景中确定至少一个第二游戏开始位置,所述第二游戏开始位置是用于在所述游戏场景内投放机器人角色的备选位置;计算模块,用于基于所述第一游戏开始位置和预先训练的路径决策模型,计算得出所述目标游戏角色在所述游戏场景中的第一游戏路线;基于所述至少一个第二游戏开始位置和所述路径决策模型,预测得出所述游戏场景中的至少一个第二游戏路线;所述确定模块,还用于基于所述第一游戏路线和所述第二游戏路线,从所述至少一个第二游戏开始位置中确定至少一个投放位置,以在所述投放位置投放至少一个机器人角色。12.一种电子设备,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如权利要求1-10任一所述方法的步骤。13.一种计算机可读存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1-10任一所述方法。

技术总结
本申请提供一种游戏中机器人角色的投放方法、装置、设备及存储介质,涉及游戏技术领域。该方法包括:确定目标游戏角色;获取目标游戏角色在游戏场景内的第一游戏开始位置,并基于第一游戏开始位置在游戏场景中确定至少一个第二游戏开始位置;基于第一游戏开始位置和预先训练的路径决策模型,计算得出目标游戏角色在游戏场景中的第一游戏路线;基于至少一个第二游戏开始位置和路径决策模型,预测得出游戏场景中的至少一个第二游戏路线;基于第一游戏路线和第二游戏路线,从至少一个第二游戏开始位置中确定至少一个投放位置,以在投放位置投放至少一个机器人角色。本方案达到了帮助目标玩家提高游戏击杀体验的效果,提高了玩家的游戏战斗体验。游戏战斗体验。游戏战斗体验。


技术研发人员:周逸恒 刘勇成 胡志鹏 袁思思 程龙
受保护的技术使用者:网易(杭州)网络有限公司
技术研发日:2022.03.14
技术公布日:2023/9/22
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

航空商城 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

评论

相关推荐