资源调度方法、装置、电子设备和存储介质与流程
未命名
09-24
阅读:72
评论:0
1.本技术涉及虚拟化技术领域,具体涉及一种资源调度方法、装置、电子设备和存储介质。
背景技术:
2.随着云计算、机器学习人工智能的兴起,图形处理器(graphicsprocessing unit,gpu)成为必不可少的加速硬件。
3.现有市场上的gpu一般会自带有硬件虚拟化的功能,但是自带有硬件虚拟化功能的gpu服务器应用成本很高,需要购买支持该虚拟化技术的计算卡,这种计算卡的单价很高,且对于已经持有老型号的计算卡的用户来说升级成本太高。
4.此外,目前gpu的虚拟化方法设计复杂、硬件性能损失大且通用性差,导致很多人工智能服务的业务并不能尽用整张gpu卡的算力,gpu卡算力被浪费。
技术实现要素:
5.本技术实施例提供一种资源调度方法、装置、电子设备和存储介质,用以解决很多人工智能服务的业务并不能尽用整张gpu卡的算力,gpu卡算力被浪费的技术问题。
6.第一方面,本技术实施例提供一种资源调度方法方法,包括:
7.确定待执行任务的资源申请请求;
8.基于gpu宿主机中gpu卡的第一资源得分,确定待调度的gpu宿主机,所述第一资源得分基于所述gpu卡的资源使用情况确定;
9.基于所述资源申请请求,以及所述待调度的gpu宿主机上子gpu资源的第二资源得分,确定待调度的子gpu资源,所述子gpu资源是对gpu宿主机上装设的gpu卡进行虚拟化后切分得到的,所述第二资源得分基于所述子gpu资源的资源使用情况确定;
10.将所述待调度的子gpu资源所对应的gpu卡作为调度节点,以执行所述待执行任务。
11.根据本技术实施例提供的资源调度方法,所述第二资源得分基于如下步骤确定:
12.获取所述子gpu资源的资源使用情况中的第二已使用资源和第二总资源;
13.基于所述第二已使用资源和第二总资源,确定所述第二资源得分。
14.根据本技术实施例提供的资源调度方法,所述第一资源得分基于如下步骤确定:
15.获取所述gpu卡的资源使用情况中的第一已使用资源和第一总资源;
16.基于所述第一已使用资源和第一总资源,确定所述第一资源得分。
17.根据本技术实施例提供的资源调度方法,所述基于所述资源申请请求,以及所述待调度的gpu宿主机上子gpu资源的第二资源得分,确定待调度的子gpu资源,包括:
18.按照所述第二资源得分从高到低的顺序,对所述子gpu资源进行排序;
19.依次从所述子gpu资源中选取所述待调度的子gpu资源,直至所述待调度的子gpu资源的空闲资源量大于等于所述资源申请请求中携带的申请量。
20.根据本技术实施例提供的资源调度方法,所述子gpu资源通过如下步骤得到:
21.将gpu宿主机入驻到容器化应用部署集群,得到容器化应用部署集群中的gpu节点;
22.基于扩展资源插件,将所述gpu节点的资源进行切分,并注册到所述容器化应用部署集群中,得到所述子gpu资源。
23.根据本技术实施例提供的资源调度方法,所述将所述待调度的子gpu资源所对应的gpu卡作为调度节点,以执行所述待执行任务,之后还包括:
24.基于资源监控组件,监控所述待执行任务的子gpu资源使用量;
25.在所述子gpu资源使用量超出所述申请量的情况下,基于所述资源监控组件进行告警提示。
26.根据本技术实施例提供的资源调度方法,所述基于资源监控组件,监控所述待执行任务的子gpu资源使用量,包括:
27.获取所述待执行任务的进程号;
28.基于所述进程号,查询所述待执行任务进程的子gpu资源使用量。
29.第二方面,本技术实施例提供一种资源调度装置,包括:请求确定单元、宿主机确定单元、资源确定单元和gpu卡调度单元。其中,请求确定单元,用于确定待执行任务的资源申请请求;
30.宿主机确定单元,用于基于gpu宿主机中gpu卡的第一资源得分,确定待调度的gpu宿主机,所述第一资源得分基于所述gpu卡的资源使用情况确定;
31.资源确定单元,用于基于所述资源申请请求,以及所述待调度的gpu宿主机上子gpu资源的第二资源得分,确定待调度的子gpu资源,所述子gpu资源是对gpu宿主机上装设的gpu卡进行虚拟化后切分得到的,所述第二资源得分基于所述子gpu资源的资源使用情况确定;
32.gpu卡调度单元,用于将所述待调度的子gpu资源所对应的gpu卡作为调度节点,以执行所述待执行任务。
33.第三方面,本技术实施例提供一种电子设备,包括处理器和存储有计算机程序的存储器,所述处理器执行所述程序时实现第一方面所述的资源调度方法。
34.第四方面,本技术实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面所述的资源调度方法。
35.第五方面,本技术实施例提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现第一方面所述的资源调度方法。
36.本技术实施例提供的资源调度方法、装置、电子设备和存储介质,通过对gpu宿主机上装设的gpu卡进行虚拟化后切分,得到子gpu资源,实现了在同一个gpu卡上并列执行多个任务,减少了成本。
37.此外,在资源调度时采用了两级打分策略,首先对gpu宿主机中gpu卡进行打分,确定待调度的gpu宿主机;然后对待调度的gpu宿主机上子gpu资源进行打分,并结合资源申请请求,确定待调度的子gpu资源;随即根据待调度的子gpu资源确定执行任务的gpu卡,能够将待执行任务分配至最适合的gpu卡上,从而进一步提高了gpu卡利用率,避免了gpu卡算力浪费。
附图说明
38.为了更清楚地说明本技术或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
39.图1是本技术实施例提供的资源调度方法的流程示意图之一;
40.图2是本技术实施例提供的第二资源得分确定方法的流程示意图;
41.图3是本技术实施例提供的第一资源得分确定方法的流程示意图;
42.图4是本技术实施例提供的资源调度方法中步骤130的流程示意图;
43.图5是本技术实施例提供的子gpu资源确定方法的流程示意图;
44.图6是本技术实施例提供的子gpu资源监控方法的流程示意图之一;
45.图7是本技术实施例提供的子gpu资源监控方法的流程示意图之二;
46.图8是本技术实施例提供的资源调度装置的结构示意图;
47.图9是本技术实施例提供的电子设备的结构示意图。
具体实施方式
48.为使本技术的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对本技术中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本技术一部分实施例,而不是全部的实施例。基于本技术中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本技术保护的范围。
49.目前gpu的虚拟化方法设计复杂、硬件性能损失大且通用性差,导致很多人工智能服务的业务并不能尽用整张gpu卡的算力,gpu卡算力被浪费。
50.基于此,本技术实施例提供一种资源调度方法,以提高gpu资源利用率,避免gpu算力的浪费。
51.图1是本技术实施例提供的资源调度方法的流程示意图之一,该方法可应用于分布式计算集群,例如kubernetes平台,进一步地,kubernetes平台可以是笔记本电脑、云服务商的虚拟机、机架上的裸机服务器等,本技术在此不作限定。参照图1,本技术实施例提供一种资源调度方法,可以包括:
52.步骤110,确定待执行任务的资源申请请求。
53.具体地,待执行任务即需要进行资源调度的任务,例如待执行任务可以是深度学习模型的训练和推理预测任务,此类任务往往需要大量的gpu,用来支持更大的模型和数据集。
54.待执行任务的资源申请请求中可以携带多种信息,例如待执行任务的编号、业务类型以及申请使用的gpu资源、内存或cpu资源等。需要说明的是,本技术实施例提供的资源调度方法主要是针对其中的gpu资源进行调度。
55.其中,申请使用的gpu资源可以包括gpu申请容量、gpu等级或gpu类型等,此处不作具体限定,可根据实际需求灵活选择。例如,待执行任务正常运行需要型号为a的gpu卡,需要容量大小为1g等。
56.可以理解的是,为了提高gpu资源利用率,避免gpu算力的浪费,有必要针对每一个
待执行任务的资源申请请求,调度最适合的gpu资源。
57.步骤120,基于gpu宿主机中gpu卡的第一资源得分,确定待调度的gpu宿主机,所述第一资源得分基于所述gpu卡的资源使用情况确定。
58.具体地,gpu宿主机是指装载有gpu卡的机器,每台宿主机可以包含至少一张gpu卡,可以根据gpu宿主机上每张gpu卡的资源使用情况,给gpu宿主机上使用的每张gpu卡进行打分,从而得到第一资源得分。
59.第一资源得分可以表征该gpu卡所在的gpu宿主机作为执行任务的机器的概率。第一资源得分越高,表明该gpu卡所在的gpu宿主机作为执行任务的机器的概率越大,越适合作为待调度的gpu宿主机;第一资源得分越低,表明该gpu卡所在的gpu宿主机作为执行任务的机器的概率越小,越不适合作为待调度的gpu宿主机。
60.进一步地,可以将第一资源得分最高的gpu卡所在的gpu宿主机作为待调度的gpu宿主机。
61.其中,gpu卡的资源使用情况具体可以包括gpu卡已使用容量、剩余容量等。
62.步骤130,基于所述资源申请请求,以及所述待调度的gpu宿主机上子gpu资源的第二资源得分,确定待调度的子gpu资源,所述子gpu资源是对gpu宿主机上装设的gpu卡进行虚拟化后切分得到的,所述第二资源得分基于所述子gpu资源的资源使用情况确定。
63.具体地,考虑到大部分情况下,待执行任务的gpu需求量并不能尽用整张卡的算力,且单张gpu卡的成本较高,导致gpu卡算力被浪费,成本增加。
64.基于此,本技术对gpu宿主机上装设的gpu卡进行虚拟化后切分,虚拟化切分即将单卡维度gpu切分到显存维度gpu,具体是指将每一张gpu卡的gpu资源切分成不同的子区域,每一个子区域分别包含一个子gpu资源,每一个子gpu资源可以用于分别执行一个任务,从而实现了在同一个gpu上并列执行多个任务。此处的子gpu资源即显存维度gpu。
65.可以理解的是,对gpu宿主机上装设的gpu卡进行虚拟化后切分以后,得到多个子gpu资源。随即可根据各个子gpu资源的资源使用情况,对各个子gpu资源进行打分,得到第二资源得分。其中,各个子gpu资源的资源使用情况具体可以包括已使用资源和剩余资源。
66.由此得到第二资源得分,可以表征该子gpu资源作为待调度的子gpu资源的概率,此处待调度的子gpu资源即采用该子gpu资源执行待执行的任务。第二资源得分越高,表示采用该子gpu资源执行任务的概率越高;相应地,第二资源得分越低,表示采用该子gpu资源执行任务的概率越低。
67.随即可以结合资源申请的gpu容量和第二资源得分,确定待调度的子gpu资源。在满足gpu申请容量的前提下,将第二资源得分较高的子gpu资源确定为待调度的子gpu资源。
68.步骤140,将所述待调度的子gpu资源所对应的gpu卡作为调度节点,以执行所述待执行任务。
69.具体地,待调度的子gpu资源确定以后,即可确定该子gpu资源所对应的gpu卡,并将该gpu卡作为调度节点,以执行待执行任务。
70.需要说明的是,待调度的子gpu资源可以是一个或多个,相应地待调度的子gpu资源所对应的gpu卡也可能是一个或多个,本技术实施例对此不作具体限定。
71.本技术实施例提供的资源调度方法,通过对gpu宿主机上装设的gpu卡进行虚拟化后切分,得到子gpu资源,实现了在同一个gpu卡上并列执行多个任务,减少了成本。
72.此外,在资源调度时采用了两级打分策略,首先对gpu宿主机中gpu卡进行打分,确定待调度的gpu宿主机;然后对待调度的gpu宿主机上子gpu资源进行打分,并结合资源申请请求,确定待调度的子gpu资源;随即根据待调度的子gpu资源确定执行任务的gpu卡,能够将待执行任务分配至最适合的gpu卡上,从而进一步提高了gpu卡利用率,避免了gpu卡算力浪费。
73.基于上述实施例,图2是本技术实施例提供的第二资源得分确定方法的流程示意图。参照图2,所述第二资源得分基于如下步骤确定:
74.步骤210,获取所述子gpu资源的资源使用情况中的第二已使用资源和第二总资源;
75.步骤220,基于所述第二已使用资源和第二总资源,确定所述第二资源得分。
76.具体地,第二资源得分可以表征该子gpu资源作为待调度的子gpu资源的概率,进一步地可以将资源使用量、空闲资源量、资源使用率或者资源剩余率等作为打分依据。以空闲资源量为例,空闲资源越多,则该子gpu资源作为待调度的子gpu资源的概率越大;空闲资源越少,则该子gpu资源作为待调度的子gpu资源的概率越小。
77.因此,可以对子gpu资源的资源使用情况进行监控并更新,以获取第二已使用资源和第二总资源。此处的监控可以是实时监控也可以是定时监控。
78.在获取第二已使用资源和第二总资源的基础上,采用预设的算法计算得到第二资源得分。
79.在一个实施例中,第二资源得分的计算公式如下:
80.score2=mgpu(10*sum(requested)/capacity)
81.式中,mgpu()表示第二资源得分函数,sum(requested)表示该子gpu资源已使用的资源量之和,capacity表示该子gpu资源的总资源量。
82.本技术实施例提供的方法,通过子gpu资源的资源使用情况中的第二已使用资源和第二总资源,确定第二资源得分,由此可快速准确的找到子gpu资源相对充足的gpu卡。
83.基于上述任一实施例,图3是本技术实施例提供的第一资源得分确定方法的流程示意图。参照图3,所述第一资源得分基于如下步骤确定:
84.步骤310,获取所述gpu卡的资源使用情况中的第一已使用资源和第一总资源;
85.步骤320,基于所述第一已使用资源和第一总资源,确定所述第一资源得分。
86.具体地,第一资源得分可以表征该gpu卡所在的gpu宿主机作为待调度的gpu宿主机的概率,进一步地可以将该gpu卡的资源使用量、空闲资源量、资源使用率或者资源剩余率等作为打分依据。以空闲资源量为例,空闲资源越多,则该gpu卡所在的gpu宿主机作为待调度的gpu宿主机的概率越大;空闲资源越少,则该gpu卡所在的gpu宿主机作为待调度的gpu宿主机的概率越小。
87.因此,可以对gpu卡的资源使用情况进行监控并更新,以获取第一已使用资源和第一总资源。此处的监控可以是实时监控也可以是定时监控。
88.在获取第一已使用资源和第一总资源的基础上,采用预设的算法计算得到第一资源得分。
89.在一个实施例中,第一资源得分的计算公式如下:
90.score1=gpu(10*sum(requested)/capacity)
91.式中,gpu()表示第一资源得分函数,sum(requested)表示该gpu卡已使用的资源量之和,capacity表示该gpu卡的总资源量。
92.需要说明的是,第二资源得分和第一资源得分均可通过基于kubernetes对外开放的扩展调度器实现,例如mgpu schedulerextender。
93.本技术实施例提供的方法,通过gpu卡的资源使用情况中的第一已使用资源和第一总资源,确定第一资源得分,由此可快速准确的找到gpu卡资源相对充足的gpu宿主机。
94.基于上述任一实施例,图4是本技术实施例提供的资源调度方法中步骤130的流程示意图。参照图4,步骤130具体包括:
95.步骤131,按照所述第二资源得分从高到低的顺序,对所述子gpu资源进行排序;
96.步骤132,依次从所述子gpu资源中选取所述待调度的子gpu资源,直至所述待调度的子gpu资源的空闲资源量大于等于所述资源申请请求中携带的申请量。
97.具体地,得到第二资源得分以后,还可将第二资源得分从高到低的顺序,对子gpu资源进行排序,形成子gpu资源列表。可以理解的是,子gpu资源列表中排序越靠前的子gpu资源的第二资源得分越高。因此,在确定待调度的子gpu资源时,可以从子gpu资源列表中依次选取子gpu资源。
98.如果当前列表的首个子gpu资源的空闲资源量能够满足资源申请请求中携带的申请量,则停止选取,并将当前列表的首个子gpu资源确定为待调度的子gpu资源,此时待调度的子gpu资源数量为一个。
99.如果当前列表的首个子gpu资源的空闲资源量不能够满足资源申请请求中携带的申请量,则将当前列表的首个子gpu资源确定为待调度的子gpu资源后,继续选取当前列表的第二个子gpu资源。
100.如果首个和第二个子gpu资源的空闲资源量之和能够满足资源申请请求中携带的申请量,则将当前列表的首个和第二个子gpu资源确定为待调度的子gpu资源,此时待调度的子gpu资源数量为两个。
101.如果首个和第二个子gpu资源的空闲资源量之和不能够满足资源申请请求中携带的申请量,则继续选取当前列表的第三个子gpu资源,直至待调度的子gpu资源的空闲资源量大于等于所述资源申请请求中携带的申请量。
102.基于上述任一实施例,图5是本技术实施例提供的子gpu资源确定方法的流程示意图。参照图5,所述子gpu资源通过如下步骤得到:
103.步骤510,将gpu宿主机入驻到容器化应用部署集群,得到容器化应用部署集群中的gpu节点;
104.步骤520,基于扩展资源插件,将所述gpu节点的资源进行切分,并注册到所述容器化应用部署集群中,得到所述子gpu资源。
105.具体地,容器化应用部署集群可以是kubernetes,简称k8s,是大规模容器管理技术的开源版本。它是容器集群管理系统,是一个开源的平台,利用k8s可以实现容器集群的自动化部署、自动扩缩容、滚动更新、热维护等功能。k8s具有可移植性好、可扩展性强、自动化程度高、有效节省资源等特点。
106.此处的扩展资源插件可以是虚拟gpu设备插件,例如可以是基于kubernetes提供的设备插件(device plugin)机制实现的自定义插件mgpu device plugin,该插件实现的
目的是为了支持gpu资源细粒度划分和调度功能。
107.首先将所有gpu宿主机入驻到kubernetes集群,每一个gpu宿主机成为kubernetes中的gpu节点。
108.每个kubernetes gpu节点安装扩展资源插件mgpu deviceplugin。
109.mgpu device plugin获取所在gpu宿主机上所有gpu卡的显存信息,例如以百兆为单位,将gpu卡单位转为gpu显存单位,切成若干份gpu资源,mgpu device plugin将切分后的gpu资源注册到kubernetes机器每个gpu节点,即子gpu资源。
110.进一步地,扩展资源插件mgpu device plugin通过kubernetes接口获取子gpu资源的使用情况,并更新子gpu资源状态、资源等信息到kubernetes集群。至此每个kubernetes gpu节点新增子gpu资源成功。
111.基于上述任一实施例,图6是本技术实施例提供的子gpu资源监控方法的流程示意图之一。参照图6,步骤140之后还包括:
112.步骤610,基于资源监控组件,监控所述待执行任务的子gpu资源使用量;
113.步骤620,在所述子gpu资源使用量超出所述申请量的情况下,基于所述资源监控组件进行告警提示。
114.具体地,考虑到kubernetes集群内子gpu资源监控可视化,通过资源监控组件可以定时或实时监控kubernetes集群内每个任务的子gpu资源消耗情况。
115.此处的资源监控组件可以是基于kubernetes的资源监控插件,可以收集kubernetes集群内子gpu资源的使用量,并对这些数据进行处理,通过可视化界面呈现,例如可以将数据以图像的形式直观表现出来。
116.在所监控任务的子gpu资源使用量超出gpu资源申请量的情况下,资源监控组件进行告警以提示运维人员及时进行gpu资源的调整,避免任务执行失败。需要说明的是,待执行任务的资源申请请求中携带申请量,资源监控组件可以通过kubernetes接口获取该申请量。
117.本技术实施例提供的方法,通过监控组件对子gpu资源使用量进行监控,并在子gpu资源使用量超出gpu资源申请量的情况下进行告警提示,提高了gpu资源利用率的同时,提高了任务执行效率。
118.基于上述任一实施例,图7是本技术实施例提供的子gpu资源监控方法的流程示意图之二。参照图7,步骤610具体包括:
119.步骤611,获取所述待执行任务的进程号;
120.步骤612,基于所述进程号,查询所述待执行任务进程的子gpu资源使用量。
121.具体地,资源监控组件可以通过数据交换接口,例如docker接口获取待执行任务的进程号,然后通过nvidia接口根据获得的进程号查询进程占用的子gpu资源使用量,具体可以基于关键字匹配的方式查询得到。
122.基于上述任一实施例,本技术实施例提供一种资源调度方法,所述方法包括:
123.s1,将所有gpu宿主机入驻到kubernetes集群,成为kubernetesgpu节点。
124.s2,通过自研kubernetes对外开放的扩展资源插件mgpu deviceplugin注册子gpu资源到kubernetes集群,即将每台kubernetes gpu节点的原始gpu卡资源切成若干份子gpu资源,从而极大扩充了原始gpu卡的资源。
125.s3,通过自研kubernetes对外开放的扩展调度器mgpu schedulerextender,实现gpu宿主机中gpu卡的第一资源打分、gpu宿主机上子gpu资源的第二资源打分,然后注册扩展调度器mgpuscheduler extender到kubernetes集群。
126.s4,当ai服务向kubernetes集群申请gpu资源时,将ai服务调度在kubernetes集群中最优gpu宿主机的最优gpu卡上。
127.s5,考虑到kubernetes集群内mgpu资源监控可视化,通过自研资源监控组件定时监控kubernetes集群内每个ai服务子gpu资源消耗情况。
128.下面对本技术实施例提供的资源调度装置进行描述,下文描述的资源调度装置与上文描述的资源调度方法可相互对应参照。
129.基于上述任一实施例,图8为本技术实施例提供的资源调度装置的结构示意图。参照图8,该资源调度装置包括:请求确定单元810、宿主机确定单元820、资源确定单元830和gpu卡调度单元840。其中,
130.请求确定单元810,用于确定待执行任务的资源申请请求;
131.宿主机确定单元820,用于基于gpu宿主机中gpu卡的第一资源得分,确定待调度的gpu宿主机,所述第一资源得分基于所述gpu卡的资源使用情况确定;
132.资源确定单元830,用于基于所述资源申请请求,以及所述待调度的gpu宿主机上子gpu资源的第二资源得分,确定待调度的子gpu资源,所述子gpu资源是对gpu宿主机上装设的gpu卡进行虚拟化后切分得到的,所述第二资源得分基于所述子gpu资源的资源使用情况确定;
133.gpu卡调度单元840,用于将所述待调度的子gpu资源所对应的gpu卡作为调度节点,以执行所述待执行任务。
134.本技术实施例提供的资源调度装置,通过对gpu宿主机上装设的gpu卡进行虚拟化后切分,得到子gpu资源,实现了在同一个gpu卡上并列执行多个任务,减少了成本。
135.此外,在资源调度时采用了两级打分策略,首先对gpu宿主机中gpu卡进行打分,确定待调度的gpu宿主机;然后对待调度的gpu宿主机上子gpu资源进行打分,并结合资源申请请求,确定待调度的子gpu资源;随即根据待调度的子gpu资源确定执行任务的gpu卡,能够将待执行任务分配至最适合的gpu卡上,从而进一步提高了gpu卡利用率,避免了gpu卡算力浪费。
136.基于上述任一实施例,本技术实施例提供的资源调度装置还包括第二资源得分确定单元,用于:
137.获取所述子gpu资源的资源使用情况中的第二已使用资源和第二总资源;
138.基于所述第二已使用资源和第二总资源,确定所述第二资源得分。
139.基于上述任一实施例,本技术实施例提供的资源调度装置还包括第一资源得分确定单元,用于:
140.获取所述gpu卡的资源使用情况中的第一已使用资源和第一总资源;
141.基于所述第一已使用资源和第一总资源,确定所述第一资源得分。
142.基于上述任一实施例,资源确定单元830进一步用于:
143.按照所述第二资源得分从高到低的顺序,对所述子gpu资源进行排序;
144.依次从所述子gpu资源中选取所述待调度的子gpu资源,直至所述待调度的子gpu
资源的空闲资源量大于等于所述资源申请请求中携带的申请量。
145.基于上述任一实施例,本技术实施例提供的资源调度装置还包括子gpu资源创建单元,用于:
146.将gpu宿主机入驻到容器化应用部署集群,得到容器化应用部署集群中的gpu节点;
147.基于扩展资源插件,将所述gpu节点的资源进行切分,并注册到所述容器化应用部署集群中,得到所述子gpu资源。
148.基于上述任一实施例,本技术实施例提供的资源调度装置还包括子gpu资源监控单元,用于:
149.基于资源监控组件,监控所述待执行任务的子gpu资源使用量;
150.在所述子gpu资源使用量超出所述申请量的情况下,基于所述资源监控组件进行告警提示。
151.基于上述任一实施例,子gpu资源监控单元进一步用于:
152.获取所述待执行任务的进程号;
153.基于所述进程号,查询所述待执行任务进程的子gpu资源使用量。
154.图9示例了一种电子设备的实体结构示意图,如图9所示,该电子设备可以包括:处理器(processor)910、通信接口(communicationinterface)920、存储器(memory)930和通信总线940,其中,处理器910,通信接口920,存储器930通过通信总线940完成相互间的通信。处理器910可以调用存储器930中的计算机程序,以执行资源调度方法,例如包括:确定待执行任务的资源申请请求;基于gpu宿主机中gpu卡的第一资源得分,确定待调度的gpu宿主机,所述第一资源得分基于所述gpu卡的资源使用情况确定;基于所述资源申请请求,以及所述待调度的gpu宿主机上子gpu资源的第二资源得分,确定待调度的子gpu资源,所述子gpu资源是对gpu宿主机上装设的gpu卡进行虚拟化后切分得到的,所述第二资源得分基于所述子gpu资源的资源使用情况确定;将所述待调度的子gpu资源所对应的gpu卡作为调度节点,以执行所述待执行任务。
155.此外,上述的存储器930中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
156.另一方面,本技术实施例还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各实施例所提供的资源调度方法,例如包括:确定待执行任务的资源申请请求;基于gpu宿主机中gpu卡的第一资源得分,确定待调度的gpu宿主机,所述第一资源得分基于所述gpu卡的资源使用情况确定;基于所述资源申请请求,以及所述待调度的gpu宿主机上子gpu资源的第二资源得分,确定待调度的子gpu资源,所述子
gpu资源是对gpu宿主机上装设的gpu卡进行虚拟化后切分得到的,所述第二资源得分基于所述子gpu资源的资源使用情况确定;将所述待调度的子gpu资源所对应的gpu卡作为调度节点,以执行所述待执行任务。
157.另一方面,本技术实施例还提供一种处理器可读存储介质,所述处理器可读存储介质存储有计算机程序,所述计算机程序用于使处理器执行上述各实施例提供的资源调度方法,例如包括:确定待执行任务的资源申请请求;基于gpu宿主机中gpu卡的第一资源得分,确定待调度的gpu宿主机,所述第一资源得分基于所述gpu卡的资源使用情况确定;基于所述资源申请请求,以及所述待调度的gpu宿主机上子gpu资源的第二资源得分,确定待调度的子gpu资源,所述子gpu资源是对gpu宿主机上装设的gpu卡进行虚拟化后切分得到的,所述第二资源得分基于所述子gpu资源的资源使用情况确定;将所述待调度的子gpu资源所对应的gpu卡作为调度节点,以执行所述待执行任务。
158.所述处理器可读存储介质可以是处理器能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器(例如软盘、硬盘、磁带、磁光盘(mo)等)、光学存储器(例如cd、dvd、bd、hvd等)、以及半导体存储器(例如rom、eprom、eeprom、非易失性存储器(nand flash)、固态硬盘(ssd))等。
159.以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
160.通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
161.最后应说明的是:以上实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述实施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的精神和范围。
技术特征:
1.一种资源调度方法,其特征在于,包括:确定待执行任务的资源申请请求;基于gpu宿主机中gpu卡的第一资源得分,确定待调度的gpu宿主机,所述第一资源得分基于所述gpu卡的资源使用情况确定;基于所述资源申请请求,以及所述待调度的gpu宿主机上子gpu资源的第二资源得分,确定待调度的子gpu资源,所述子gpu资源是对gpu宿主机上装设的gpu卡进行虚拟化后切分得到的,所述第二资源得分基于所述子gpu资源的资源使用情况确定;将所述待调度的子gpu资源所对应的gpu卡作为调度节点,以执行所述待执行任务。2.根据权利要求1所述的资源调度方法,其特征在于,所述第二资源得分基于如下步骤确定:获取所述子gpu资源的资源使用情况中的第二已使用资源和第二总资源;基于所述第二已使用资源和第二总资源,确定所述第二资源得分。3.根据权利要求1所述的资源调度方法,其特征在于,所述第一资源得分基于如下步骤确定:获取所述gpu卡的资源使用情况中的第一已使用资源和第一总资源;基于所述第一已使用资源和第一总资源,确定所述第一资源得分。4.根据权利要求1所述的资源调度方法,其特征在于,所述基于所述资源申请请求,以及所述待调度的gpu宿主机上子gpu资源的第二资源得分,确定待调度的子gpu资源,包括:按照所述第二资源得分从高到低的顺序,对所述子gpu资源进行排序;依次从所述子gpu资源中选取所述待调度的子gpu资源,直至所述待调度的子gpu资源的空闲资源量大于等于所述资源申请请求中携带的申请量。5.根据权利要求1所述的资源调度方法,其特征在于,所述子gpu资源通过如下步骤得到:将gpu宿主机入驻到容器化应用部署集群,得到容器化应用部署集群中的gpu节点;基于扩展资源插件,将所述gpu节点的资源进行切分,并注册到所述容器化应用部署集群中,得到所述子gpu资源。6.根据权利要求1-5任一项所述的资源调度方法,其特征在于,所述将所述待调度的子gpu资源所对应的gpu卡作为调度节点,以执行所述待执行任务,之后还包括:基于资源监控组件,监控所述待执行任务的子gpu资源使用量;在所述子gpu资源使用量超出所述申请量的情况下,基于所述资源监控组件进行告警提示。7.根据权利要求6所述的资源调度方法,其特征在于,所述基于资源监控组件,监控所述待执行任务的子gpu资源使用量,包括:获取所述待执行任务的进程号;基于所述进程号,查询所述待执行任务进程的子gpu资源使用量。8.一种资源调度装置,其特征在于,包括:请求确定单元,用于确定待执行任务的资源申请请求;宿主机确定单元,用于基于gpu宿主机中gpu卡的第一资源得分,确定待调度的gpu宿主机,所述第一资源得分基于所述gpu卡的资源使用情况确定;
资源确定单元,用于基于所述资源申请请求,以及所述待调度的gpu宿主机上子gpu资源的第二资源得分,确定待调度的子gpu资源,所述子gpu资源是对gpu宿主机上装设的gpu卡进行虚拟化后切分得到的,所述第二资源得分基于所述子gpu资源的资源使用情况确定;gpu卡调度单元,用于将所述待调度的子gpu资源所对应的gpu卡作为调度节点,以执行所述待执行任务。9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述的资源调度方法。10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的资源调度方法。
技术总结
本申请涉及虚拟化技术领域,提供一种资源调度方法、装置、电子设备和存储介质。所述方法包括:确定待执行任务的资源申请请求;基于GPU宿主机中GPU卡的第一资源得分,确定待调度的GPU宿主机,第一资源得分基于GPU卡的资源使用情况确定;基于资源申请请求,以及待调度的GPU宿主机上子GPU资源的第二资源得分,确定待调度的子GPU资源,子GPU资源是对GPU宿主机上装设的GPU卡进行虚拟化后切分得到的,第二资源得分基于子GPU资源的资源使用情况确定;将待执行任务调度至待调度的子GPU资源所对应的GPU卡上。本申请实施例提供的资源调度方法、装置、电子设备和存储介质可以提高GPU卡利用率。电子设备和存储介质可以提高GPU卡利用率。电子设备和存储介质可以提高GPU卡利用率。
技术研发人员:丛凌雷 张春 孙昊 王瑾 李宁
受保护的技术使用者:中国移动通信集团有限公司
技术研发日:2022.03.15
技术公布日:2023/9/23
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
航空商城 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/