负载均衡方法、装置、电子设备及存储介质与流程

未命名 09-22 阅读:78 评论:0


1.本技术属于云计算技术领域,尤其涉及一种负载均衡方法、装置、电子设备及存储介质。


背景技术:

2.在云计算领域,云资源池中可提供的存储资源与客户实际使用的存储资源量通常不同,云资源池运营商会使用超卖的方式,尽可能承载更多客户,但超卖存储资源有时会导致云资源池存储集群过载,现有技术对存储集群过载问题的处理效果不佳。


技术实现要素:

3.有鉴于此,本技术实施例提供一种负载均衡方法、装置、电子设备及存储介质,以至少解决现有技术对存储集群过载问题的处理效果不佳的问题。
4.本技术实施例的技术方案是这样实现的:
5.本技术实施例提供了一种负载均衡方法,包括:
6.分析第一集群的负载状态,得到分析结果;
7.在所述分析结果表征所述第一集群存在容量过载趋势的情况下,调用第一设定模型将所述第一集群的超分比由第一超分比调整为第二超分比;所述第二超分比小于所述第一超分比;
8.在所述分析结果表征所述第一集群发生性能过载的情况下,对所述第一集群的第一归置组(pg,placement group)和/或访问所述第一集群的第一虚拟机进行限流处理。
9.上述方案中,所述分析第一集群的负载状态,得到分析结果,包括:
10.每隔设定时间获取所述第一集群存储资源的实际使用量和/或剩余使用量;
11.在第一曲线的切线斜率大于第一设定阈值和/或第一时间小于第二设定阈值的情况下,判断所述第一集群存在容量过载趋势;其中,
12.所述第一曲线基于获取到的所述第一集群存储资源的实际使用量拟合得到;所述第一时间表征所述第一集群剩余使用量的可供使用的时间。
13.上述方案中,所述方法还包括:
14.基于所述第一集群存储资源的剩余使用量在存储资源总容量中的占比、所述第一集群已承载用户数在最大可承载用户数中的占比以及基准承载能力值,计算得到所述第二超分比;其中,
15.所述基准承载能力值基于所述第一集群的对象存储进程(osd,object storage daemon)节点数量和硬盘性能参数中的至少之一确定出。
16.上述方案中,所述方法还包括:
17.调用第二设定模型预测第一类型用户对订购的下一个数据卷的实际使用量;
18.基于所述第二设定模型的预测结果,调用第三设定模型确定出用于承载所述第一类型用户订购的下一个数据卷的最佳集群;
19.其中,所述第二设定模型基于所述第一类型用户对历史订购的每个数据卷的实际使用量和所述第一类型用户的用户信息训练得到;所述第一类型用户的用户信息包括所述第一类型用户订购的数据卷数量、所述第一类型用户的等级、所述第一类型用户的在网时长、所述第一类型用户的数据卷总订购容量中至少之一。
20.上述方案中,所述方法还包括:
21.在至少一个第二pg中选取进行限流处理的第一pg;所述第二pg表征所述第一集群的第一数据卷对应的pg;和/或,
22.将所述第一集群的第一数据卷对应的虚拟机选取为进行限流处理的第一虚拟机;其中,
23.所述第一数据卷表征总流量大于第三设定阈值的数据卷,或者,表征在所述第一集群中总流量最大的前n个数据卷;所述n大于或等于1。
24.上述方案中,在至少一个第二pg中选取进行限流处理的第一pg,包括:
25.基于第二pg在第一时间段内的流量变化情况、所述第一集群的流量过载基线以及所述第一集群总pg数,计算得到每个第二pg的第一权重值;其中,所述第一时间段表征所述第一集群的流量达到所述第一集群的流量过载基线阈值至所述第一集群发生性能过载之间的时间段;
26.基于第二pg当前的每秒进行读写操作的次数(iops,input/output operations per second)值在所述第一集群当前的总iops值的占比,计算得到每个第二pg的第二权重值;
27.基于每个第二pg对应的第一权重值和第二权重值,计算得到每个第二pg的第三权重值;
28.将第二pg中第三权重值最大的前m个pg选取为第一pg;所述m大于或等于1。
29.上述方案中,所述对所述第一集群的第一pg进行限流处理,包括:
30.将第一pg当前的读写速度设置为第一pg的读写速度上限,和/或,将第一pg当前的iops值设置为第一pg的iops值上限;
31.当第一pg收到第一数据读写请求时,控制第一pg将所述第一数据读写请求进行缓存并延迟设定时间后再进行处理。
32.上述方案中,所述对访问所述第一集群的第一虚拟机进行限流处理,包括:
33.将所述第一集群中所有数据卷对应的虚拟机当前的读写平均速度设置为第一虚拟机的读写速度。
34.本技术实施例还提供了一种负载均衡装置,所述装置包括:
35.分析模块,用于分析第一集群的负载状态,得到分析结果;
36.调整模块,用于在所述分析结果表征所述第一集群存在容量过载趋势的情况下,调用第一设定模型将所述第一集群的超分比由第一超分比调整为第二超分比;所述第二超分比小于所述第一超分比;
37.限流模块,用于在所述分析结果表征所述第一集群发生性能过载的情况下,对所述第一集群的第一pg和/或访问所述第一集群的第一虚拟机进行限流处理。
38.本技术实施例还提供了一种电子设备,包括:处理器及通信接口;其中,
39.所述处理器,用于:
40.分析第一集群的负载状态,得到分析结果;
41.在所述分析结果表征所述第一集群存在容量过载趋势的情况下,调用第一设定模型将所述第一集群的超分比由第一超分比调整为第二超分比;所述第二超分比小于所述第一超分比;
42.在所述分析结果表征所述第一集群发生性能过载的情况下,对所述第一集群的第一pg和/或访问所述第一集群的第一虚拟机进行限流处理。
43.本技术实施例还提供了一种电子设备,包括:处理器和用于存储能够在处理器上运行的计算机程序的存储器,
44.其中,所述处理器用于运行所述计算机程序时,执行上述任一负载均衡方法的步骤。
45.本技术实施例还提供了一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一负载均衡方法的步骤。
46.本技术实施例的方案中,分析第一集群的负载状态,得到分析结果;在分析结果表征第一集群存在容量过载趋势的情况下,使用设定模型将第一集群的超分比由第一超分比调整为第二超分比;第二超分比小于第一超分比;在分析结果表征第一集群发生性能过载的情况下,对第一集群的第一pg和/或访问第一集群的第一虚拟机进行限流处理。基于本技术实施例提供的方案,在集群存在容量过载趋势的情况下降低集群的超分比,有效解决了因用户的资源使用率突增、集群资源量不足导致的集群容量过载问题,在集群发生性能过载的情况下对集群的pg和/或访问集群的虚拟机进行限流处理,有效解决了因用户突发极大读写存储流量导致的集群性能过载问题。
附图说明
47.图1为本技术实施例提供的负载均衡方法的流程示意图;
48.图2为本技术应用实施例提供的一种基于ceph的云资源池存储集群抗过载系统结构示意图;
49.图3为本技术应用实施例提供的存储集群容量抗过载示意图;
50.图4为本技术应用实施例提供的存储集群性能抗过载-过载发现部分示意图;
51.图5为本技术应用实施例提供的存储集群性能抗过载-流量控制部分示意图;
52.图6为本技术应用实施例提供的存储集群性能抗过载-存储迁移部分示意图;
53.图7为本技术实施例提供的负载均衡装置的结构示意图;
54.图8为本技术实施例提供的电子设备的结构示意图。
具体实施方式
55.在云计算领域,云资源池中可提供的存储资源与客户实际使用的资源量通常不同,云资源池运营商会使用超卖的手段,尽可能承载更多客户。但超卖存储资源,有时会因部分用户的资源使用率突增,导致存储集群资源量不足,使得存储集群出现容量过载问题,有时会因部分用户突发极大存储流量,影响到整个存储集群中所有客户,造成集群响应缓慢,使得存储集群出现性能过载问题。
56.基于此,本技术提供了一种负载均衡方法、装置、电子设备及存储介质。基于本申
请实施例提供的方案,在集群存在容量过载趋势的情况下降低集群的超分比,有效解决了因用户的资源使用率突增、集群资源量不足导致的集群容量过载问题,在集群发生性能过载的情况下对集群的pg和/或访问集群的虚拟机进行限流处理,有效解决了因用户突发极大读写存储流量导致的集群性能过载问题。
57.下面结合附图及具体实施例对本技术作进一步详细的说明。
58.以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本技术实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本技术。在其它情况中,省略对众所周知的系统、装置以及方法的详细说明,以免不必要的细节妨碍本技术的描述。
59.本技术实施例提供了一种负载均衡方法,如图1所示,所述方法包括:
60.步骤101:分析第一集群的负载状态,得到分析结果。
61.这里,第一集群可以是基于ceph的存储集群,ceph是一个分布式存储系统。第一集群的负载状态可以包括第一集群存储资源实际使用量和第一集群的运行状态(如io带宽、io访问延迟、访问请求数量等)。
62.这里,第一集群的存储资源是以数据卷的形式存在的。
63.在一实施例中,所述分析第一集群的负载状态,得到分析结果,包括:
64.每隔设定时间获取所述第一集群存储资源的实际使用量和/或剩余使用量;
65.在第一曲线的切线斜率大于第一设定阈值和/或第一时间小于第二设定阈值的情况下,判断所述第一集群存在容量过载趋势;其中,
66.所述第一曲线基于获取到的所述第一集群存储资源的实际使用量拟合得到;所述第一时间表征所述第一集群剩余使用量的可供使用的时间。
67.这里,对第一集群存储资源使用率趋势进行分析,当出现第一集群存储资源使用率增加较快的趋势时,则判断第一集群存在容量过载趋势。
68.实际应用中,第一曲线可以基于s曲线拟合算法拟合得到,主要拟合公式如下:
[0069][0070]
其中,x为时间值,y为第一集群存储资源的实际使用量,α、β、γ为待定系数,需要通过样本不断拟合求出,优选地,可以将每隔5分钟采样获取的第一集群存储资源的实际使用量作为样本。
[0071]
优选地,当第一曲线的切线斜率大于0.5且第一集群剩余使用量的可供使用的时间小于6小时时,判断第一集群存在容量过载趋势。
[0072]
步骤102:在所述分析结果表征所述第一集群存在容量过载趋势的情况下,调用第一设定模型将所述第一集群的超分比由第一超分比调整为第二超分比。
[0073]
其中,所述第二超分比小于所述第一超分比。
[0074]
这里,当第一集群存在容量过载趋势时,降低第一集群的超分比。第一集群的超分比越低,若后续有存储资源的创建需求,那么将会以更小的概率在该第一集群上创建存储资源,因此,能有效解决因用户的资源使用率突增、集群资源量不足导致的集群容量过载问题。
[0075]
在一实施例中,所述方法还包括:
[0076]
基于所述第一集群存储资源的剩余使用量在存储资源总容量中的占比、所述第一集群已承载用户数在最大可承载用户数中的占比以及基准承载能力值,计算得到所述第二超分比;其中,
[0077]
所述基准承载能力值基于所述第一集群的对象存储进程osd节点数量和硬盘性能参数中的至少之一确定出。
[0078]
实际应用中,可以按以下公式计算第二超分比:
[0079][0080]
其中,r为第二超分比,n为第一集群存储资源的实际使用量,m为第一集群存储资源总容量,l为第一集群已承载用户数,lm为第一集群最大可承载用户数,base为第一集群基准承载能力值。
[0081]
在一实施例中,在第一集群存在容量过载趋势的情况下,还可以将第一集群中实际使用量较大的数据卷迁移到其他存储资源使用率较低的存储集群。需要说明的是,对数据卷实际使用量大小的判定标准和存储资源使用率高低的判断标准可以自行设定。优选地,可以采用热迁移的方式进行数据卷的迁移,简单来说就是在存储资源使用率较低的存储集群上创建一个空数据卷,将第一集群中实际使用量较大的数据卷复制到该空数据卷。这样,能动态均衡各个存储集群的存储资源使用率,有效解决了因用户的资源使用率突增、集群资源量不足导致的集群容量过载问题。
[0082]
在一实施例中,所述方法还包括:
[0083]
调用第二设定模型预测第一类型用户对订购的下一个数据卷的实际使用量;
[0084]
基于所述第二设定模型的预测结果,调用第三设定模型确定出用于承载所述第一类型用户订购的下一个数据卷的最佳集群;
[0085]
其中,所述第二设定模型基于所述第一类型用户对历史订购的每个数据卷的实际使用量和所述第一类型用户的用户信息训练得到;所述第一类型用户的用户信息包括所述第一类型用户订购的数据卷数量、所述第一类型用户的等级、所述第一类型用户的在网时长、所述第一类型用户的数据卷总订购容量中至少之一。
[0086]
这里,用户按照订购不同数量的数据卷进行分类,每一类用户订购的数据卷数量相同,每一类用户均有一个对应的第二设定模型。存储资源以数据卷的形式存在,每个数据卷的容量可以不同。
[0087]
优选地,对订购存储资源较多的用户进行预测,对订购存储资源多少的判断标准可以自行设定。
[0088]
实际应用中,第三设定模型可以理解为评估算法,评估的维度可以包括数据卷的实际使用量、不同存储集群存储资源售卖情况以及不同存储集群的超分比。
[0089]
实际应用中,优选地,第二设定模型可以为反向传播(bp,back propagation)神经网络模型,通过bp神经网络模型预测用户对订购的下一个数据卷的实际使用量。预估方法具体如下:
[0090]
(1)将用户按照订购不同数量的数据卷进行分类,每一类用户订购的数据卷数量相同。收集用户对历史订购的每个数据卷的实际使用量及用户信息,作为模型样本。
[0091]
(2)使用bp神经网络算法,建立3层神经网络模型。针对不同类型的用户,建模后分
别用对应类型用户的数据(包括用户对历史订购的每个数据卷的实际使用量及用户信息)进行训练。
[0092]
(3)对于bp神经网络模型中的输入层,使用用户订购的数据卷数量、用户的等级(如贵宾(vip,very important person)等级)、用户的在网时长、用户的数据卷总订购容量、用户对历史订购的每个数据卷的实际使用量等用户数据作为输入,输入层节点数n按照如下公式确定:
[0093]
n=m+4
[0094]
其中,m为用户订购的数据卷数量。
[0095]
(4)将模型总样本分为训练样本和验证样本,样本表示如下:
[0096]
(m,vi,l,volume
sum
,volume1,volume2...volumei)
[0097]
其中vi为用户的vip等级,l为用户的在网时长,volume
sum
为用户的数据卷总订购容量,volumei为第i个数据卷的实际使用量。
[0098]
(5)对于bp神经网络模型中的隐含层,初始隐含节点个数f(x)的取值区间应满足以下关系:
[0099][0100]
其中,m为用户订购的数据卷数量,s为所有类型的用户的平均订购数据卷数量,k为训练样本数量。
[0101]
(6)以上隐含节点的初始数量区间记为[a,b],分别使用a、b、(a+b/2)构造3个bp神经网络模型,并使用训练样本进行模型训练,并使用验证样本进行模型性能验证,并记录误差值e。若使用a、(a+b/2)参数建立的模型误差值较使用b、(a+b/2)参数建立的模型误差值小,则最佳节点数应在[a,(a+b/2)]区间中,反之则在[(a+b/2),b]中。通过不断训练缩小隐含节点数量区间,最终找到最佳隐含节点数量。
[0102]
(7)对于bp神经网络模型中的输出层,考虑到模型用于预测用户对订购的下一个数据卷的实际使用量,设计为1节点。
[0103]
(8)bp神经网络模型中初始权值选择为[-2.4/n,2.4/n]之间的随机数,其中n为输入层节点个数。
[0104]
(9)bp神经网络激活函数选择sigmoid函数,即
[0105][0106]
(10)反向传播误差函数选择如下:
[0107]
[0108]
其中,ti为期望输出、oi为bp神经网络模型的计算输出,i为第i次训练。
[0109]
(11)通过归一化的样本不断进行训练,得到针对不同类型用户的最佳bp神经网络模型。当用户订购下一个数据卷时,通过预先训练好的该类型用户的bp神经网络模型,得出用户对订购的下一个数据卷的实际使用量的预测结果。
[0110]
之后,根据对用户订购的下一个数据卷的实际使用量的预测结果,结合不同存储集群存储资源售卖情况以及不同存储集群的超分比等,确定出用于承载用户订购的下一个数据卷的最佳集群,在最佳集群上创建用户订购的下一个数据卷。这样,可以从源头上减少存储集群出现存储资源不足的情况的概率,有效预防存储集群容量过载。
[0111]
步骤103:在所述分析结果表征所述第一集群发生性能过载的情况下,对所述第一集群的第一pg和/或访问所述第一集群的第一虚拟机进行限流处理。
[0112]
本技术实施例中,通过限流处理有效解决了因用户突发极大读写存储流量导致的集群性能过载问题。
[0113]
在一实施例中,分析第一集群的负载状态包括:
[0114]
对第一集群的实时运行状态进行分析,总结各性能项(包括io带宽、io访问延迟、访问请求数量等维度)对应的过载基线,并设置各性能项对应的过载基线阈值,过载基线可以作为集群过载的判断依据,当集群的其中一个性能值达到对应的过载基线时,则判断集群发生性能过载。
[0115]
实时监控集群状态,对集群不同的性能值进行趋势分析,当其中一个性能值达到对应的过载基线阈值且有进一步恶化趋势时,则判断集群存在性能过载趋势。具体地,可以基于s曲线拟合算法对集群不同的性能值进行趋势分析,主要拟合公式如下:
[0116][0117]
其中,x为时间值,y为集群各项性能值,α、β、γ为待定系数,需要通过样本不断拟合求出,优选地,可以将每隔2分钟采样获取的集群各项性能值作为样本。
[0118]
示例性地,设置集群的流量过载基线阈值为流量过载基线值的80%,当集群流量值达到集群流量过载基线值的80%时,判断集群存在性能过载趋势,当集群流量值达到集群流量过载基线值时,判断集群发生性能过载。
[0119]
在一实施例中,所述方法还包括:
[0120]
在至少一个第二pg中选取进行限流处理的第一pg;所述第二pg表征所述第一集群的第一数据卷对应的pg;和/或,
[0121]
将所述第一集群的第一数据卷对应的虚拟机选取为进行限流处理的第一虚拟机;其中,
[0122]
所述第一数据卷表征总流量大于第三设定阈值的数据卷,或者,表征在所述第一集群中总流量最大的前n个数据卷;所述n大于或等于1。
[0123]
这里,第三设定阈值或n的取值可以根据需要自行设置。
[0124]
本技术实施例中,第一集群以3副本ceph存储集群为例,针对每一个数据卷,数据卷被按固定大小切分为多个对象,每个对象独立地映射到一个pg,每个pg均复制存储到3个osd节点中,其中一个osd节点为主osd节点,剩余两个osd节点为从osd节点,主osd节点负责流量统计并上报监控(mon,monitor)节点。
[0143]
可以通过以下公式确定m的取值:
[0144][0145]
其中,volumed为第一集群中所有大流量数据卷的实际大小,obj为数据卷被切分成的对象的大小,x为时间,pg
max
为第一集群总pg数。
[0146]
本技术实施例中,计算出所有大流量数据卷对应的pg的综合权重值,对所有大流量数据卷对应的pg中综合权重值最大的前m个pg(即第一pg)进行限流处理。实际应用中,不同的osd节点保存的pg可能不同,对于每个osd节点,osd节点上可能不存在第一pg,也可能存在第一pg中的部分或全部。第一集群中的mon节点通知各osd节点进行自适应限流,每个osd节点对本节点上第一pg进行限流处理。
[0147]
在一实施例中,所述对所述第一集群的第一pg进行限流处理,包括:
[0148]
将第一pg当前的读写速度设置为第一pg的读写速度上限,和/或,将第一pg当前的iops值设置为第一pg的iops值上限;
[0149]
当第一pg收到第一数据读写请求时,控制第一pg将所述第一数据读写请求进行缓存并延迟设定时间后再进行处理。
[0150]
本技术实施例中,将在第一集群发生性能过载时采样得到的第一pg的读写速度设置为第一pg的读写速度上限,和/或,将在第一集群发生性能过载时采样得到的第一pg的iops值设置为第一pg的iops值上限。
[0151]
这里,第一数据读写请求可以理解为会使第一pg的读写速度或iops值超出上限的数据读写请求。
[0152]
本技术实施例中,通过对pg进行读写限速以及延迟处理可能会产生过大流量的数据读写请求,能保护各osd节点中的pg不被大流量数据冲垮,同时不会增加集群的整体流量,使得集群不会出现进一步的性能过载。
[0153]
在一实施例中,所述对访问所述第一集群的第一虚拟机进行限流处理,包括:
[0154]
将所述第一集群中所有数据卷对应的虚拟机当前的读写平均速度设置为第一虚拟机的读写速度。
[0155]
这里,将在第一集群发生性能过载时第一集群中所有数据卷对应的虚拟机的读写平均速度设置为第一虚拟机的读写速度。
[0156]
本技术实施例中,指数级降低大流量数据卷对应的虚拟机的读写速度,只允许大流量数据卷对应的虚拟机以平均速度进行存储集群读写,从源头上降低了虚拟机对存储集群的流量访问,防止存储集群出现进一步的性能过载。
[0157]
在一实施例中,在指数级降低大流量数据卷对应的虚拟机的读写速度之后,若第一集群还处于性能过载状态,可以继续使用线性方式对第一虚拟机进行限速,具体地,可以每次以设定步长降低第一虚拟机的读写速度,直至第一集群不再处于性能过载状态,其中,可以根据开发者的经验设置步长。这样,从源头上降低了虚拟机对存储集群的流量访问,防止存储集群出现进一步的性能过载。
[0158]
在一实施例中,还可以将第一集群中的大流量数据卷迁移到其他流量较小的存储
集群中,以彻底降低第一集群的流量压力。需要说明的是,对存储集群流量大小的判断标准可以自行设定。
[0159]
在一实施例中,还可以分析用户订购的数据卷的流量大小,对大流量用户进行标记并统计各个存储集群承载的大流量用户,当大流量用户再次订购数据卷时,将该数据卷创建于承载较少大流量用户的存储集群中,这样,实现了大流量用户间的存储资源隔离。需要说明的是,对用户是否是大流量用户以及存储集群承载的大流量用户数量的多少的判断标准可以自行设定。
[0160]
如图2所示,本技术应用实施例提供了一种基于ceph的云资源池存储集群抗过载系统,所述系统包括:
[0161]
运维分析平台,负责用户资源使用情况分析、用户资源实际使用量预估、过载基线配置、过载趋势监控分析、大流量数据卷发现;
[0162]
运维管理平台,负责存储集群动态超分比配置、存储动态均衡、前端动态限流、云资源池管理接口调用;
[0163]
后端存储集群,负责实际存储用户数据,并执行自适应限流工作;
[0164]
云资源池计算节点,负责承载用户虚拟机,并读写后端存储集群。
[0165]
所述系统使用用户资源使用情况分析、用户资源实际使用量预估、动态超分比配置、存储动态均衡等手段,实现存储集群容量抗过载;使用过载基线配置、过载趋势监控分析、大流量数据卷发现、集群自适应限流、前端动态限流等手段,实现存储集群性能抗过载。
[0166]
1.存储集群容量抗过载
[0167]
存储集群容量过载,即对于超卖的存储集群,当用户存储资源实际使用量较多的时候导致存储集群存储资源总容量不够。以下对存储集群容量抗过载的方法进行说明,参见图3:
[0168]
1.1用户资源实际使用量预估
[0169]
运维分析平台针对订购较多存储资源的用户,进行存储资源使用率分析,通过对用户的历史资源使用情况分析预估用户的存储资源使用情况,当用户再次订购存储资源时,通过bp神经网络模型预估本次订购的存储资源实际使用量。预估方法详见前文实施例,这里不再赘述。
[0170]
根据数据卷实际使用量预测结果,结合不同存储集群资源售卖情况,得出最佳承载集群,并通知运维管理平台进行存储资源创建。运维管理平台收到资源创建请求后将请求转发到云资源池控制台(云资源池计算节点),进行实际资源创建。
[0171]
1.2动态超分比配置
[0172]
运维分析平台针对每个存储集群,分析存储集群资源使用率趋势(见1.3用户资源使用情况分析),当出现存储集群资源使用率增加较快趋势时,通知运维管理平台。运维管理平台收到消息后,动态降低存储资源池的超分比配置。后续的存储资源需求,将会以更小的概率在低超分比的存储集群上创建。超分比公式详见前文实施例,这里不再赘述。
[0173]
1.3用户资源使用情况分析
[0174]
运维分析平台针对用户的存储资源使用趋势进行分析,当存储集群出现容量过载趋势时,及时通知运维管理平台。趋势分析方法详见前文实施例,这里不再赘述。
[0175]
1.4存储动态均衡
[0176]
当出现存储集群过载趋势后,运维管理平台根据运维分析平台的分析结果调用云资源池接口,将可能过载的存储集群中较大的数据卷进行迁移,迁移目标为资源使用率较低的存储集群。
[0177]
2.存储集群性能抗过载
[0178]
存储集群性能过载,即用户读写存储流量过大导致存储集群出现io延迟、阻塞等。以下对存储集群性能抗过载的方法进行说明:
[0179]
2.1过载发现
[0180]
对于性能过载,提前发现并预防优于过载后进行补救,过载发现手段如下,参见图4:
[0181]
1、过载基线配置:通过测试环境压测、运维分析平台实时采集云资源池存储集群实际运行状态,分析总结过载基线,包括io带宽、io访问延迟、访问请求数量等维度,作为集群过载的判断依据,并配置到运维分析平台中。
[0182]
2、过载趋势监控分析:通过运维分析平台实时监控集群状态,进行趋势分析,并设置过载基线阈值。当性能项达到过载基线阈值且有进一步恶化趋势时,则认为集群有过载可能,产生过载告警,通知运维管理平台。趋势分析方法详见前文实施例,这里不再赘述。不同存储集群、不同性能值可能不同。
[0183]
3、大流量数据卷发现:
[0184]
(1)针对开源版本ceph进行定制化开发,完成存储集群中数据卷流量大小查询接口:在存储集群每个osd服务中,增加流量统计机制,以3副本ceph存储集群为例,针对每一个数据卷,数据卷所有主pg所在osd统计本pg的流量大小,并上报mon节点,mon节点根据数据卷所包含的所有pg的上报流量,计算完整的数据卷总流量大小,所有的数据卷完成流量大小计算后,按流量大小排序。
[0185]
(2)当出现集群过载趋势时,运维分析平台调用该定制化接口获取当前各数据卷流量,用于下一步处理。
[0186]
2.2流量控制
[0187]
当出现过载趋势后,可以通过限流、迁移手段实现集群抗过载。在限流方案上,分为存储集群自适应限流及前端动态限流两个部分,参见图5:
[0188]
1、集群自适应限流
[0189]
在开源版本ceph中定制化开发存储集群自适应限流功能,自适应限流逻辑如下:
[0190]
(1)在未出现集群过载情况时,针对每个主pg的读写速度设置为osd节点的网卡带宽上限,即不限速。
[0191]
(2)当集群流量大于流量过载基线阈值时,针对所有大流量数据卷中的每个pg进行过载趋势分析,分别采样每个pg的流量、iops。
[0192]
(3)当出现集群即将过载情况时,运维管理平台通知ceph集群的mon节点,触发集群自适应限流,详见前文实施例,这里不再赘述。
[0193]
2、前端动态限流
[0194]
依托运维分析平台的过载趋势监控分析及大流量数据卷发现,当出现过载情况后,运维管理平台获取当前存储集群中的大流量数据卷,并调用云主机底层虚拟化软件libvirt的限流接口,采用线性-指数降低方法,详见前文实施例,这里不再赘述。
[0195]
2.3存储迁移与资源隔离
[0196]
使用了限流手段控制集群负载后,还需要使用迁移大流量卷、存储资源隔离等手段解决过载问题,参见图6:
[0197]
1、存储迁移:当运维管理平台收到过载消息后,使用限流手段可以防止集群进一步过载,但还需要通过大流量数据卷迁移的方式彻底降低存储集群流量压力。运维管理平台向运维分析平台请求获取大流量数据卷,并调用云资源池存储迁移接口,将大流量数据卷迁移到流量较低的存储集群中。
[0198]
2、存储资源隔离:运维分析平台统计分析用户数据卷流量大小,对于大流量用户进行标记并统计各个集群承载的大流量用户,随后告知运维管理平台。运维管理平台保存大流量用户信息,当大流量用户再次订购数据卷时,运维分析平台通知运维管理平台,运维管理平台将调用云资源池接口,将该数据卷创建于承载较少大流量用户的存储集群中,实现大流量用户间的存储资源隔离。
[0199]
为实现本技术实施例的方法,本技术实施例还提供了一种负载均衡装置,如图7所示,该负载均衡装置700包括:
[0200]
分析模块701,用于分析第一集群的负载状态,得到分析结果;
[0201]
调整模块702,用于在所述分析结果表征所述第一集群存在容量过载趋势的情况下,调用第一设定模型将所述第一集群的超分比由第一超分比调整为第二超分比;所述第二超分比小于所述第一超分比;
[0202]
限流模块703,用于在所述分析结果表征所述第一集群发生性能过载的情况下,对所述第一集群的第一pg和/或访问所述第一集群的第一虚拟机进行限流处理。
[0203]
在一实施例中,所述分析模块701,用于:
[0204]
每隔设定时间获取所述第一集群存储资源的实际使用量和/或剩余使用量;
[0205]
在第一曲线的切线斜率大于第一设定阈值和/或第一时间小于第二设定阈值的情况下,判断所述第一集群存在容量过载趋势;其中,
[0206]
所述第一曲线基于获取到的所述第一集群存储资源的实际使用量拟合得到;所述第一时间表征所述第一集群剩余使用量的可供使用的时间。
[0207]
在一实施例中,所述装置还包括:
[0208]
第一计算模块,用于基于所述第一集群存储资源的剩余使用量在存储资源总容量中的占比、所述第一集群已承载用户数在最大可承载用户数中的占比以及基准承载能力值,计算得到所述第二超分比;其中,
[0209]
所述基准承载能力值基于所述第一集群的对象存储进程osd节点数量和硬盘性能参数中的至少之一确定出。
[0210]
在一实施例中,所述装置还包括:
[0211]
预测模块,用于调用第二设定模型预测第一类型用户对订购的下一个数据卷的实际使用量;
[0212]
确定模块,用于基于所述第二设定模型的预测结果,调用第三设定模型确定出用于承载所述第一类型用户订购的下一个数据卷的最佳集群;
[0213]
其中,所述第二设定模型基于所述第一类型用户对历史订购的每个数据卷的实际使用量和所述第一类型用户的用户信息训练得到;所述第一类型用户的用户信息包括所述
第一类型用户订购的数据卷数量、所述第一类型用户的等级、所述第一类型用户的在网时长、所述第一类型用户的数据卷总订购容量中至少之一。
[0214]
在一实施例中,所述装置还包括:
[0215]
选取模块,用于在至少一个第二pg中选取进行限流处理的第一pg;所述第二pg表征所述第一集群的第一数据卷对应的pg;和/或,
[0216]
将所述第一集群的第一数据卷对应的虚拟机选取为进行限流处理的第一虚拟机;其中,
[0217]
所述第一数据卷表征总流量大于第三设定阈值的数据卷,或者,表征在所述第一集群中总流量最大的前n个数据卷;所述n大于或等于1。
[0218]
在一实施例中,所述选取模块在至少一个第二pg中选取进行限流处理的第一pg时,用于:
[0219]
基于第二pg在第一时间段内的流量变化情况、所述第一集群的流量过载基线以及所述第一集群总pg数,计算得到每个第二pg的第一权重值;其中,所述第一时间段表征所述第一集群的流量达到所述第一集群的流量过载基线阈值至所述第一集群发生性能过载之间的时间段;
[0220]
基于第二pg当前的每秒进行读写操作的次数iops值在所述第一集群当前的总iops值的占比,计算得到每个第二pg的第二权重值;
[0221]
基于每个第二pg对应的第一权重值和第二权重值,计算得到每个第二pg的第三权重值;
[0222]
将第二pg中第三权重值最大的前m个pg选取为第一pg;所述m大于或等于1。
[0223]
在一实施例中,所述限流模块703在对所述第一集群的第一pg进行限流处理时,用于:
[0224]
将第一pg当前的读写速度设置为第一pg的读写速度上限,和/或,将第一pg当前的iops值设置为第一pg的iops值上限;
[0225]
当第一pg收到第一数据读写请求时,控制第一pg将所述第一数据读写请求进行缓存并延迟设定时间后再进行处理。
[0226]
在一实施例中,所述限流模块703在对访问所述第一集群的第一虚拟机进行限流处理时,用于:
[0227]
将所述第一集群中所有数据卷对应的虚拟机当前的读写平均速度设置为第一虚拟机的读写速度。
[0228]
实际应用时,装置包括的各模块可通过装置中的处理器,比如中央处理器(cpu,central processing unit)、数字信号处理器(dsp,digital signal processor)、微控制单元(mcu,microcontroller unit)或可编程门阵列(fpga,field-programmable gate array)等实现,或者由处理器和通信接口共同实现。
[0229]
需要说明的是:上述实施例提供的装置在进行负载均衡时,仅以上述各程序模块的划分进行举例说明,实际应用中,可以根据需要而将上述处理分配由不同的程序模块完成,即将装置的内部结构划分成不同的程序模块,以完成以上描述的全部或者部分处理。另外,上述实施例提供的装置与负载均衡方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
[0230]
基于上述程序模块的硬件实现,且为了实现本技术实施例的方法,本技术实施例还提供了一种电子设备。图8为本技术实施例电子设备的硬件组成结构示意图,如图8所示,电子设备包括:
[0231]
通信接口1,能够与其它设备比如网络设备等进行信息交互;
[0232]
处理器2,与所述通信接口1连接,以实现与其它设备进行信息交互,用于运行计算机程序时,执行上述电子设备侧一个或多个技术方案提供的方法。而所述计算机程序存储在存储器3上。
[0233]
具体地,在一实施例中,所述处理器2,用于:
[0234]
分析第一集群的负载状态,得到分析结果;
[0235]
在所述分析结果表征所述第一集群存在容量过载趋势的情况下,调用第一设定模型将所述第一集群的超分比由第一超分比调整为第二超分比;所述第二超分比小于所述第一超分比;
[0236]
在所述分析结果表征所述第一集群发生性能过载的情况下,对所述第一集群的第一pg和/或访问所述第一集群的第一虚拟机进行限流处理。
[0237]
在一实施例中,所述处理器2在分析第一集群的负载状态,得到分析结果时,用于:
[0238]
每隔设定时间获取所述第一集群存储资源的实际使用量和/或剩余使用量;
[0239]
在第一曲线的切线斜率大于第一设定阈值和/或第一时间小于第二设定阈值的情况下,判断所述第一集群存在容量过载趋势;其中,
[0240]
所述第一曲线基于获取到的所述第一集群存储资源的实际使用量拟合得到;所述第一时间表征所述第一集群剩余使用量的可供使用的时间。
[0241]
在一实施例中,所述处理器2,用于:
[0242]
基于所述第一集群存储资源的剩余使用量在存储资源总容量中的占比、所述第一集群已承载用户数在最大可承载用户数中的占比以及基准承载能力值,计算得到所述第二超分比;其中,
[0243]
所述基准承载能力值基于所述第一集群的对象存储进程osd节点数量和硬盘性能参数中的至少之一确定出。
[0244]
在一实施例中,所述处理器2,用于:
[0245]
调用第二设定模型预测第一类型用户对订购的下一个数据卷的实际使用量;
[0246]
基于所述第二设定模型的预测结果,调用第三设定模型确定出用于承载所述第一类型用户订购的下一个数据卷的最佳集群;
[0247]
其中,所述第二设定模型基于所述第一类型用户对历史订购的每个数据卷的实际使用量和所述第一类型用户的用户信息训练得到;所述第一类型用户的用户信息包括所述第一类型用户订购的数据卷数量、所述第一类型用户的等级、所述第一类型用户的在网时长、所述第一类型用户的数据卷总订购容量中至少之一。
[0248]
在一实施例中,所述处理器2,用于:
[0249]
在至少一个第二pg中选取进行限流处理的第一pg;所述第二pg表征所述第一集群的第一数据卷对应的pg;和/或,
[0250]
将所述第一集群的第一数据卷对应的虚拟机选取为进行限流处理的第一虚拟机;其中,
[0251]
所述第一数据卷表征总流量大于第三设定阈值的数据卷,或者,表征在所述第一集群中总流量最大的前n个数据卷;所述n大于或等于1。
[0252]
在一实施例中,所述处理器2在至少一个第二pg中选取进行限流处理的第一pg时,用于:
[0253]
基于第二pg在第一时间段内的流量变化情况、所述第一集群的流量过载基线以及所述第一集群总pg数,计算得到每个第二pg的第一权重值;其中,所述第一时间段表征所述第一集群的流量达到所述第一集群的流量过载基线阈值至所述第一集群发生性能过载之间的时间段;
[0254]
基于第二pg当前的每秒进行读写操作的次数iops值在所述第一集群当前的总iops值的占比,计算得到每个第二pg的第二权重值;
[0255]
基于每个第二pg对应的第一权重值和第二权重值,计算得到每个第二pg的第三权重值;
[0256]
将第二pg中第三权重值最大的前m个pg选取为第一pg;所述m大于或等于1。
[0257]
在一实施例中,所述处理器2在对所述第一集群的第一pg进行限流处理时,用于:
[0258]
将第一pg当前的读写速度设置为第一pg的读写速度上限,和/或,将第一pg当前的iops值设置为第一pg的iops值上限;
[0259]
当第一pg收到第一数据读写请求时,控制第一pg将所述第一数据读写请求进行缓存并延迟设定时间后再进行处理。
[0260]
在一实施例中,所述处理器2在对访问所述第一集群的第一虚拟机进行限流处理时,用于:
[0261]
将所述第一集群中所有数据卷对应的虚拟机当前的读写平均速度设置为第一虚拟机的读写速度。
[0262]
需要说明的是:处理器2和通信接口1的具体处理过程可参照上述方法理解。
[0263]
当然,实际应用时,电子设备中的各个组件通过总线系统4耦合在一起。可理解,总线系统4用于实现这些组件之间的连接通信。总线系统4除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图8中将各种总线都标为总线系统4。
[0264]
本技术实施例中的存储器3用于存储各种类型的数据以支持电子设备的操作。这些数据的示例包括:用于在电子设备上操作的任何计算机程序。
[0265]
可以理解,存储器3可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(rom,read only memory)、可编程只读存储器(prom,programmable read-only memory)、可擦除可编程只读存储器(eprom,erasable programmable read-only memory)、电可擦除可编程只读存储器(eeprom,electrically erasable programmable read-only memory)、磁性随机存取存储器(fram,ferromagnetic random access memory)、快闪存储器(flash memory)、磁表面存储器、光盘、或只读光盘(cd-rom,compact disc read-only memory);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(ram,random access memory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的ram可用,例如静态随机存取存储器(sram,static random access memory)、同步静态随机存取存储器
(ssram,synchronous static random access memory)、动态随机存取存储器(dram,dynamic random access memory)、同步动态随机存取存储器(sdram,synchronous dynamic random access memory)、双倍数据速率同步动态随机存取存储器(ddrsdram,double data rate synchronous dynamic random access memory)、增强型同步动态随机存取存储器(esdram,enhanced synchronous dynamic random access memory)、同步连接动态随机存取存储器(sldram,synclink dynamic random access memory)、直接内存总线随机存取存储器(drram,direct rambus random access memory)。本技术实施例描述的存储器3旨在包括但不限于这些和任意其它适合类型的存储器。
[0266]
上述本技术实施例揭示的方法可以应用于处理器2中,或者由处理器2实现。处理器2可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器2中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器2可以是通用处理器、dsp,或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器2可以实现或者执行本技术实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本技术实施例所公开的方法的步骤,可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于存储介质中,该存储介质位于存储器3,处理器2读取存储器3中的程序,结合其硬件完成前述方法的步骤。
[0267]
可选地,所述处理器2执行所述程序时实现本技术实施例的各个方法中由第一网关设备实现的相应流程,为了简洁,在此不再赘述。
[0268]
在示例性实施例中,本技术实施例还提供了一种存储介质,即计算机存储介质,具体为计算机可读存储介质,例如包括存储计算机程序的存储器3,上述计算机程序可由电子设备的处理器2执行,以完成前述方法所述步骤。计算机可读存储介质可以是fram、rom、prom、eprom、eeprom、flash memory、磁表面存储器、光盘、或cd-rom等存储器。
[0269]
在本技术所提供的几个实施例中,应该理解到,所揭露的装置、第一网关设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
[0270]
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
[0271]
另外,在本技术各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
[0272]
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。
[0273]
或者,本技术上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本技术各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。
[0274]
需要说明的是,本技术实施例所记载的技术方案之间,在不冲突的情况下,可以任意组合。
[0275]
另外,在本技术实施例中,“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
[0276]
以上所述,仅为本技术的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应以所述权利要求的保护范围为准。

技术特征:
1.一种负载均衡方法,其特征在于,所述方法包括:分析第一集群的负载状态,得到分析结果;在所述分析结果表征所述第一集群存在容量过载趋势的情况下,调用第一设定模型将所述第一集群的超分比由第一超分比调整为第二超分比;所述第二超分比小于所述第一超分比;在所述分析结果表征所述第一集群发生性能过载的情况下,对所述第一集群的第一归置组pg和/或访问所述第一集群的第一虚拟机进行限流处理。2.根据权利要求1所述的方法,其特征在于,所述分析第一集群的负载状态,得到分析结果,包括:每隔设定时间获取所述第一集群存储资源的实际使用量和/或剩余使用量;在第一曲线的切线斜率大于第一设定阈值和/或第一时间小于第二设定阈值的情况下,判断所述第一集群存在容量过载趋势;其中,所述第一曲线基于获取到的所述第一集群存储资源的实际使用量拟合得到;所述第一时间表征所述第一集群剩余使用量的可供使用的时间。3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:基于所述第一集群存储资源的剩余使用量在存储资源总容量中的占比、所述第一集群已承载用户数在最大可承载用户数中的占比以及基准承载能力值,计算得到所述第二超分比;其中,所述基准承载能力值基于所述第一集群的对象存储进程osd节点数量和硬盘性能参数中的至少之一确定出。4.根据权利要求1所述的方法,其特征在于,所述方法还包括:调用第二设定模型预测第一类型用户对订购的下一个数据卷的实际使用量;基于所述第二设定模型的预测结果,调用第三设定模型确定出用于承载所述第一类型用户订购的下一个数据卷的最佳集群;其中,所述第二设定模型基于所述第一类型用户对历史订购的每个数据卷的实际使用量和所述第一类型用户的用户信息训练得到;所述第一类型用户的用户信息包括所述第一类型用户订购的数据卷数量、所述第一类型用户的等级、所述第一类型用户的在网时长、所述第一类型用户的数据卷总订购容量中至少之一。5.根据权利要求1所述的方法,其特征在于,所述方法还包括:在至少一个第二pg中选取进行限流处理的第一pg;所述第二pg表征所述第一集群的第一数据卷对应的pg;和/或,将所述第一集群的第一数据卷对应的虚拟机选取为进行限流处理的第一虚拟机;其中,所述第一数据卷表征总流量大于第三设定阈值的数据卷,或者,表征在所述第一集群中总流量最大的前n个数据卷;所述n大于或等于1。6.根据权利要求5所述的方法,其特征在于,在至少一个第二pg中选取进行限流处理的第一pg,包括:基于第二pg在第一时间段内的流量变化情况、所述第一集群的流量过载基线以及所述第一集群总pg数,计算得到每个第二pg的第一权重值;其中,所述第一时间段表征所述第一
集群的流量达到所述第一集群的流量过载基线阈值至所述第一集群发生性能过载之间的时间段;基于第二pg当前的每秒进行读写操作的次数iops值在所述第一集群当前的总iops值的占比,计算得到每个第二pg的第二权重值;基于每个第二pg对应的第一权重值和第二权重值,计算得到每个第二pg的第三权重值;将第二pg中第三权重值最大的前m个pg选取为第一pg;所述m大于或等于1。7.根据权利要求6所述的方法,其特征在于,所述对所述第一集群的第一pg进行限流处理,包括:将第一pg当前的读写速度设置为第一pg的读写速度上限,和/或,将第一pg当前的iops值设置为第一pg的iops值上限;当第一pg收到第一数据读写请求时,控制第一pg将所述第一数据读写请求进行缓存并延迟设定时间后再进行处理。8.根据权利要求1所述的方法,其特征在于,所述对访问所述第一集群的第一虚拟机进行限流处理,包括:将所述第一集群中所有数据卷对应的虚拟机当前的读写平均速度设置为第一虚拟机的读写速度。9.一种负载均衡装置,其特征在于,所述装置包括:分析模块,用于分析第一集群的负载状态,得到分析结果;调整模块,用于在所述分析结果表征所述第一集群存在容量过载趋势的情况下,调用第一设定模型将所述第一集群的超分比由第一超分比调整为第二超分比;所述第二超分比小于所述第一超分比;限流模块,用于在所述分析结果表征所述第一集群发生性能过载的情况下,对所述第一集群的第一pg和/或访问所述第一集群的第一虚拟机进行限流处理。10.一种电子设备,其特征在于,包括:处理器及通信接口;其中,所述处理器,用于:分析第一集群的负载状态,得到分析结果;在所述分析结果表征所述第一集群存在容量过载趋势的情况下,调用第一设定模型将所述第一集群的超分比由第一超分比调整为第二超分比;所述第二超分比小于所述第一超分比;在所述分析结果表征所述第一集群发生性能过载的情况下,对所述第一集群的第一pg和/或访问所述第一集群的第一虚拟机进行限流处理。11.一种电子设备,其特征在于,包括:处理器和用于存储能够在处理器上运行的计算机程序的存储器,其中,所述处理器用于运行所述计算机程序时,执行权利要求1至8任一项所述方法的步骤。12.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8任一项所述方法的步骤。

技术总结
本申请公开了一种负载均衡方法、装置、电子设备及存储介质,其中,方法包括:分析第一集群的负载状态,得到分析结果;在所述分析结果表征所述第一集群存在容量过载趋势的情况下,调用第一设定模型将所述第一集群的超分比由第一超分比调整为第二超分比;所述第二超分比小于所述第一超分比;在所述分析结果表征所述第一集群发生性能过载的情况下,对所述第一集群的第一PG和/或访问所述第一集群的第一虚拟机进行限流处理。机进行限流处理。机进行限流处理。


技术研发人员:胡振宇 鲁桃
受保护的技术使用者:中国移动通信集团有限公司
技术研发日:2022.12.19
技术公布日:2023/9/20
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

航空商城 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

评论

相关推荐