时间:2024-08-31
施 凯, 虞慧群, 罗 飞, 范贵生
(1.华东理工大学计算机科学与工程系,上海 200237; 2.上海市计算机软件测评重点实验室,上海 201112)
基于互斥条件的云数据中心虚拟机整合策略
施 凯1,2, 虞慧群1, 罗 飞1, 范贵生1
(1.华东理工大学计算机科学与工程系,上海 200237; 2.上海市计算机软件测评重点实验室,上海 201112)
在云数据中心,虚拟机整合(VMC)是绿色计算和最小化集群功耗问题的关键技术。大多数研究采用基于资源使用率来寻求最合理的虚拟机(VM)整合方式,但在整合过程中并未考虑物理服务器(PM)的可用性及同位VM的稳定性问题。本文提出了基于互斥条件限制的VMC策略,该策略同时考虑PM的可用性和VM之间的互斥性两方面因素;给出了集群服务器统一资源预留计算方法,用于保证PM可用性的问题,并给出了基于VM历史运行数据的相似度判定方法,用于解决互斥条件的判定问题。将该策略应用于运行在OpenStack平台中的VM数据,实验结果表明:该策略可以有效地保证PM的可用性,避免同类型VM被整合在一起,减少同位VM的性能损失和确保服务质量。
互斥条件; 虚拟机整合; 相关性; 云数据中心
云数据中心已成为当前IT工业界一个非常重要的基础设施形式,它基于云计算架构,并以松耦合形式提供计算、存储和网络资源。同时,各类物理资源采用虚拟化技术,以保证整体具备较高的绿色节能能力。比较常见的应用是将数据中心的集群服务器采用虚拟化技术为用户提供按需租用服务,包括租用服务器、网络、存储等资源。随着云数据中心应用的日益广泛,如何保证弹性资源供给和虚拟机动态配置的能力已成为当前研究的热点[1-3]。
在资源分配过程中,传统状态下云数据中心的集群服务器为了快速满足用户的资源申请需求,大部分采用快速随机的VM分配技术,但是这种分配方式导致了某些PM资源浪费的问题[1]。例如,某些PM上被分配并运行着数量较少的VM,这些VM的资源需求对于其他PM来说也是可以满足的,若将这些VM整合到其他PM上,那么,原始PM就可以设置为非激活状态[4],由此,从整体上可以降低运行PM的数量并降低能耗,此过程就是目前云计算研究领域经典的虚拟机整合问题(Virutal Machine Consolidation,VMC)和能耗最小化问题。但目前大部分研究仅追求最优化的VMC方式,并未详细考虑整合过程中PM的可用性和同位VM运行的稳定性问题,从而引发由于资源竞争而导致的性能下降,因为其只考虑了资源的“需求-供给”这一个特性[5-6]。
云数据中心的每台VM都会运行特定的应用并为用户提供服务,这些应用从内容上可以分为计算、内存读写和网络传输密集型应用3类。由于同类型的应用在运行行为上存在资源利用高相似性的特点,例如,将多台计算密集型应用的VM同时整合在同一台PM之上,将导致PM性能下降,并影响其他同位VM的运行。为此,本文提出了基于互斥条件限制的虚拟机整合策略,并同时考虑物理服务器的可用性和虚拟机之间互斥性这两方面的因素:
(1) 在PM的可用性方面,提出了集群服务器统一资源预留计算方法。用于解决PM由于资源过度分配,造成无法应对突发情况,无法正常保证可用性问题。
(2) 在VM互斥性方面,提出了基于VM历史运行数据的相似度判定方法。用于解决VMC过程中互斥条件的判定问题,同时也解决了传统VMC方式下,仅考虑资源满足条件而导致同位VM稳定性低的问题。
云数据中心环境下,PM通常处于同一地理位置并采用集中式管理方式,大量VM运行于其中。每个VM运行着特定的应用并为用户提供服务。用户在进行资源申请时,集群服务器为了快速满足用户的需求,通常采用随机分配PM的方式。但是,随着运行时间的推移,某些PM上的资源利用率可能相对较低。由此,运用VMC方式将VM整合到资源利用率相对较低的PM上,待整合完成后,源PM上若不存在其他VM运行,则可将其设置为非激活或关机状态。本文中的变量定义见表1。
表1 变量定义说明
由于VMC涉及到本地迁移和远程迁移等方面,而本文仅考虑VMC过程发生在一个数据中心内部,因此定义单个数据中心作为本文整合策略的边界。本文的整合策略需要分析VM实际资源利用率情况,而数据中心数据存储通常采用共享存储方式,所以不考虑存储服务器能耗[5-6],仅考虑计算节点的CPU、Memory、Network Bandwidth(NB) 3类资源,并评估整合过程中PM的可用性和相应同位VM的稳定性。由于每台VM拥有各自独立的内存运行单元,所以考虑并定义3类资源的优先级有如下关系:priority(CPU)> priority(Memory)> priority(NB)。其次,任何虚拟机的资源请求都必须小于单台PM所能提供的最大资源剩余量[7],其中有VM(i)∈PM(j)。目标函数如式(1)所示,追求最小化PM数量。
(1)
在整合过程中,将运行在资源利用率较小的服务器上的VM整合到其他目的服务器上,同时考虑PM的可用性和同位VM的稳定性问题。由此本文提出了基于集群服务器统一资源预留的计算方法,用于解决由于资源的过度分配,造成无法应对突发情况和无法正常保证服务器的可用性问题。其次,评估目的PM上同位VM与被整合VM之间资源利用率关系,提出了基于VM历史运行数据的相似度判定方法,解决整合过程中互斥条件的判定。
相反,在VMC中若仅考虑资源满足这一个特性,例如BFD算法,虽然可以更好地从整体上符合PM的资源最大化利用[8-9],但并未考虑VM之间的互斥性问题,若强制迁移将导致PM负载加大,影响原有运行VM的性能并可能导致宕机情况发生[10-11]。本文综合考虑PM的可用性和同位VM之间互斥性两方面因素,首先,改进BFD算法为MBFD算法(Modified Descending Best Fit Algorithm),得出根据资源需求而计算获得的VM整合位置,从而形成预分配映射关系表。在此过程中PM被分为3类资源队列,分别是接收主机队列、释放主机队和空主机队列。其次,根据互斥条件的判定算法,修正预分配映射关系表,最终形成VM的最佳整合位置。在此过程中,剔除具有高相似度资源应用的VM被整合在同一台PM上的映射记录。
2.1 概述
VM整合策略的详细过程如图1所示。该过程包括基于集群服务器统一资源预留计算方法和VMC过程中的互斥条件判定方法,同时,此VMC策略将被部署在监控服务器上。
图1 虚拟机整合策略框架图
2.2 剩余资源队列构成
用户向云数据中心进行VM资源申请,在时间和空间上呈现出随机性。而空间随机性,即PM为了快速满足资源需求,多数情况下对VM的资源分配采用随机分配方式,但这种情况很可能导致PM资源浪费。随着集群运行过程时间的往后推移,某些PM上可能仅包含少量的VM。
由于集群中PM资源利用率是不一致的,所以首先要考虑当前PM的资源剩余和利用率情况,并将其分类为不同对象的服务器。本文定义接收主机、释放主机和空主机3个类型,分别对应所提出的接收主机队列、释放主机队列和空主机队列,而3类主机的区分需根据每台PM的剩余资源所决定。某台PM剩余资源采用三元组形式表示,如式(2)所示。
ρc·rrcpu(i)+ρm·rrmem(i)+ρn·rrnet(i)=Γavg
(2)
其中:PM(i)表示第i台PM;rrcpu(i)、rrmem(i)和rrnet(i)分别表示PM(i)剩余CPU资源(虚拟核心数)、剩余内存和剩余网络带宽。所有PM的剩余资源将根据3类资源优先级关系,计算加权剩余资源利用率Γavg,并按照从小到大顺序加入PM剩余资源队列(Residual Resource List),如式(3)所示;优先级系数ρc、ρm和ρn需要根据实际平台决定。
(3)
在集群中,若某台PM发生突发情况,例如VM的网络并发访问量增加或计算任务加重时,PM为应对突发情况可以预留足够的资源处理,从而保证PM的性能。同时对于突发情况的VM,又可以在预留资源的作用下,被迁移到其他主机或空主机上,进而继续为用户提供服务,有效降低了PM宕机的概率和减少SLA违背。PM预留资源的计算方法如下:
(ReCpu,ReMen,ReNet)=
(4)
在式(4)中,根据资源利用率情况,分别获得当前运行VM的CPU、内存和网络带宽利用率值,选择每项利用率中的最大值作为当前集群中此项资源的预留值。集群剩余资源利用率计算过程如下:
Algorithm 1 Creating Residual Resource PMList for each PM
Input:PMList and VMList
Output:RRpmList
(1) RRpmList←Φ
(2) maxcpu=0; maxmem=0; maxnet=0;
(3) For host∈PMList do
(4) RRpmList (host)←get_hostcpu(),get_hostmem(),get_hostnet()};
(5) For vm∈host.vmlist do
(6) if(get_vmcpu()>maxcpu) maxcpu=get_vmcpu();
(7) if(get_vmmem()>maxmem) maxmem=get_vmmem();
(8) if(get_vmnet() >maxnet) maxnet=get_vmnet();
(9) End for
(10) End for
其中代码行(3)~(4)表示遍历集群中的所有PM,计算获得所有运行PM和VM的3类资源利用率,并选择其中的最大值;代码行(11)~(13)将每台PM的3类资源利用率总和减去当前集群中VM资源预留值,最终形成集群PM的剩余资源队列。
2.3 预分配映射关系表构成
根据所获得的集群剩余资源队列,为了有效地进行VMC,需要将现有的集群服务器进行分类。分别将资源利用率较低的PM定义为释放主机,表示其上的VM可以通过整合策略迁移到其他目的PM上。而资源未产生开销、没有VM运行的主机表示为空主机,某些情况下可被关闭或置为非激活状态。其余资源利用率相对较高的PM定义为接收主机,在保证性能的情况下可以接收释放主机上的VM,并分别对应接收主机队列(Receiver PM queue)、释放主机队(Releaser PM queue)和空主机队列(Empty PM queue)。如式(5)所示。
ReceiverPMlist={PM(i)|RRPM(i)<ϑ,
ReleaserPMlist={PM(j)|RRPM(j)>ϑ,
EmptyPMlist={PM(k)|RRPM(j)=100%,
(5)
在式(5)中,定义剩余资源平均阈值为ϑ,若PM(i)加权剩余资源利用率RRPM(i)小于阈值ϑ,则被识别为接收主机,否则被识别为释放主机,表示当前这台PM上存在较少运行的VM,并存在较多的剩余资源。若某台PM剩余资源为100%(不计算预留资源及其自身资源使用),则将被识别为空主机。此阈值根据经验值及平台决定,一般设置为剩余20%的资源。
为了满足释放主机上的VM可以有效地整合到接收主机,本文改进BFD装箱算法为MBFD算法(Modified Descending Best Fit Algorithm),寻求释放主机上的VM在接收主机上更合理的位置,并形成初始预分配映射关系表。降序最佳适应算法是在原有降序算法的基础上进行改进,先对物品降序排序,再按照首次适应算法进行装箱表示。本文中,将接收主机队列中的PM按照剩余资源从小到大升序排列,而将释放主机队列中的VM按照资源请求情况从大到小降序排列,由于对接收主机队列进行排序考虑,问题演化为在接收主机队列中寻找第1个合适的位置。为此,定义映射函数如式(6)所示,根据当前释放主机队列中的VM资源请求是否符合接收主机队列中某PM的剩余资源总量,预分配映射关系表算法伪代码如下:
Algorithm 2 Creating Pre-allocated mapping table for ReleasePMlist
Input:RRpmList,ϑ
Output:Pre-allocated mapping table, ReceiverPMlist, ReleasePMlist, EmptyPMlist
(1) {ReceiverPMlist, ReleasePMlist, EmptyPMlist}←Φ
(2) RRmin=maxvalue;
(3) For host∈RpmList.host do
(4) avgu=getaverageutilization(host);
(5) if(avgu=100%) EmptyPMlist←host;
(6) else if(avgu>ϑ) ReleasePMlist←host;
(7) else ReceiverPMlist←host;
(8) End for
(9) For host∈ReleasePMlist.host do
(17) End for
如果没有寻找到符合的预映射位置,此VM将保留原始位置,最终代码行(15)形成预分配映射关系表。
2.4 互斥条件判定
VM之间存在资源利用率的相关性或相斥性,如果仅考虑资源满足这一条件进行VMC,将导致被整合VM与目的PM上的VM之间存在资源互斥问题。本文采用基于VM历史监控数据的相关性系数计算方法,判定VM之间资源利用率是否存在低相似性的特征,最终在形成的预分配映射关系表中剔除高相似性特征的VM映射关系,确保整合后PM保证性能并稳定工作。计算公式如下:
(7)
其中:di,dj分别表示VM(i)和VM(j)某项资源属性,分别取到t时刻为止CPU资源利用率、内存占用率和网络带宽占用率;n表示在采样时间间隔γ下,共存在n个数据样本,参与两台VM的某项资源属性相似度计算,由此确定VM之间某项资源属性运行特征。
Wherety∈{cpu,mem,net},
(8)
Algorithm 3 Creating Pre-allocated modification mapping table for ReleaserPMlist
Input:Pre-allocated mapping table, ReceiverPMlist, ReleaserPMlist,μ
Output:Pre-allocated modification mapping table
(1) For item∈Pre-allocated modification mapping table do
(2)vm1=getVMfrom_item(); topm=getdestPMfrom_item();
(3) Forvm∈topm do
(8) Delete item from Pre-allocated mapping table;
(9) End for
(10) End for
3.1 实验环境
实验环境为真实的物理环境,7台dell R720作为计算节点,采用共享存储机制,服务器上安装OpenStack开源云。实验系统镜像中集成自主开发的运行参数监控软件。此软件根据设定的时间间隔,采样VM的CPU利用率、内存占用率和上/下行网络流量数据。
初始状态下,随机申请105台VM(VM1~VM150)。其中PM1分配17台(PM1={vm1~17}),PM2分配16台,PM3分配18台,PM4分配10台,PM5分配14台,PM6分配16台和PM7分配14台。在实验中,采用3种VM实例:小实例为1个Vcore,1 GB内存。中实例为2个Vcore,2 GB内存。而大实例为4个Vcore,4 GB内存,网络都采用百兆网络带宽分配。
所有PM为同构服务器,实验所采用的数据采集自2015年08月25日至27日,服务器机房处于华东理工大学(奉贤校区)。为了模拟计算密集型、内存读写密集型和网络传输密集型应用,本文采用标准基准测试程序,如表2所示。
3.2 虚拟机整合策略过程
(1) 根据初始VM分配映射关系,通过监控获得当前PM资源利用率,如图2所示。
表2 实验基准测试程序
图2 物理服务器资源利用率图
当前集群中VM的分布是不均匀的,并没有按照特定的应用考虑其最合适的分配位置,特别是PM4和PM5资源利用率相对较少。利用本文提出的整合策略,可以获得相对合理的整合位置,并在整合过程中详细考虑PM和同位VM的性能。
(2) 根据当前所有VM资源申请和PM资源总和,计算PM剩余资源利用率,如表3所示。同时获得当前实验环境下所有VM的最大资源利用状态:ReCpu=4Vcore,ReMen=4 GB,ReNet=8 Mbps。在表3中,每列数据斜线之前表示剩余可用资源,后面表示物理服务器提供的最大资源能力。
表3 物理服务器剩余资源表
(3) 根据初始VM映射关系,通过MBFD算法得出预分配映射关系表,见表4。由于篇幅有限,表4中仅给出10个映射关系条目。在MBFD算法作用下,根据本文提出的VM之间资源相似度计算判定方法,将处于释放主机队列中的需要迁移的VM与接收主机队列中目的PM上其余VM进行资源相似度计算,并将高相似度映射关系从预分配映射关系表中删除。图3和图4分别给出了VM的CPU资源、内存及上行链路相似度值关系图。
表4 预分配映射关系表
图3,4中的横坐标表示VM之间的关系对,即(Vi,Vj)表示VM(i)和VM(j),纵坐标为相应的资源相似度值。图3分别示出了用户提交任务CPU利用率及CPU资源总利用率,在1、8、43、95~120、162~169序列中皆存在大于80%的相似度(图中横线表示)。
图3 VM的CPU资源利用相似度图
图4分别示出了利用率相似度图,其中在图4(a)中多个VM序列显示内存利用率相似度都大于30%(横线表示),而在图4(b)中序列对160及180~190之间也存在高相似的网络应用。本文选择上行流量作为网络资源衡量标准,主要考虑VM是对外提供应用服务,网络带宽和网络冲突是某些突发情况的瓶颈问题。
图4 VM的MEM和UP-NET资源利用相似度图
(4) 通过上述总相似度评价值的处理,将获得修正预分配映射关系表,并且执行虚拟机调度策略。在表5中存在互斥关系的条目将被标记,同时不进行虚拟机调度。
3.3 实验性能说明
若仅考虑资源满足这一个特性,而不考虑整合对同位VM所产生的影响,将导致某些同位VM性能下降。为此采用基准测试程序,评估本文中预分配映射关系表和修正型预分配映射关系表对性能的影响程度,测评方式表现在扰动影响和执行时间上。
本文将评估3方面的影响程度。由于网络密集型应用主要表现在对源和目的CPU和内存利用的影响,所以仅详细分析网络密集型应用对VMC的影响程度,而其他CPU方面仅给出运行时间的说明。
表5 修正型预分配映射关系表
首先,计算密集型VMC对目的PM上同类型同位VM所产生的影响。评估整合对目的服务器上2台VM所产生的影响。在PM1上运行2台小实例的计算密集型VM1和VM2,而在PM2上运行VM3,但其中已部署计算密集型应用。其次,将VM3从PM2上迁移到PM1,并记录PM1上两台VM的任务平均完成时间。在CPU密集型环境下,如表6中编号1所示,在显著地显示了VM整合对原同位VM执行CPU密集型任务所产生的影响程度,平均完成时间有了显著上升。
表6 平均完成时间数据对比表
为了显示同位VM所产生的影响程度,将目的PM上同位VM数量增加到8台,实验结果表明随着目的PM上VM数量的增加,同类型VM的整合对原同位VM的运行状态产生了较大的影响,而这些影响随着同位VM数量的增加而更加显著,如表6中编号2数据。
其次,网络密集型VMC对目的服务器上同位VM所产生的影响。由于VM迁移采用专用的迁移网络,所以单纯考虑流量性能将不能显著显示同类型网络密集型应用对同位VM所产生的影响程度。所以,在实验中给出CPU和内存的利用率来说明此问题。
为了模拟密集型网络数据传输,在原有2台PM的基础上,在PM3上新增加VM4,并且PM1上2台VM分别与VM4进行网络传输任务,数据文件分别是100 M和2 GB及基准测试程序,最终记录传输平均的完成时间。同时,在传输过程中将PM2上的VM进行迁移,同样记录平均完成时间。如表6中编号3所示,平均完成时间出现了明显的增加。
网络密集型环境下2台同位VM的CPU利用率影响程度如图5所示。图中显示了当发生整合时对同位VM所产生的CPU利用率影响,出现密集型的抖动和严重的多峰值情况下,完成时间也有所增加。
图5 大文件传输两台同位VM的CPU利用率影响程度图
为了说明VM3整合完成后,若同样启动网络密集型应用对原有同位VM的影响,将VM1和VM2进行2 GB大文件传输,而待VM3完成整合后,进行100 M网络传输任务,图6示出了其内存利用率变化趋势。而在表6编号4中平均完成时间相比较编号3也有大幅度增加。造成此类问题的原因就是网络密集型任务不仅占用了大量的网络带宽,并且还需在高CPU利用率的控制下进行操作。
将目的PM上VM数量增加到8台,并执行同样的评估过程,本文选取影响明显的4台VM给出CPU图示说明,如图7所示。但为了更好地模拟网络密集型情况,采用100 M小数据文件传输。当进行小文件传输时,VM3的整合操作和执行网络传输任务都对目的PM上同位VM产生了不同程度的影响,图7中多次出现CPU利用率高峰值情况,而这些峰值的变化与同位VM的数量和执行的同类型应用存在关系。随着目的PM上同位VM数量的增加,影响程度也逐步提升。表6编号5数据显示,整合前后平均完成时间都有了显著的提升。同理在图8中,目的PM上VM的内存资源利用率表现出不同程度的抖动,说明当同类型网络密集型VM被迁移到目的服务器上时,对同位VM内存利用率的影响随着同位虚拟机数量的增加而增加(图中的利用率曲线采用剩余资源利用率的表示形式)。
图6 大文件传输两台同位VM的MEM利用率影响程度图
图7 小文件传输8台同位VM的CPU利用率影响程度图
图8 小文件传输8台同位VM的MEM利用率影响程度图
根据本文提出的总相似度计算公式,得出表7中的数据。实验中5类模拟情况都存在高相似的特点(除内存),根据本文对于VMC的策略要求,都将拒绝此类高相似性VM的整合。从而保证PM的可用性和同位VM的稳定性。
表7 总相似度评价值表
本文提出了一种基于互斥条件的VMCP整合策略。该策略在保证PM及同位VM性能的条件下最小化PM的数量,从而降低整体的能耗。VMCP是一个复杂的系统性问题,在整合过程中,本文引入两类保在服务器性能方面,提出集群服务器统一资源预留计算方法,用于解决由于资源的过度分配而造成无法应对突发情况和无法正常保证PM性能的问题。在VM互斥方面,提出基于虚拟机历史运行数据的相似度判定方法,用于判定VMC过程中的互斥条件。通过与经典的装箱算法对比,实验结果表明本文的整合算法不仅考虑同位VM的性能问题,而且还可以保证了PM的性能。未来工作重点将考虑如下几点:
(1) 评估和量化性能稳定程度。
(2) 定义自适应阈值,用于区分3类PM对象队列。
(3) 从VM运行特性上更好评估和识别密集型VM应用,并考虑综合影响。
[1]李铭夫,毕经平,李忠诚.资源调度等待开销感知的虚拟机整合[J].软件学报,2014,25(7):1388-1402.
[2]刘诗海,孙宇清,刘古月.面向业务特征的自适应虚拟机迁移带宽分配算法[J].计算机学报,2013,36(9):1816-1825.
[3]李青,李勇,涂碧波,等.QoS保证的数据中心动态资源供应方法[J].计算机学报,2014,37(12):2395-2407.
[4]罗刚毅,钱柱中,陆桑璐.一种基于网络感知的虚拟机再调度算法[J].计算机学报,2015,38(5):932-943.
[5]肖鹏,刘洞波,屈喜龙.云计算中基于能耗比例模型的虚拟机调度算法[J].电子学报,2015,43(2):305-311.
[6]FILANI D,HE J,GAO S.Dynamic data center power management:Trends,issues,and solutions[J].Intel Technology Journal,2008,12 (1):59-67.
[7]ZHOU Z,LIU F,XU Y,etal.Carbon-aware load balancing for geo-distributed cloud services[C]//Proceedings of the 2013 IEEE 21st International Symposium on Modeling,Analysis & Simulation of Computer and Telecommunication Systems.USA:IEEE,2013:232-241.
[8]DENG W,LIU F,JIN H,etal.Harnessing renewable energy in cloud datacenters:Opportunities and challenges[J].Browse Journals & Magazines,2013,28(1):48-55.
[9]XU Fei,LIU Fangming,JIN Hai,etal.Managing perfor-mance overhead of virtual machines in cloud computing:A survey,state of the art,and future directions[J].Proceedings of the IEEE,2014,102 (1):11-31.
[10]XU Fei,LIU Fangming,LIU Linghui,etal.iAware:Making live migration of virtual machines interference-aware in the cloud[J].IEEE Transactions on Computers,2014,63 (12):3012-3025.
[11]ZHENG Qinghua,LI Rui,LI Xueqi,etal.Virtual machine consolidated placement based on multi-objective biogeography-based optimization[J].Future Generation Computer Systems,2016,54:95-122.
VMC Strategy Based on the Mutual Exclusion Conditions for Cloud Data Center
SHI Kai1,2, YU Hui-qun1, LUO Fei1, FAN Gui-sheng1
(1.Department of Computer Science and Engineering,East China University of Science and Technology, Shanghai 200237,China; 2.Shanghai Key Laboratory of Computer Software Testing and Evaluating,Shanghai 201112,China)
In the cloud data center,virtual machine consolidation (VMC) is one of the key technologies for green computing and minimizing cluster power consumption.In the relevant research works,most seek the most reasonable consolidation schemes based on resource utilization and don’t consider the stability and availability of PM and co-located virtual machines (VM).In this paper,by analyzing their mutual exclusion conditions,a virtual machine consolidation strategy is proposed,in which both the availability of PM and the mutual exclusivity among VM are considered.Moreover,the cluster server uniform resources reservation approach and the similarity calculation method based on the historical running data of VM are also given.Finally,this strategy is evaluated by collecting and analyzing the running data of VM deployed on the open stack platform.Experiment results show that the proposed method can effectively guarantee the PM availability and avoid the situation that the same type of VM is consolidated in one PM.Hence,this algorithm can reduce the performance degradation of co-located VM and improve the quality of service (Qos).
mutual exclusion conditions; virtual machine consolidation; correlation; cloud data center
1006-3080(2017)01-0119-10
10.14135/j.cnki.1006-3080.2017.01.019
2016-07-20
国家自然科学基金(61173048,61300041,61472139);高等学校博士学科点专项科研基金博导类资助课题(20130074110015);中央高校基本科研业务费专项基金(WH1314038,WH1514331)
施 凯(1989-),男,博士生,主要研究方向为虚拟机整合、云计算和软件工程等。E-mail:BH4AWS@163.com
虞慧群,E-mail: yhq@ecust.edu.cn
TP393
A
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!