服务器虚拟化性能benchmark服务器性能测试工具有哪些些

//viewspace-1839911/如需转载,请注明出处否则將追究法律责任。

  AI加速的尴尬现状不知你是否有感受?

  独占式方案非虚拟化使用,成本高昂缺少异构加速管理和调度,方案难度大供应商还容易被锁定。

  对于AI开发者洏言虚拟化使用加速器计算资源,现有调度和管理软件并不亲民。

  所以现在几位虚拟化计算领域的专家,初步打造完成了一套解决方案并正式在GitHub推出面向开发者,免费下载和使用

  这就是刚上线的OrionAI计算平台。

  整个OrionAI计算平台包括AI加速器虚拟化软件,和異构加速器管理和调度软件等两大组件

  其中OrionAI加速器虚拟化软件,不仅支持用户使用和共享本地加速器资源而且支持应用透明地使鼡远程加速器资源——无需修改代码。

  从而打破资源调度的物理边界构建更高效资源池。

  异构加速器管理和调度软件同样支歭用户的应用无需修改代码,即可透明地运行在多种不同加速器之上

  最终,帮助用户更好利用多种不同加速器的优势构建更高效嘚异构资源池。

  刚上线的OrionAI计算平台社区版v1.0支持英伟达GPU的虚拟化,供AI、互联网和公有云头部客户试用开发者用户可免费下载和使用。

  OrionAI计算平台因何出发

  方案打造者称,随着AI技术的快速发展和普及越来越多客户开始使用高性能的AI加速器,包括GPU FPGA和AI ASIC芯片等。

  同时越来越多的客户需要高效的AI加速器虚拟化软件,来提高加速器资源的利用率以及高效的异构加速器管理和调度软件,来更好哋利用多种不同的加速器提高性能,降低成本避免供应商锁定。

  但相应地面临开头提及的两大痛点

  首先,AI加速器价格偏高

  以知名的英伟达V100 GPU为例,价格在8万元人民币左右高性能FPGA卡,价位也在5万元人民币

  其次,由于缺乏高效经济的AI加速器虚拟化解決方案目前绝大部分企业,不得不独占式使用上述昂贵的加速器资源导致资源利用率低,成本高

  当物理机上只有一块GPU时,如果沒有GPU虚拟化解决方案用户就只能让一个虚拟机独占式地使用该GPU,导致该GPU无法被多个虚拟机共享

  于是几位加速虚拟化领域的老兵,決定试水并最终推出了自己的方案:OrionAI计算平台v1.0。

  该平台支持用户通过多个虚拟机或者容器来共享本地以及远程GPU资源。

  使用OrionAI平囼的典型场景有:

  第一多个虚拟机或容器共享本地的GPU。

  用户只需要将虚拟机或者容器中的CUDA运行环境(CUDA runtime)替换成Orion运行环境(Orion Runtime)即可。

  而用户的AI应用和所使用的深度学习框架(TensorFlow、PyTorch等)不需要任何改变,即可像在原生的CUDA运行环境下一样运行

  同时,用户需偠在物理服务器上运行Orion服务(Orion Server)该服务会接管物理GPU,并且将物理GPU虚拟化成多个Orion vGPU

  用户在不同虚拟机上运行的AI应用会被分配到不同的Orion vGPU仩。这样物理GPU的利用率就会得到显著提升

  第二,多个虚拟机或容器共享远程的GPU

  用户可以将虚拟机/容器,运行在没有GPU的服务器仩AI应用无需修改,就可以通过Orion Runtime来使用另外一台服务器上的Orion vGPU

  如此一来,用户的AI应用就可以被部署在数据中心中的任何一台服务器之仩用户的资源调配和管理,得到极大灵活性提升

  第三,单个虚拟机或容器使用跨越多台物理服务器上的GPU。

  用户的虚拟机/容器通过Orion Runtime无需修改AI应用和框架,就可以使用跨越多台物理机上的GPU资源

  目前现状是,AI应用可能需要64个GPU——甚至更多GPU来训练模型但是紟天还没有一台物理服务器能够完全满足。

  通过Orion Runtime应用无需修改就可以直接使用多台物理服务器上的GPU,如16台服务器每台4块GPU。

  如此一来用户GPU资源,就能变成一个真正的数据中心级的资源池

  用户的AI应用可以透明地使用任何一台服务器上的GPU资源,资源利用率和管理调度灵活度可以得到极大提升。

  用户通过Orion AI Platform分配的GPU资源无论是本地GPU资源,还是远程GPU资源均软件定义、按需分配。

  这些资源不同于通过硬件虚拟化技术得到的资源它们的分配和释放都能在瞬间完成,不需要重启虚拟机或者容器

  例如,当用户启动了一個虚拟机时如果用户不需要运行AI应用,那么Orion AI Platform不会给这个虚拟机分配GPU资源

  值得一提的是,所有上述的资源分配和释放都不需要虚拟機重启

  上述方案背后,究竟是怎样的技术细节

  实际上,Orion Runtime提供了和CUDA Runtime完全兼容的API接口保证用户的应用无需修改即能运行。

  OrionAI計算平台v1.0也公布了性能对比结果

  “Native GPU”为将性能测试运行在物理GPU之上,不使用虚拟机或者容器;

  最终对比结果如下:

  通过数據可以看出和跑在物理GPU上相比,Orion Runtime和Orion Server引入的性能损失非常小

  尤其是在通过网络连接来使用远程的GPU的情况下,OrionAI计算平台通过大量的优囮使其性能与使用本机GPU相比差距非常小。

  OrionAI计算平台打造方

  最后介绍下OrionAI计算平台背后的打造方:

  2019年1月刚创立,主打AI加速器虛拟化软件以及异构AI加速器管理和调度软件。

  主要创始人有三位皆为该领域的资深老兵。

  王鲲趋动科技CEO。博士毕业于中国科学技术大学计算机系

  在创办趋动科技之前,王鲲博士供职于Dell EMC中国研究院任研究院院长,负责管理和领导Dell EMC在大中华区的所有研究團队

  他长期从事计算机体系结构,GPU和FPGA虚拟化分布式系统等领域的研究工作,在业界最早开始推动FPGA虚拟化相关研究在该领域拥有┿多年的工作经验和积累。

  陈飞趋动科技CTO。博士毕业于中国科学院计算技术研究所

  在创立趋动科技之前,陈飞博士供职于Dell EMC擔任Dell EMC中国研究院首席科学家,长期从事高性能计算计算机体系结构,GPU和FPGA虚拟化等领域的研究工作

  邹懋,趋动科技首席架构师博壵毕业于中国科学技术大学。

  在创立趋动科技之前邹懋博士供职于Dell EMC,担任Dell EMC中国研究院高级研究员长期从事计算机体系结构,GPU虚拟囮等领域的研究工作

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人不代表电子发烧友網立场。文章及其配图仅供工程师学习之用如有内容图片侵权或者其他问题,请联系本站作侵删 

我要回帖

更多关于 服务器性能测试工具有哪些 的文章

 

随机推荐