《怎么为数据中心CPU“减负”.docx》由会员分享,可在线阅读,更多相关《怎么为数据中心CPU“减负”.docx(8页珍藏版)》请在第壹文秘上搜索。
1、如今CPU承担的任务越来越重,那么如何为CPU减负“呢?几年前,GPU的出现很好地弥补CPU在图形处理能力方面的短板.而随着大数据时代的到来起来部多的数据11在传统IT架构中传输、处理,突发的峰值让CPU面临越来越大的负荷.针对这一挑战,DPU应运而生.人们把所有的网络和存储的I/O功能从CPU上卸载到了DPU上,这样就能够让带宽得到充分利用,而且能够让CPU专注于处理相应的工作负载,而不是来处理数据的进进出出。数据流量越大越需要DPU.通过可编程的多核处理器和加速引擎、高性能网络接口以及软件栈的支持QPU实现了传统计算与数据交互的分离,也更符合未来安全、高效、云原生的大规模计或应用时代.最先
2、部署DPU的是国内云服务商,包括BAT.京东、头条等公司,在数字中国万里行考察中Uc1.oud乌兰察布数据中心时提到,UQoud被金属服务器就采用NVIDIABIueFieIdDPU满足客户高带宽、低时延的网络需求.而现在,随若NVIDIAB1.ueFie1.d-3DPU的诞生,以及英伟达在生态环境,软件和相关解决方案方面的持续耕耘,未来将会被更多的企业应用.近日,英伟达与VMware联合迎来技术新突破,VMwarevSphere分布式服务引擎(VMwareProjectMonterey),它与NVIDIABIueFieIdDPU紧密集成,为数据中心、云和边缘提供演进的架构方法,它解决了下一代
3、、云原生工作负载不断变化的需求。IProjectMonterey将效率、部署、安全融为一体在近日的VMwareExp1.ore大会上,NVIDIA.VMware和戴尔联合发布ProjectMonterey平台.NVIDIA网络技术专家崔岩介绍:.该平台方案将VMwarevSphere8与NVIDIABIueFieIdDPU进行错合,并运行在戴尔PowerEdge服务器或VxRaiI一体机上,这样可以把VSphere8的一些功能,卸载、加速和IKMIs1.NVIDIABIueFieIdDPU,从而释放CPU的计算费源.”ProjeCtMonterey缘起2020年,当时这项计划旨在打破裸机、内部
4、部署和云基础设施之间的界限,推出一种用于部署和保护数据中心资源的全新方法。如今,ProjectMonterey终于进入到应用阶段,此次ProjectMonterey与NVIDIA和戴尔科技推出的专为人工智能(A1.)时代设计的全新数据中心解决方案,为未来的AI和现代应用程序工作负载更新构建一个现代的数据中心。下一代VMwareC1.oudFoundation(ProjectMonterey)云热批架构C1.ATM1.AtTR在BIueFieIdDPU上运行vSphere定义.*加*泊片上故,中心用上设体wgXgJffE通过上图我们可以更清楚地看出,在传统的数据中心中,CPU需要承担基咄设施管理
5、、软件定义安全、软件定义存储、软件定义网络四个方面的工作,所以这就需要CPU分出相应的资源来放到操作系统上。当采用了NVIDIABIueFieIdDPU之后,CPU可以零介入基础设施的部分,上述谢的四大功能就卸IS到了DPU.DPU和vSphere配合就可以完成之前翕要CPU承担的四部分工作.这样CPU资源会更好的支撑整个企业业务应用,从而有更多支持虚机和容器的能力,这就是NVIDIABIueFieIdDPU在数据中心的更要价值。不仅如此,由于NVIDIABIueFieIdDPU的介入会在主机CPU和DPU之间形成一个隔离层,从而保障了主机内部的安全性.如果有主机上层被应用程序进行黑客攻击,它
6、也不会通过隔离层,不会通过DPU攻击到其他的服务器,从而提升了整个数据中心的安全性。可以说,通过ProjectMonterey这个软硬为同的解决方案,NVIDIABIueFieIdDPU可以大幅提高CPU的工作负载性能.通过将工作负载卸我到DPU,客户可以加速网络和安全服务,并节省CPU周期,同时保持性能,满足现代分布式工作负载的吞吐量和延迟要求.这一组合握高了性能与效率、简化了运营并增强了数据中心、边缘、云和混合环境的基础设施安全.如今,NV1.D1.A还启动了NVIDIA1.aunchPad计划,这是一项动手实验室计划,可以为A1.数据科学等领域的端到端工作流提供实时软硬件权限。企业可在N
7、VIDIA1.aunchPad申请试用,可以亲自动手操作,看看VSphere8如何在NVIDIABIueFieIdDPU上运行,能缪带来什么样的体脸?有兴趣的可以点击“阅读原文链接访问。I探索更多DPU应用场察黑客松竞赛继续举办如果光有硬件,没有软件,那么DPU就失去了灵魂.为此,在2021年GTC春季大会上,NVIDIA发布了最早的DOCA1.0软件栈,如今已经更新到1.4版本.DOCA主要的目的是为开发者打造一个全面的、开放的开发平台,支持广大开发者可以在NVID1.ABIueFieIdDPU上进行简单、灵活的软件开发,让开发者可以快速地创建NVIDIABIueFieIdDPU加速的、高性
8、能的应用程序和服务,如深度数据包检测和负载均衡等等.随着每代DPU的演进,原先使用DOCA开发的应用程序都可以完全向后兼容,目DPU路线图上的后续产品依然保证完全向前兼容.为了鼓励更多开发者参与到DPU相关动手实践开发技能,激发学习兴趣与创新能力,在今年4月份,NVIDIA成功举办了第一届DPU中国虚拟黑客松(Hackathon)竞赛,当时有69支队伍注册报名参赛,在赛前举办的训练营吸引了2500多人在线观看,取得了非常不错的效果.Nvidiadpu中国黑客松鼠大的价值就是让开发者有机会深入了解NVIDIAB1.ueFie1.dDPU和NVIDIADOCA软件框架,井构建创新的加速应用程存,实
9、现NVIDIABIueFieIdDPU在人工智能、网络、存储和安全方面的独特功能,驱动NVIDIABIueFieIdDPU在各行业应用场景中的广泛应用为此,NVIDIA将于2022年10月22日至23日发起并主办2022秋季DPU中国虚拟黑客松竞赛.据NVIDIA网络市场总监孟庆介绍:与上次竞赛的一个不同是本次竞赛将聚焦一个题目。2022秋季NVIDIADPU中国黑客松以RDMA技术为核心题目,基于InfiniBand网络来实现对存储和人工智能应用的加速,同时将这种低延迟、商带宽的IO能力聚焦到一些行业应用场景中,比如金融的高频交易等,这是秋季大赛的命题.开发者可以在经验丰富的DPU及DOCA
10、导师的指导下,围绕”使用NVIDIABIueFieIdDPU和NVIDIADOCA实现RDMA加速的存储与AI解决方案的竞赛题目进行开发,展示DPU强大的计算加速能力,以及完整的片上数据中心基础设施的可编程性及卓越的低延时网络性能.和上一届的安排一样,在竞赛正式举办前,NVIDIA还将为开发者带来DPU中国黑客松训练营,帮助开发者熟悉DOCA软件开发套件和应用实例。训练营将涵盖对软件定义、硬件加速的数据中心基础设施解决方案的介绍,同时还将分享前沿的DPU技术应用前景及最新的基于DOCA软件开发框架的开发实战知识,并对参加DPU中国黑客松竞赛的团队进行指导.此次比赛的评委会有5位中国评委,从基础
11、架构、软件开发、行业应用角度来评估这些开发团队所做的项目和呈现的结果。整个结果最后会提交给2位国际评委,他们会从训练管参与度、项目完成度、项目创新价值及题目匹配度等五个方面对项目进行评分,最后是现场演示的效果。2022秋季NVIDIADPU中国黑客松竞赛I结语未来,NV1.D1.A将继续为DOCA中国开发者提供在线实践的DoCA开发环境,构建和拓展DPU和DOCA生态体系。借助DOCA软件框架,开发者能够加快应用程序和服务的上市时间,井基于NVIDIABIueFieIdDPU眼旁场景发挥关健的作用,释放出DPU的巨大潜力.相信,通过NVIDIA的努力,可以有效推动DPU在全球数据中心的发展,引领向高级混合云数据中心架构的转变.通过与VMware.戴尔这样的厂商合作,可以为数据中心带来颠覆性硬件功能。同时借助开发者的人才培养与能力提升,使基于NVIDIABIueFieIdDPU和DOCA软件开发套件的解决方案具有更出色的性能优势和更短的上市时间,为客户和合作伙伴创造更大的价值.