法安网

法安网内容检索

当前位置:首页 > 企业新闻 > 名企动态 >

百度智能云领跑云原生AI能力

时间:2022-07-20 18:00:27   来源:百度智能云

[法安导读]  近年来,AI模型愈发复杂,数据量不断增大,千亿级甚至万亿级参数的超大规模模型的出现,对AI工程化能力以及成本控制能力提出了更多的挑战。

  近年来,AI模型愈发复杂,数据量不断增大,千亿级甚至万亿级参数的超大规模模型的出现,对AI工程化能力以及成本控制能力提出了更多的挑战。云原生和AI的组合成了大家的首要选择。据Gartner预测,到2023年70%的AI应用会基于容器和Serverless技术开发。实际生产中,越来越多的AI业务比如自动驾驶、NLP等也正在转向容器化部署。如何充分地利用以容器技术为代表的云原生的技术优势,降低AI工程化建设复杂度、降低学习成本、提升资源利用率,进而推进AI应用落地、加速产业智能化升级,是摆在众多企业面前的一道难题。

  近日,IDC发布了《云原生AI-加速AI工程化落地》的报告,报告中指出云原生AI能够有效加速AI工程化落地,并对云原生AI的能力划分了三个等级,通过这些能力划分,能够帮助企业更好结合自己的实际业务需求选择合适的云原生AI能力,具体而言:

  初级:通过GPUPlugin、AIJobCRD等使得K8S能够对接纳管异构资源和AI作业。

  中级:能实现异构资源调度、GPU共享和隔离、作业调度、AI专属镜像,算子加速等能力,提升资源利用率,加速模型开发效率。

  高级:拥有大规模集群管理经验及超大模型训练的实践能力,可应对复杂场景的生产级实践,全面加速大模型落地。

  也就是说,初级能力使得云原生AI平台具备支持AI应用的能力;中级能力使得云原生AI平台在技术上获得较好的效能;而高级能力使得云原生AI平台在具体AI业务中高效稳定落地。

  报告中强调,云原生AI不是简单的云原生+AI,而是需要技术配套和长期工程实践,才能真正满足AI业务场景。这是从技术到落地的关键,涉及到多场景长时间的实践和技术积累。

  

  百度智能云的云原生AI解决方案最近升级发布了2.0版本。

  2.0版本融合了百度在AI大模型落地以及资源利用率提升方面的深厚经验。在跨节点架构感知、效率提升、资源弹性伸缩等多方面的能力显著提升,已经达到了IDC云原生AI能力等级划分的高级能力标准,能够支持数千卡分布式训练,将最大化地帮助企业实现AI应用的快速交付与落地。

  百度智能云的云原生AI2.0方案,针对超大模型的预训练提供了以下特色能力:

  网络:全IB网络,盒式组网最大规模,单机转发延迟200ns,千卡通信近线性扩展。

  通信库:自研的异构集合通信库ECCL。支持各类异构芯片,比如不同代的GPU,昆仑芯等。支持拓扑探测、拓扑感知、通信算法的高性能实现。

  调度:跨节点架构感知高性能调度,支持通过慢节点感知发现分布式训练节点的性能瓶颈。

  可观测:自研面向模型并行的多机调优profile工具,能够发现任务/数据分配不均等问题,经过优化的最终端到端吞吐可提升1倍以上。

  不仅仅是超大模型预训练场景中沉淀出了深厚的AI工程能力,百度智能云的云原生AI2.0还对资源弹性、资源利用率、训练推理效率、易用性等通用能力做了全面升级。比如支持用户态、内核态的“双引擎GPU容器虚拟化方案”,可满足各类AI应用场景;推出了AI加速套件AIAccelerateKit(简称AIAK),用来加速Pytorch、TensorFlow等深度学习框架的AI应用,可使得经典模型的分布式训练加速提升1倍,推理时延降低一半。

  目前,百度智能云的云原生AI解决方案已经在多个场景落地:

  案例一:YY

  语音社交产品YY语音的AI业务主要支撑手游以及PC端的媒体智能化业务场景,例如,主播以及连麦相关人物的美颜,语音和图像的审核以及命名昵称等文本的审核,短视频和直播场景的视频理解和识别。

  YY希望建设一个用来支撑机器学习的训练平台,能够在单机多卡以及多机多卡的训练场景中,提升GPU资源池的利用率。比如在管理大规模的GPU计算资源时,避免独占整张GPU卡等。

  百度智能云团队利用GPUdeviceplugin实现多Pod共享单张GPU卡时进行显存和算力级别的隔离,解决AI训练等场景中独占整张卡造成资源浪费的情况,提升了整体GPU资源的利用率,成本降低30%左右。同时内置Tensorflow、Pytorch等多种分布式训练框架,支持一键安装,极大地降低分布式作业部署难度。

  案例二:某自动驾驶客户

  自动驾驶的感知,决策规划等业务场景,有海量的图像与3D点云数据,需要数据并行的分布式训练。同时,不同的算法工程师有自己的框架(Pytorch、TensorFlow等)使用偏好,需要充分考虑满足。而在开发机场景,GPU间歇使用,存在平均利用率不足,导致资源浪费的问题。

  百度智能云提供的云原生AI方案支持GPU架构感知、AI框架作业编排,提供TensorFlow、Pytorch等多种深度学习框架的operator,降低了分布式训练门槛,通过支持RDMA网络适配,自研通信库加速,感知调度等全面加速多级多卡训练效率。小模型和开发机训练场景可使用GPU资源共享提升单GPU的部署密度,提升资源利用率,为仿真业务提供优先级调度,可高优验证重要仿真场景。最终提升GPU资源利用率50%以上,极大地减少自建基础设施维护成本。

  责任编辑:晓莉

声明:

本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。

征稿启事

  • 投稿信箱:195024562@qq.com

品牌推荐更多>>