新闻中心/行业资讯

AI高性能计算必选项:GPU云服务器为深度学习环境赋能

很多人工智能企业需要部署深度学习平台主来进行开发设计,支持 TensorFlow、PyTorch、Caffe、Caffe-MPI 等深度学习框架,支持 python 与 R 语言的深度学习训练环境是其生产刚需,高性能云计算资源需要从模型开发、训练到部署的全流程进行技术支撑,实现统一管理、调度及监控,提高资源利用率。

blueprints-1837238_1920.jpg

GPU 云服务器能够针对企业各应用场景,提供各种预置算法,便于用户快速构建模型;“高效”方面,凭借高性能的 AI 服务器为依托,高密度 GPU 服务器助力模型训练与预测效率更高效。从建模到部署的全流程管理,高性能计算模块可以降低模型训练成本,用户也可以采取按需付费或者预付费的形式灵活选择使用,真正实现“低成本”。

深度学习平台能够应用在各个行业,帮助企业解决业务痛点。在制造业,人工智能将优先为产品服务、生产模式以及运营模式带来高效能。生产车间通过采用图像识别进行产品质量检测、安全生产监督,在节约人力成本的同时,还能提高良品率,加强企业安全保障。相关数据显示,对于单个中小型工厂,通过应用深度学习平台后,良品率可以提升 1 个百分点,每年能够降低成本数千万。

GPU云服务器和 GPU 云物理主机,更能够提供丰富的配置选型,满足用户不同的业务需求。GPU 云服务产品支持在线购买、自动配置、主机生命周期管理等功能。其中 GPU 云物理主机基于 AI 计算服务器,搭载 16 片 V100 Tensor Core GPUs,使用 NVSwitch 技术互联,峰值计算能力达到 2 PetaFLOPS(每秒 2 千万亿次),可以满足用户的极致性能需求。GPU 云服务产品全面满足用户对资源、性能、安全等各方面需求,全面助力人工智能训练和推理、科学计算、图形可视化、虚拟桌面基础架构(VDI)等方向的升级发展。

hand-2722098_1920.jpg

降低批量部署 GPU 实例的成本,可以轻松实现快速弹性伸缩以及提高运维效率。降低批量部署成本在诸多图形计算和 AI 推理计算的场景中,用户通常并不要求单 GPU 实例的计算性能十分强大,而是更加关注业务在批量部署中的成本。小粒度的虚拟化 GPU 实例则更加合适这些场景,很好的平衡用户业务在批量部署中的成本需求。实现快速弹性伸缩拥有了小粒度的虚拟化 GPU 实例,用户不必再为了匹配较强的物理 GPU 资源而将服务部署成为复杂的胖服务节点,而是可以基于容器方式将有 GPU 计算需求的服务都解耦部署在不同的虚拟化 GPU 实例节点上。这样部署的瘦服务节点更加有利于快速弹性伸缩,在业务的任何时刻都可以应对自如,提高业务运维效率。提高运维效率使用小颗粒的虚拟化 GPU 实例进行瘦服务节点部署,使得服务环境配置和服务接口变得简单,使用不同的镜像即可部署大规模的 AI 应用而无需部署复杂的胖节点,提供运维效率,降低时间风险和成本。