新闻中心/行业资讯

GPU应用:从计算机图形学到人工智能

 

过去的十年中,深度学习(DeepLearning,DL)在各种人工智能研究领域取得了显着的成功。深度学习的最新成功是由于大量数据的可用性增加以及GPU的出现,显着增加了用于训练计算机的数据的广度和深度,并减少了所需的时间用于训练深度学习算法。

“大数据”一词最早出现在1997年10月由Michael Cox和David Ellsworth撰写的计算机科学文献中,该文章发表在IEEE第八届可视化会议论文集中,“ 针对核心外可视化的应用程序控制的需求分页 ” 。

该论文写道:“可视化给计算机系统带来了一个有趣的挑战:数据集通常很大,这给主内存,本地磁盘甚至远程磁盘的容量增加了负担。我们称此为大数据问题 。当数据集不能容纳在主存储器(核心)中,或者甚至不能容纳在本地磁盘中时,最常见的解决方案是获取更多资源。”该术语在学术界之外也曾使用过。

虽然深度学习算法的开发及其实际应用在1980年代和1990年代稳步发展,但它们受到计算机能力不足的限制。信息爆炸(根据牛津英语词典的说法,该术语在1941年首次使用)已经变成了大型数字数据爆炸。但是,可用数据的数量只是使深度学习成功的两个催化剂之一。另一个是GPU。

到2000年代末,许多研究人员已经证明了GPU在深度学习(特别是对于人工神经网络训练)中的实用性。由新的编程语言(如NVIDIA的CUDA)支持的通用GPU已应用于各种深度学习任务。此类应用程序中最明显的是上述2012年ImageNet挑战赛的冠军。

大数据同时也促进了计算机图形学的发展。到1990年代,实时3D图形在街机,计算机和游戏机游戏中变得越来越普遍,导致对硬件加速3D图形的需求增加。Sony在1994年推出家用视频游戏机PS1时,首先将GPU一词称为 “几何处理单元”。

视频游戏渲染需要快速并行执行许多操作。图形卡具有较高的并行度和较高的内存带宽,但相对于传统CPU而言,其时钟速度较低且分支能力较低。碰巧,在人工神经网络上运行的深度学习算法需要类似的特性-并行性,高内存带宽,无分支。

在人工智能领域,搭建一套适合深度学习的环境需要高昂的成本,如何避免AI成为企业或者开发者成本的中心?运用青椒云GPU云电脑可以轻松获取强大的GPU计算能力。青椒云云电脑搭载多款高性能GPU, 支持根据自身需求灵活搭配选择, 减少空间占用和机器运维费用,大幅度缩短训练环境部署时间。