正在阅读:何止提升性能 GPU技术应用领域深度访谈!何止提升性能 GPU技术应用领域深度访谈!

2015-11-17 08:49 出处:PConline原创 作者:Wesley 责任编辑:zhangxiaomeng

  【PConline 专访】对于GPU行业以及深度学习等领域我们就不能不提到NVIDIA公司,在今年举办的高性能计算学术年会上,笔者有幸采访到了英伟达中国区的几位领导以及科大讯飞研发方面的领导及专家,他们分别是:NVIDIA中国区政府销售总监Tomas He、NVIDIA中国区企业传播高级经理Steven Jin、科大讯飞内核研发中心研发总监于振华和科大讯飞深度学习平台研发主管张致江。

  在谈到深度学习平台对于多机多卡计算支持方面的难点时,张总表示,深度学习需要了解很多参数,同时针对众多参数还要进行各类实验,整体来讲,算法或者是编写的难度都不是很大,在科大讯飞看来,多机多卡的难点,在于要很好地解决好计算一些传输的比例,数据比例的问题,这个地方如果你真的把它多机加得很大的时候,这个带宽也很难去平衡。

1

  针对上述问题,英伟达在相应的策略和服务方面也进行了很多尝试和探索,对此Tomas He指出,“语音识别是最复杂的一种深度学习的应用,基本上很多的做语音识别和自然语言处理的公司,以我了解到的,目前在做这一方面的研究,应该都用到GPU来做深度学习的平台,同时,像微软这些研究室,做语音识别都要用到GPU。语音的识别现在应用蛮广泛的,无论是客服机器人还是沟通娱乐机器人,最重要的一个特点就是说话,是语音识别,相关的创新企业基本上全部都要用到GPU来做深度学习的应用。”

  在谈到“讯飞超脑”计划时,于总表示,讯飞超脑是一个比较大的改变,公司把这块业务划分成为一步一步非常具体的目标来分别实现,比如说我们的类人答题,自动阅卷等,可能先去让它去考小学,最终考大学,最终要超过80%的人,这个可能是让一般公众比较容易理解的方式。背后的概念就是在特定领域上,做一些类似于强人工智能的模式。

  现在神经网络链接数也就10的8次方,其实跟真正的人脑差了将近6个数量级,人脑的复杂度比我们现在做的最复杂的神经网络,还要复杂六个数量级。从目前来讲,短期内,三五年之内能把这个硬件问题解决掉,那是不可能的,从技术上来讲,不一定需要做到跟人脑一样复杂,那么大规模去做这个事情,可能是针对深度学习技术,去做一些局部的突破和发展,针对特定领域的相对简单的问题,把它做透。

  在谈到具体应用NVIDIA产品之后的感受时,张总谈到,Tesla系列是更加稳定的,通过测试,单芯片K40是最强的,K80比K20高一点点,跟K20XM差不多。

  对于上述问题,来自英伟达的金总补充说道,NVIDIA对于深度学习这一块的投入,不仅仅是发布一个Tesla显卡,不管是K系列还是M系列, NVIDIA对于深度学习领域是一个全方面的培育,可以发现在这个领域,GPU扮演着很重要的角色,从今年年初的GTC可以看出来,通过召集了全球的科学家在一起,去探讨GPU未来计算的方向。今年的基本关键词就是深度学习,对此英伟达还推出了DIGITS DevBox这样一个相对来说成本不高的深度学习开发平台,对应中小企业进行潜在的研究,还有cuDNN,这样的一个库,进一步提高学习效率。

  对于硬件,特别是对于GPU来说,对于它的性能的需求,基本上永无止境的,所以Maxwell,对比Kepler架构,基本可以做到功耗在不变的前提之下,性能提升将近一倍。可以说Maxwell对于Tesla,对于GPU的计算,是一个颠覆式的影响。

  在谈到英伟达当前在软件领域的服务以及合作方面,何总表示,英伟达借助深度学习的广泛平台来完成向一个平台化的公司转型,cuDNN针对Caffee这些开源软件架构做了很多优化,让性能做得更好,这样的话能方便地让更多人去使用。NVIDIA虽然是一个做芯片的公司,但是实际上公司的软件人员是很多的,因为我们是要培养整个生态,所以我们对于CUDA整个发展(CUDA现在也是7.5的版本了)投入很多精力。

  在谈到科大讯飞未来得GPU技术和应用领域的工作重点时,于总表示,接下来公司针对优化训练平台以及针对深度学习来进行技术探索等多方面将会继续进行不断推进。此外张总表示,“真正想把平台搭好,或者想把一个效率做好,首先你需要对算法需要了解,算法上我们需要进行精心的设计,怎么样去并行,然后哪些可以并行,哪些不可以并行,然后并行需要一些什么样的计算特点,带宽是多大类似这样的东西。就是设计出来之后,这个系统是比如一个节点上面,能够容忍多大的计算量,同时这个节点上的计算量,大概是一种拓扑,然后存储怎么去弄,一些各种各样的细节东西都是需要考虑的,而不仅仅是买一台机器。”

  对于英伟达推出的NVLink这项产品和技术,笔者一直以来都具有浓厚的兴趣,一直都认为这项技术将会是未来颠覆业界的一项关键技术,对此,科大讯飞的张致江谈出了自己的看法,他谈到:“NVLink作为一个协议,NVIDIA需要维护自己的生态,PCIE目前来说,这个生态维护得还行,如果开放得不够好,可能也会限制NVIDIA计算卡性能的发挥,对于我们这样一个企业来讲,我们肯定想让这个卡的性能越来越高,所以说在这种深度学习的环境下,如果PCIE对它有限制的话,我们可能会选择NVLink这样的机器,或者用NVLink的技术去做这样一个东西。”

  对此何总补充说道:“CPU和GPU之间,无论X86平台还是用PCIE,对于深度学习来说,更多是GPU之间的通讯,所以我们的策略是以后会用NVLink直接把GPU直连,NVLink的带宽,第一代是80G,是PCIE的五倍,第二代也会做到200G,这个高速就跟GPU的计算性能打通了。这对于未来用户在应用以及计算方面的提升是具有很强推动意义的。”

  编辑的话

  其实对于GPU加速以及深度学习领域来说,随着近些年云计算和大数据的广泛应用,我们这些普通用户已经开始能够真切的感受到了GPU加速技术能够带给我们的改变和提升。对于像英伟达以及科大讯飞这样的企业来说,让GPU加速技术能够更好更充分地得到应用,对于推动整个市场来说起到了至关重要的基础作用。[返回频道首页]

 
比特币“10周年”了 你最大的感受是什么? 企业办公环境的最大杀手 文印的安全值得重视 同是原厂连供 四大喷墨厂商到底有何不同 深不可测的黑产 原来都是用这些工具搞事? 商务投影新标杆 明基无线智能旗舰E580评测

为您推荐

加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多
加载更多

服务器论坛帖子排行

最高点击 最高回复 最新
最新资讯离线随时看 聊天吐槽赢奖品