ODCC 服务器工作组、阿里巴巴异构计算专家胡波:AI时代下的异构计算

2017/8/23 10:44:27 来源:DTDATA 作者: 分类:会议活动

近几年来关于AI的应用非常广泛,遍布在各个领域,从早期的键盘、鼠标到触屏,到如今可以通过语音识别等技术实现跟机器人自然交互,或者说我们正处在一个AI的时代。



人工智能的研究由来已久,早期时候更多是依靠专家,根据他们自己的经验来告诉机器,机器在定义好的规则里做一些搜索。这个是依赖专家的经验。2006年以后,随着数据量和硬件计算能力的大幅度提升,人们开始尝试直接将数据交给计算机,让计算机自己在里面做搜索。算法是核心,硬件和数据是基础。


深度学习作为人工智能的核心技术,通过模仿人类大脑的神经机制来分析和解释数据,例如图像、声音、文本。但是人的大脑本身并没有成熟的规则,这一切是通过神经元触发实现的。DNN、CNN、RNN是目前常用的几种神经网络算法分类,TensorFlow、Caffe是几种常用的深度学习框架。


神经网络包含输入层、输出层和隐藏层,每层都包含若干个神经元,神经元之间通过权重参数进行计算,如同形成了一个巨大的神经网络。用一个简单的例子说明一下深度学习训练和预测过程,这是一个图像识别,我们的目标是构建一个神经网络的模型,来实现对图片信息的准确识别。预测是我们最终目的,为了实现最终目的,我们需要数据,将数据做上标签,经过神经网络的前向计算,产生类别,将这个类别与标签的类别做比较,将结构反推给神经网络,如此反复。


下面聊一下AI芯片。大家知道非常著名的摩尔定律,每隔18个月相同成本下,芯片的晶体管数量会翻一番,相应的计算性能也将提升1倍。随着晶体管的体积逐渐接近物理极限,或许在将来摩尔定律会面临失效。在AI领域随着数据量和计算量暴增,我们对计算性能有了更高的追求,于是大家开始寻找计算之外的,比如GPU、FPGA、AISC。GPU没有那么多的控制器件,取而代之的是大量的计算核心,GPU有了远超CPU的大规模数据运算能力。FPGA和CPU、GPU不同,功耗也比GPU要低,ASIC性能提升是以牺牲通用性为代价。有关异构平台广泛存在,大到数据中心,小到手机、平板、可穿戴设备。用CPU+来描述异构平台,CPU+GPU、CPU+FPGA、CPU+TPU等。


最后说一下计算平台的选择,从现阶段看,受益于各个框架对GPU的良好支持,我们对GPU的需求也从最初的单机单卡发展到单机多卡到现在的多机多卡。Inference端会选择CPU+GPU或者CPU+FPGA/ASIC,FPGA同时拥有流水线并行和数据并行,ASIC兼具高吞吐量、低延迟、低功耗的特性。


就分享这么多,谢谢大家。

相关资讯

    暂无相关的资讯...

共有访客发表了评论 网友评论

验证码: 看不清楚?