内容字号:默认大号超大号

段落设置:取消段首缩进段首缩进

字体设置:切换到微软雅黑切换到宋体

业界资讯 软件之家
Win10之家 WP之家
iPhone之家 iPad之家
安卓之家 数码之家
评测中心 智能设备
精准搜索请尝试:精确搜索

忘掉英特尔酷睿和高通骁龙:人工智能时代你该认识这些芯片

2017-8-28 14:23:03来源:PingWest作者:光谱责编:守一 评论:

本文授权转载自PingWest品玩,作者光谱,原文链接http://www.pingwest.com/ai-chips-101/

如果你今天问身边懂科技的朋友“未来是什么时代?”他八成会告诉你是人工智能的时代。

已经开发了数十年,但在近几年得到迅猛发展的深度学习神经网络技术,正在驱动一次人工智能革命。而革命的对象正是微信、Facebook等主流科技产品背后的那些科技公司。

新的革命需要新的武器。酷睿和骁龙们不能满足需求,人工智能计算需要新的芯片。当我们谈起处理器,我们过去谈的是酷睿、GTX和骁龙——现在是时候了解一些人工智能时代的芯片了。通过本文,我将用比较通俗易懂的语言为你介绍几款主流的深度学习加速处理器。

GPU,也就是我们常说的显卡,得益于其硬件架构对并行计算支持比较好,最一开始大家都用GPU来搞深度学习。一个很经典的例子就是斯坦福教授吴恩达跑到Google,带队用大量GPU做出了一个专门跑神经网络的大规模计算集群,也就是后来的Google大脑。

但在深度学习专家眼中,GPU仍不是最优的答案。它的性能很好,但耗电惊人。而且另一个搞笑的原因是,由于挖比特币和以太坊需要,显卡到处都缺货,深度学习研究者经常买不到或者买不起。神啊,赐他们一台不挖矿,只跑深度学习的处理器可好?

即将前往麻省理工学院(MIT)担任助理教授的深度学习专家韩松告诉PingWest品玩,深度学习的计算模式和常规计算有很大不同,高度稳定且不需要很高精确性。“1乘以1可以不等于一”,这是其他计算不能允许的。

另一方面,深度学习专门硬件的特点是计算高效,缺点是很贵,需要有大量需求开发和使用才比较经济,韩松指出,现在深度学习应用的已经非常广,给人工智能开发专门的计算硬件是值得的。

Facebook人工智能研究院院长燕乐存(Yann LeCun),20多年前在贝尔实验室就开发过一款名叫ANNA的人工智能专门芯片。那时他还在做光学字符识别(OCR)研究,而ANNA识别字符的速度达到了惊人的1000个/秒,比同时代其他处理器都快得多。你也可以说,ANNA是最早的“人工智能芯片”,或者更准确来说,深度学习加速处理器之一。

现在?人工智能芯片多到一双手已经数不过来了。几乎每一家过去的“软件”或者“服务”公司,那些跟硬件一直没太大关系的大型科技公司,比如Google、亚马逊、微软,都已经开始使用,或者正在研发自己的深度学习加速处理器。

Google的人工智能驱动着每一次搜索的结果展现,Facebook用人工智能来优化用户的时间线,在用数千种语言发布的内容之间互译,腾讯也在西雅图设立了实验室进行人工智能基础研究,尝试将其用在微信等用户过亿的产品中。

而这种变化对芯片行业的巨头们带来了新的冲击,他们有的发现自己已经过时了,有的正在极速追赶Google,通过收购的方式拓展自己的产品线,在人工智能芯片市场还未开始论资排辈之前,就先占上一把交椅。

Google:TPU是什么:Tensor Processing Unit(张量处理单元),是Google开发的专门目的集成电路(ASIC)。

性能:TPU已经开发出了第二代,每颗带宽600GB/s,算力达到45 TFLOPS (8位整数)。

它的模组化能力出众,Google的用法是将4颗TPU放在一块电路板上,组成一个180 TFLOPS的模组“Cloud TPU”,用它们来替换深度学习云机房里的CPU和GPU,单机最多可以拼接256块Cloud TPU,算力达到惊人的11.5 PFLOPS(下图)。

用途:前面提到,Google过去用显卡组建大规模计算集群,能耗较高,训练速度较慢,该公司需要一个专门的计算架构,去更高效地训练和使用深度神经网络。所以Google开发了TPU。

TPU于面向大规模低精度的深度学习计算而设计和优化,适合神经网络的训练和推理(在具体用途和场景中运行神经网络)。现在,TPU不仅Google员工的内部工作系统,还支持着搜索、照片、翻译、街景等Google旗下产品。就连击败了李世乭、柯洁的围棋人工智能程序AlphaGo,也运行在TPU上。

微软:HPU和“脑波计划”DPU是什么:HPU是微软在混合现实头显HoloLens里自行设计,并由合作伙伴生产的“协处理器”。具体是用一块FPGA(现场可编程门阵列),一种非常灵活的半定制化电路实现的。

“脑波计划”(Project Brainwave)则是微软前不久刚刚宣布的人工智能硬件加速计划,包括一个大量芯片组成的分布式计算架构,和一套直接运行在芯片上的“操作系统”。脑波计划的硬件核心是DPU (DNN Processing Unit),也即深度神经网络处理单元——本质上还是FPGA。

性能:HoloLens一代内置的HPU,能够在10W功耗下提供1TFLOPS算力。微软上个月刚刚宣布了新一代HPU,具体细节未知,但可以预料到的是功耗会进一步降低,性能会继续提高。

至于“脑波计划”,它的信息十分有限,但看起来支持多种FPGA,目前微软展示的技术用的是英特尔的14纳米制程FPGA。这种芯片单颗计算力约10 TFLOPS(单精度),功效为80GFLOPS/W。

用途:HoloLens一代已经内置了一块英特尔的CPU和集成GPU,为什么它还需要HPU?其实,作为混合现实或者增强现实头显,HoloLens需要确保佩戴者的舒适,降低运动和姿态变化和画面变化的延时,所以它需要结合传感器数据进行海量的计算。但CPU和GPU主要跑操作系统(Windows 10)和处理图像,没有多余的算力给传感器。如果让它们来做这部分的计算,不但延时高用户会眩晕,也更费电,还抢走了操作系统的算力,提高了蓝屏危险……

HPU就是用来做这部分工作的。而在HoloLens二代里,微软打算让HPU承担更复杂的任务:本地运行深度神经网络。根据有限的信息,HPU二代可以高功效运行类型非常丰富的深度神经网络,为HoloLens加入更多人工智能功能(比如本地图像识别、语音处理等)开了大门。

至于“脑波计划”,从同样有限的信息来看,它应该是微软为扩展自己的人工智能和云计算生态,和Google TPU抗衡而推出的。它的用途和TPU应该也不会有太大差异,无外乎对微软自己的产品,以及其团队的科研提供计算支持。微软的云计算服务一直在使用FPGA,所以向“脑波计划”迁移应该比较轻松。它支持微软自己的CNTK深度学习框架,同时也支持竞争对手Google的TensorFlow框架。

英伟达:Tesla深度学习处理器是什么:英伟达是显卡界的王者,但你可能不知道,现在的显卡功能比玩游戏多多了(别提挖矿!)GeForce是玩游戏的,Titan系列则步入了GPU的范畴(可以玩游戏也可以做神经网络训练)。而Tesla GPU则是英伟达专为人工智能开发的专业级服务器端显卡。

Tesla GPU系列最新产品是V100,V的命名来自英伟达最新也最顶级的12纳米Volta微架构。

性能:V100所采用的Volta架构,是由640枚被英伟达命名为“张量核心”(Tensor Cores)组成的。你不需要明白Tensor Cores到底是什么,只需要知道它很厉害就行。V100的计算性能达到15 TFLOPS(单精度)、120TFLOPS(深度学习),堪称人工智能芯片中的核弹了。

Tensor Cores

用途:Google最一开始宣称TPU比GPU快30倍,业界对其赞叹有加。但有个细节是,TPU第一代只能推理,不能用来训练神经网络。所以当时英伟达还可以说自己是唯一端到端(从训练到推理再到自动驾驶等实际场景)的人工智能计算方案提供者。而V100就是这个方案的硬件核心。

不过英伟达推出V100没多久,Google就开了I/O 2017大会,宣布了训练和推理都能做的TPU二代。即便如此,V100仍然是截至目前最适合神经网络科研的显卡,用通用图形处理器(GPGPU/CUDA)做深度学习这一派的绝对王者。

英特尔:FPGA、显卡、至强融核和VPU是什么:前面提到了微软在使用的现场可编程门阵列FPGA,正是由英特尔(所收购的FPGA巨头Altera,现在成为了英特尔FPGA部门)所开发的。简单来说,因为FPGA对并行计算支持好,性能高,便于重新编程,功耗比GPU、CPU低,FPGA也是人工智能芯片的一个重要门派(另一家FPGA巨头Xilinx的人工智能产品也很不错,不过篇幅有限就不赘述了)。

英特尔还收购了Nervana,组建了一个人工智能部门。这个部门的研究用的是显卡。

“至强融核”(Xeon Phi)是英特尔另一款在服务器端抗衡英伟达GPU的处理器产品。它的最新款产品并行计算好适合深度学习,它的一个最主要优势是“实惠”,不跑深度学习也可以当CPU来用(因为它本来就是CPU)。

VPU则是英特尔收购的另一家爱尔兰公司Movidius所开发的低功耗深度学习加速芯片,特色是超小尺寸和功耗超低。

用VPU制成的神经计算棒

性能:英特尔FPGA产品线较复杂,性能多样。显卡方面的信息也不多

至于Xeon Phi,计算力大约在3.5 TFLOPS左右?

VPU采用该公司自研的Myriad架构,最大的特色是能够在1W或更低功率内,实现100 GFLOPS甚至更高算力。

用途:如果英伟达一发核弹毁灭全球,那么英特尔就是通过多元化的产品线尝试在深度学习市场上分一杯羹。FPGA、Xeon Phi都是直接推向消费者的云端数据中心里的产品,而身材纤细的VPU用途更多样,安装到了大疆无人机、联想手机等产品中,也被英特尔直接做成了即插即用的深度学习计算棒,适合机器人开发等等。

Intel, Processors

其他公司

Facebook:也在开发自己的深度学习芯片,据说在和高通合作。

百度:XPU,本质是FPGA,和Xilinx合作

地平线:前百度深度学习研究院院长,也在开发人工智能定制芯片,应该是FPGA

苹果:没错,苹果也将在新款手机里加入“人工智能协处理器”,信息极为有限。

IT之家,软媒旗下科技门户网站 - 爱科技,爱这里。

Copyright (C) RuanMei.com, All Rights Reserved.

软媒公司 版权所有 鲁ICP备11016544号-10