内容字号:默认大号超大号

段落设置:取消段首缩进段首缩进

字体设置:切换到微软雅黑切换到宋体

业界资讯 软件之家
Win10之家 WP之家
iPhone之家 iPad之家
安卓之家 数码之家
评测中心 智能设备
精准搜索请尝试:精确搜索

谷歌开放了AlphaGo背后的“最强芯片”,GPU遇到最强劲对手

2018-2-13 14:56:24来源:PingWest作者:王飞责编:飞龙评论:

开放Cloud TPU,Google在人工智能的民主化上又进了一步,Google Brain团队负责人、Google Research Group资深院士,Google AI项目的“精神领袖”Jeff Dean刚刚在Twitter上连发10条博文,激动地宣布了Google云TPU机器学习加速器测试版已向外部用户开放,价格大约是每小时6.5美元,目前数量有限。

Jeff Dean提到,Google已为那些想访问高速加速器来训练机器学习模型的人们,推出了Cloud TPU的beta版。详细细节可参见博客。

TPU发布于2016年5月,全名是张量处理器(Tensor Processing Unit,TPU),可以简单的理解为是一款为机器学习特别定制的AI芯片,与Google诸多AI技术相匹配。

自从Google TPU推出,它已经逐渐进入到Google旗下的诸多AI服务上,根据Jeff Dean此前在东京一次研讨会上介绍的信息,Google TPU已经存在于图像搜索中、Google旗下的一软应用中——Google Photo、Google Translate等。

就连DeepMind AlphaGo击败围棋大师李世乭,Google TPU也是重要的核心部件:

因为CPU,GPU本身诞生的时间就更早,Google TPU是后来者了。根据知乎一位用户的说法,GPU有多个流处理单元,对重复的浮点计算有高度的并行,因此对于AI这种编程框架,尤其是对图形图像的计算要快很多;而Google的TPU则是专门针对TensorFlow的框架做的体系结构,在做AI计算方面,它可以排除GPU里面的其他部分,专门做AI需要的处理部件,所以TPU应该是针对AI计算最有效率的运算单元。

所以,从最开始使用CPU跑AI,到用NVIDIA GPU跑AI,再到如今专有的TPU AI芯片跑AI,就是专用场景优化的结果。而使用Google的TPU搭配Google Tensor Flow,一定程度上就是使用Google进行机器学习开发的最有效的利器。

为了让更多的人可以避免花费昂贵的硬件价格,以及复杂的入门条件,Google相继在软件上开源AutoML框架以及在计算力上开放这次的Google云TPU计划,目的都是为了让更多的人更好的利用到最新的AI技术。

Google在介绍页面提到——Cloud TPU是Google设计的一种硬件加速器,旨在优化以加速和扩大使用TensorFlow编程的机器学习工作负载。

Cloud TPU使用四个定制化ASIC构建,单个Cloud TPU的计算能力达到180万亿次浮点运算,具备64 GB的高带宽内存。这些板卡可单独使用也可通过超快的专门网络联合使用以构建数千万亿次级别的机器学习超级计算机,我们称之为“TPU pod”。今年稍后,我们将在GCP上提供更大型的超级计算机。

“我们设计Cloud TPU的目的是为TensorFlow工作负载提供差异化的性能,使ML工程师和研究者实现更快迭代。”

比如:不到一天的时间,你就可以在ImageNet上把ResNet-50模型训练到75%的精度,成本不到200美元

在人工智能研究上,大公司往往通过自研自用的方式降低研发成本,而小公司可能会直接选用更灵活的GPU技术开发人工智能。此前Google TPU仅仅架设在自家的应用服务上,一定程度上,通过这种规模化的应用达到了自产自销的作用。

为了释放Google TPU的计算能力以及让更多的人可以利用先进的TPU进行机器学习研究。如今,Google更简便的Cloud TPU计划在一定程度上进入了更小公司的视野中,侧面在制约使用其他硬件技术,诸如购买GPU开发人工智能技术的发展,这也代表了Google在人工智能服务和云服务上展现的不同的组合战略思维。

Jeff Dean在Twitter上各种安利,比如——

通过Google Cloud VM,TensorFlow编程模型,它可以提供180 tflops的计算能力;

很多研究员和工程师都遇到机器学习计算受限问题,我们认为Cloud TPU将成为一个极好的解决方案。

拥有早期访问权限的用户看起来很开心。投资公司Two Sigma的CTO Alfred Spector说,我们发现,将TensorFlow工作负载转移到TPU上,极大降低了编程新模型的复杂性,并且缩短了训练时间。

共享出行公司Lyft软件总监Anantha Kancherla说,自从使用谷歌Cloud TPU,我们被它的速度惊呆了。以前需要花几天的事情,现在几小时就能完成。

除此外,Google Cloud TPU在官方介绍网页提到了各种技术支持项目,比如“传统上,编写超级计算机的程序需要专业度。而对于Cloud TPU而言,你可以使用高级TensorFlow API进行编程,我们开源了一系列参考高性能Cloud TPU模型实现,帮助大家立刻上手。”

“之后,Google还会继续开源其他模型。喜爱冒险的机器学习专家可以使用我们提供的文档和工具利用Cloud TPU自己优化其他TensorFlow模型。”

目前,Cloud TPU最初在美国相关区域提供,价格是每小时6.5美元。Jeff Dean还提到,让很多外部的用户能够利用到我们的Cloud TPU,是很多团队共同努力的结果,包括Google云、数据中心、平台小组、谷歌大脑、XLA团队,和许多其他同事。

相关文章

关键词:AlphaGo谷歌

IT之家,软媒旗下科技门户网站 - 爱科技,爱这里。

Copyright (C) RuanMei.com, All Rights Reserved.

软媒公司 版权所有 鲁ICP备11016544号-10