Google 说 TPU 比 GPU 更厉害,Nvidia 便亮出 Tesla V100 予以颜色

Google 说 TPU 比 GPU 更厉害,Nvidia 便亮出 Tesla V100 予以颜色

上个月 Google 公布了关于 TPU 细节的论文,称“TPU 处理速度比当前 GPU 和CPU 要快 15~30 倍”,引发科技圈热议。Nvidia CEO 黄仁勋更亲自撰文回击,并贴出 Tesla P40 GPU 与 TPU 的性能对比图,大有针锋相对之势。而在 10 日 GTC 大会上,Nvidia 又发表新一代 GPU Tesla V100。这场 ASIC 与 GPU 之争愈发好看了!

人工智慧和机器学习对 Google 的重要性已经不言而喻,为了在人工智慧时代抢占先机,这位科技巨人已经开始研发和制造自己的晶片。2016 年年度开发者大会上,Google 对外宣布了针对其特殊 AI 演算法优化的 TPU 晶片。据了解,如今已有数十种类似的客制化 AI 晶片陆续问世。这让近年来在深度学习领域有支配性地位的晶片供应商 Nvidia 备感压力。

为了反击,Nvidia 也开始加强其新推的 GPU 晶片的客制化和专业性。

在周三举行的 GTC 大会上,Nvidia 发表了基于其下一代图形架构 Volta,针对服务器市场的 GPU 新品 Tesla V100。该晶片拥有超过 210 亿个晶体管和 5,120 个运算核心。但是对 AI 来说,最重要的是,Tesla V100 配备了 640 个 Tensor 核心,是专为运行深入学习网络中使用的数学运算设计的。据官方介绍,Tensor 内核为 Tesla V100 提供了高达 120 teraflops、惊人的深度学习能力。

相比前代 Pascal 架构,新晶片将深度学习训练速度提升了 12 倍,深度学习推理速度也提升了 6 倍。新架构在运行深度学习应用方面的性能,相当于 100 个官方处理器(如 Intel 的官方处理器)。

为了使深度学习应用在其硬件上更加高效的执行,Nvidia 提供了很多软件工具。它发表了一款针对深度学习框架 TensorFlow 和 Caffe 的编译器──TensorRT,用于改进推理性能。Nvidia 表示,Tesla V100 的推理性能要比英特尔的 Skylake CPU 架构快 15~25 倍。

虽然 Nvidia 正努力让其晶片更加适合深度学习,但竞争对手却可能会指出,Nvidia 的最大缺陷在于,其 GPU 往往必须支援图形生成功能。GPU 之所以设计出来,就是用于图形生成。由于必须支援图形生成功能,GPU 晶片增加了大量体积,这就意味着它在一定程度上要比专用晶片更低效。

Google 在最近的一篇部落格文章中声称,其 TPU 在推理性能上要比现代 GPU 和 CPU 快 15~30 倍,同时功耗还要低 30~80 倍(Nvidia 对此反驳,Google 拿 TPU 和旧的 GPU 比较)。事实上,这种对比并不完全公平。GPU 是通用型晶片,可执行绘图运算工作,用途多元。TPU 则属于 ASIC,也就是专为特定用途设计的特殊规格逻辑 IC,由于只执行单一工作,速度更快也在情理之中。TPU 和 GPU 之间除了性能较量,更多是 ASIC 和通用型晶片这两种设计思路间的博弈。

除了 Nvidia 和 Google,另一大晶片巨擘 Intel 也加入这场棋局。不久前,Intel 以超过 4 亿美元的价格收购 AI 晶片新创 Nervana,并声称将在 2020 年之前将深度学习训练速度提升 100 倍。

Nvidia 表示,Tesla V100 是深度学习领域更专业化,并能与这些客制化晶片竞争的有力证据。Nvidia GPU 工程部高级副总裁 Jonah Alben 在谈到晶片竞赛时说:“当你考虑构成一款用于深度学习训练的优秀晶片所有要素时,你会发现频宽、输入/输出和数学运算能力都很重要。所有这些我们都是专家。只要我们用相同的笔刷作画,就知道到底谁更强。”

雷锋网认为,尽管 Google 在客制化 AI 晶片领域走在最前方,但 Nvidia 仍在未来很多年保持竞争力。Gartner 分析师马克‧洪(Mark Hung)说,“目前为止,没有任何一款 AI 晶片达到大规模出货。尽管对 Nvidia 来说,潜在的危险始终存在,但在这些公司大规模出货 AI 晶片前,并不会对 Nvidia 造成真正的威胁。”

这些即将到来的 AI 晶片与 Nvidia 之间的明争暗斗表明了一点,深度学习计算对更强计算能力的需求日益旺盛。几年前 GPU 迎来大爆发,正是因为它将深度学习网络的训练时间从几个月缩短到几天。早在 1950 年代就已经诞生的深度学习,由于有强大的计算能力做为后盾,此刻终于潜能爆发。但是随着越来越多企业试图将深度学习融入产品和服务,对更快的晶片需求将没有止境。

Alben 说:“以我所见,人类需要无限量的深度计算能力。越接近无限越好。”

(本文由 雷锋网 授权转载,首图来源:NVIDIA)

延伸阅读:

  • nVidia 新 GPU 架构 Volta 发表,为人工智慧注入一针强心剂
  • 【GTC 2017】推出“核武器”Volta 架构,NVIDIA 自动驾驶路线图更清晰
  • Nvidia 黄仁勋撰文反击 Google,P40 比 TPU 速度快 2 倍、频宽是 10 倍

AI人工智慧新知管道

如何深入了解 AI 趋势?快速收到第一手 A.I. 学习资讯与相关新闻?欢迎加入脸书社团“AI人工智慧基地”

   特别声明    本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。