首页 >> 物联网 >> 物联网 >> 正文
重磅 | 英特尔4亿美元收购深度学习公司,英伟达GPU遇最强挑战
新智元
作者:       2016年8月12日 14:32
英伟达 英特尔

英特尔深度学习 Nervana Systems 4亿美元 前天英特尔宣布收购深度学习初创公司 Nervana Systems,交易金额据传约为 4.08 亿美元,Nervana 由原高通神经网络研发负责人于 2014 年创建,拥有目前最快的深度学习框架,并且预计于明年推出深度学习专用芯片,号称速度比 GPU 快10倍。

001.webp.jpg

本周二,英特尔宣布收购深度学习初创企业 Nervana Systems,标志着英特尔豪赌人工智能将成为企业数据中心的关键。

英特尔方面并没有公布此次收购的具体金额,但据消息人士透露应该在 4.08 亿美元左右(实际上,在10号上午外媒接到初次爆料时,金额为“至少 3.5 亿美元”,后来再次证实,成交价格应在 4 亿美元以上)。考虑到 Nervana Systems 只有 48 名员工,这一价格的确不菲。

英特尔副总裁 Jason Waxman 在接受 Recode 采访时表示,向人工智能转型可能会有损英特尔向云计算进军的努力。但 Waxman 也强调了机器学习的重要性,他表示在英特尔从一个用户控制大量连网设备到世界向一个数十亿件设备都相互连并相互对话的世界转型之际,机器学习非常重要。

Nervana Systems 一直在努力将机器学习功能全力引入到芯片之中,而不是简单地打造能够在GPU上运行的软件。

目前,Nervana 已经获得了 2500 万美元的融资,还在与美国情报界的风投部门有合作。公司 CEO 表示,本次收购并不代表 Nervana 公司在获取更多资本以维持独立方面面临障碍。“融资并不是问题,那是一个相对容易的事情。但是,通过将公司出售给英特尔,我们将能够利用到我们梦寐以求的技术。”

在数据中心业务方面,英特尔的运营也越来越为强劲。在错过了智能手机变革的市场机遇之后,英特尔开始大力投资物联网

Waxman 说,“总会有下一个浪潮。我深信这不仅是下一个浪潮,而且还将是让上一波浪潮相形见绌的浪潮。”他还表示,企业计算已经从主架构向客户服务器转型,如今又在向云计算转型。

也就是说,Waxman 非常清楚,用户的注意力也开始捕捉下一波浪潮而变化。Waxman 承认,英特尔在人工智能和深度学习等业务方面仍表现不足,但目前这些业务正在改进。

Nervana 此番进行出售,也代表着这是第一家 Andy Rubin 旗下的硬件孵化器 Playground Global 的重要公司,这个硬件孵化器是 Nervana 的重要投资方。Nervana 的其他投资方还包括 Data Collective、DFJ、Lux Capital 和 Allen & Co.。

Nervana预计明年初推出深度学习专用芯片,速度比GPU快10倍

Nervana Systems 是 VentureBeat 2015 年评选出的“值得关注的 5 家深度学习初创公司”,其他 4 家分别是 Enlitic、Ersatz Labs、MetaMind、Skymind。

从 Nervana System 的Twitter,可以看出这家公司的定位:

002.webp.jpg

人工智能初创企业,拥有最快的深度学习框架 neon,提供首个结合机器智能软硬件云服务的 nervana Cloud。

Nervana 的 neon 采用 Python(部分 C++ 混编),Maxwell GPU 框架,卷积运算速度大约是 Caffe 等传统框架的两倍。Lisence 是 Apache 2.0。

003.webp.jpg

004.webp.jpg

005.webp.jpg

006.webp.jpg


从上图中可以看出,neon 单从速度上说,确实可以算“最快的深度学习框架”。

另外,Nervana Systems 也开放了它的深度学习云,使任何企业都可以建立一个可以学习的计算机模型,用户可以用它来创造智能机器人。

007.webp.jpg

至于 Nervana 的芯片,目前还没有详细的信息,大致框架如上图,基于张量的非常专用的处理器,没有其他处理器的繁复性能,非常专一。

根据 The Next Platform 报道,Rao 表示 Nervana Engine TSMC 28 纳米芯片,大约每秒 55 Tp——Maxwell Titan X 是每秒 6 Tp,Pacal 每秒 11 Tp。

此外,Nervana Engine 不做浮点运算,而是叫做“flexpoint”。Rao 表示,这是由于团队利用了神经网络的特点,不需要进行完整的浮点运算。简单说,这是一个基于张量的架构,不适合进行普通的乘法,但却能配合普通浮点运算芯片,让电路搭建得非常密集。

008.webp.jpg

Nervana 芯片的真正技术核心在于电路连接,当然这方面公司不愿透露。Rao 本人为 Sun 设计过 6 块芯片,这也是他和 Nervana 公司其他资深技术人员的实力所在。

Rao 将电路连接描述为模块化架构,从编程的角度而言,在两块芯片间对话和在同一个芯片里的不同单元对话是一样的。这个架构本身并不具有那么大的颠覆性,但Rao 表示这个架构能让团队搭建跟GPU完全不一样的软件堆栈。Rao 表示,“GPU在芯片上和芯片外的交流是完全不一样的,你必须记住存储接口,根据存储层级将东西,移来移去,这就使步骤变得复杂,增加延时,无法实现模块并行。”

Nervana 架构也是完全 non-coherent 的。没有缓存,所有的东西都由软件管理。从物理角度看,形成了告诉并联网络。传递信息时,能从一块芯片的SRAM直接到另一块芯片的SRAM。

大家一直使用Pascal 加速深度学习,因此 Rao 表示在数字方面他们自有打算。“我们制造了多芯片解决方案,我们的芯片速度更快,芯片之间 serial link 也更多。我们还设计了软件,让芯片运行起来更像一个大的一体的芯片。”

总之,Nervana 芯片的设计原则为以下三点:

性价比高于GPU;
Nervana 芯片的性能表现将让已经使用CUDA和GPU的用户转向使用 Nervana 芯片,因为后者在时间和金钱投资成本上更具有优势;
Nervana 云服务能够提供测试,也能通过云扩展服务。

目前,Nervana 已经筹资 2800 万美元。Rao 表示希望在 2016 年底之前用自己设计的专用芯片替代底层硬件。在此之前,他一方面重新设计英伟达芯片采用的固件,另一方面建造有自己的软件框架,以使深度学习应用在自云上运行更快。

难怪看到这个消息以后,百度首席科学家吴恩达要表示:英特尔这是要跟英伟达开战了!

009.webp.jpg

吴恩达在《华尔街日报》采访时表示,如今人工智能技术发展快速,比起技术,收购方更需要人才。

Nervana Systems 目前有 48 名员工,CEO Rao 也将加入英特尔。

Nervana 的早期融资领投人 Steve Jurvetson 表示,Nervana 创始人拥有独特背景,是高通神经网络项目研发负责人。“这是个一直不走寻常路的团体。” Jurvetson 也非常看好深度学习业务,并称这将是业务领域的重要变革力量。他还表示,“我认为,深度学习将是科学方法本身的巨大进步。”

010.webp.jpg

Nervana Systems 团队的部分成员。来源:venturebeat.com

英特尔为什么要收购 Nervana

今年初,Nervana CEO Naveen Rao 被人问到,要是英特尔开始注意起加速深度学习软件的硬件市场将会怎样。

“他们将势不可挡。”Rao 回答说。

现在,Rao 将成为英特尔势不可挡的关键成员。

英特尔成为世界最大的芯片制造上,只用一条策略,那就是让 x86 微软处理成为软件运行的标准。Nervana 和其他初创企业认为,深度学习需要全新的、与人脑更为类似的芯片架构,而不是传统的英特尔处理器。

根据市场调研公司 Tractica 的统计数据,深度学习硬件市场将会从不到 10 亿美元增长为 2024 年 24亿美元。

现在市场的领头羊是英伟达,靠的是 GPU。从研究人员发现 GPU 适合深度学习应用以来,英伟达就一直专注改善提升芯片性能,使其更适合用于加速深度学习应用,而这也使得近来英伟达市场表现极其勇猛。

不过,相比之下,专为深度学习设计的芯片应该比GPU 效果更好。

在今年 6 月份以前,英特尔基本上对深度学习硬件市场没有关注。前不久,这家公司宣布旗下的 Xeon Phi 处理器适合某些深度学习任务。

但是,要开发专门针对深度学习的芯片,时间上还要花好几年。

英特尔数据中心执行副总裁 Diane Bryant 表示,人工智能已经无处不在。言下之意即为英特尔等不了那么久,没有时间允许自己设计深度学习芯片。因此,收购就成了一种十分合理的选择。

Rao 表示 Nervana 将在不久后推出其设计的深度学习专用芯片 Nervana Engine,并在 2017 年初通过云服务让顾客享受到这一服务。Nervana 称,Nervana Engine 处理速度是 GPU 的 10 倍,主要原因是得益于一种全新的存储技术,能够更快地并行处理数据。

Nervana 的第一款芯片将不由英特尔制造,但接下来的将会由英特尔制造。Rao 表示英特尔领先的芯片制造工艺和一个预计今年稍后时间推出的全新高速光驱技术,将有助于 Nervana 充分发挥他们的技术潜力。

同时,考虑到英特尔雄厚的市场预算,英伟达应该得到一定压力降低价格。

根据 LinkedIn 资料,Rao 2011 年重新回学校去读完博士,从布朗大学毕业后加入高通,成为项目负责人,研发了“受生物启发的人工神经网络”——软件平台 Zeroth AI。企业利用 Zeroth AI,可以使用高通的芯片打造深度学习系统。

2014年,高通拒绝将 Rao 的研究投入实用,于是他和另外两个高通工程师一起离职,创建了 Nervana。 Rao 说:“这次我们掐时间掐得很好。一直以来,我们都在打造一件别人不怎么看好的东西。”

增加了 Nervana Engine IP 后,Xeon CPU 将会提供更快的速度。有评论人士认为,英特尔也有可能利用 Nervana Engine IP,推出几款不同的产品,比如专用于训练的可扩展硬件,或者侧重推理的集成解决方案。

但无论如何,英特尔都填补了自身在深度学习方面的一大鸿沟,也巩固了在人工智能市场的地位。不过,英特尔的对手,比如英伟达,已经在深度学习硬件市场立下了很高的标杆,考虑到以后硬件设计要以软件应用为前提,将来的硬件市场还将迎来更多改变。

深度学习芯片未来大战预测

人工智能当前迅速发展的速度,很大程度上得益于深度学习带来的提升。深度神经网络也意味着庞大的计算量,快速迭代需要提速。

去年9月,CSDN记者周建丁采访了我国神经网络芯片寒武纪的主要研发者、中国科学院计算所计算机体系结构国家重点实验室未来计算组创始人陈云霁研究员,对神经网络芯片的发展进行了探讨。

根据采访报道《陈云霁:加速芯片是神经网络芯片的最终形态》,陈云霁表示:“我认为加速芯片是神经网络芯片的最终形态。未来新的计算技术,无论是神经网络芯片,还是量子计算机,都不可能在所有的应用上做得比传统CPU好。神经网络芯片就是把智能把认知做好,但运行数据库、科学计算、Office、微信等,它不可能比现有的传统CPU做得更好。因为即便是我们的大脑本身,很多事情也是做不过CPU的。所以CPU还会是今后计算机的核心,但是它只是一个关键,大部分费时费力的任务会交到其它计算器件如GPU、神经网络芯片去做。

“神经网络芯片的优势不在于突破了冯诺依曼架构。突破不突破,只是手段问题,关键是效果:具备哪些智能能力,处理速度如何,能耗多少。

“神经网络芯片计算和存储一体化,可以规避访存墙。但是这样IO带宽会成为新的瓶颈。和CPU和其它神经网络芯片的吞吐率有可能显著制约性能。这要求我们在高速IO技术上不断提升。未来甚至可以考虑光互联。”通信世界网

相关阅读
热门文章
蓝戈沙龙