您当前的位置:中国时代科技网资讯正文

揭秘Intel在AI年代的十亿级转型

2019-12-18 23:42:23  阅读:9773+ 作者:责任编辑NO。邓安翔0215

本文看点

Intel让“硅”谷名副其实,它的处理器和其他技术为个人电脑革命提供了无限动力。然而,比起占据价值500亿美元的数据中心市场的90%份额,斯旺更希望占据3000亿美元市场的25%,这个市场包括智能相机、无人驾驶汽车和网络设备等。

物联网市场,包括用于机器人、无人机、汽车、智能相机和其他移动设备的芯片,预计到2023年收益将达到2.1万亿美元。尽管Intel的市场占有率每年都以两位数的速度增长,但物联网带来的收益只占Intel总收入的7%。

人工智能将人们对计算能力的需求推向极限。目前,将晶体管压缩到硅晶片中还是有可能的,但这样做的话,成本会慢慢的高,花费的时间也越来越长,而且最终成品依旧不足以满足计算机科学家构建神经网络的要求。2016年已知的最大神经网络有1亿个参数,而到2019年这个数字就变成了15亿。

原文来自Fast Company,作者Mark Sullivan

当我来到加利福尼亚州圣克拉拉的企业游客中心时,一大群韩国青少年从大巴车跑下来,兴奋地聚在公司标志旁边自拍。你以为这是Apple或Google才有的景象?然而我正站在Intel的门口,意不意外?

Intel让“硅”谷名副其实,它的处理器和其他技术为个人电脑革命提供了无限动力。有着51年历史的它在科技行业仍拥有举足轻重的地位。

但是Intel也在重塑公司文化、改进产品生产方式,经历着深刻变革。一如既往,Intel的旗舰产品是微处理器(microprocessor),也就是台式机、笔记本、平板和服务器的大脑。微处理器的主要材料是硅晶片,表面覆盖着数百万乃至数十亿个晶体管,每个晶体管都有 “开”和“关”键,对应二进制的“1和0”。

自上世纪50年代以来,Intel通过在硅片上嵌入更多的晶体管,实现处理器能力的稳步提升。在1965年,Intel公司的创始人之一戈登·摩尔(Gordon Moore)就做出了著名的预测:芯片上的晶体管数量将每两年翻一番。分析师说,“摩尔定律”多年来一直是正确的,但是随着Intel嵌入的晶体管越来越多,处理器带来的回报却越来越低。

与此同时,人们对处理器能力的需求与日俱增。人工智能(Artificial Intelligence)目前在各行各业都得到广泛应用。人工智能的兴起,将把计算能力推向极限。神经网络(Neural Networks)需要强大的计算能力,当计算机团队分工协作时,神经网络才能发挥最佳效果。神经网络的发展速度远远超过了个人电脑和服务器,当初Intel正是凭借后者成为了科技行业的巨无霸。

2019年1月,Intel总裁鲍勃·斯旺(Bob Swan)表示:“无论是智慧城市,还是零售商店、工厂、汽车亦或是家庭,都和电脑息息相关。”人工智能的结构性转变和Intel扩张的雄心,使得公司不得不改变芯片的部分设计和特性。

Intel正在开发软件,设计可以协同工作的芯片,甚至尝试收购那些能够在瞬息万变的计算机世界高歌猛进的外部公司。Intel将迎来更多变革,因为计算机行业需要Intel为人工智能提供动力,将其运用到我们的工作和生活当中。

摩尔定律之终结

如今,拥有数据中心的大型科技公司亟需将主要业务和人工智能结合。其中一些公司,如Amazon、Microsoft和Google,也为企业客户提供人工智能云服务,但人工智能正开始向其他大型企业扩散,这些企业将训练人工智能模型分析处理海量数据。

图注:戈登·摩尔(Gordon Moore,最右)。

这种转变需要惊人的计算量。而人工智能模型对计算能力的要求正是“人工智能复兴”击败摩尔定律的原因。

几十年来,摩尔在1965年的预言对整个科技产业具有重大意义。传统硬件制造商和软件开发商都将产品路线图与新一代中央处理器(Central Processing Unit,下称CPU)挂钩。正如一位分析师所说,摩尔定律就是不断的“故技重施”。

摩尔定律还暗示,Intel将年复一年地研究如何实现芯片计算能力的预期增长。在Intel的漫漫发展长河中,Intel多次通过在硅片上嵌入更多晶体管以实现芯片计算能力的预期增长,但如今却难以为继。

市场研究公司Moor Insights & Strategy的首席分析师帕特里克·穆尔黑德(Patrick Moorhead)表示:“芯片工厂的电子气体存量堪忧。控制成本大规模制造芯片,越来越像天方夜谭。”

目前,将晶体管压缩到硅晶片中还是有可能的,但这样做的话,成本会慢慢的升高,花费的时间也慢慢变得长,而且最终成品依旧不足以满足计算机科学家构建神经网络的要求。例如,2016年已知的最大神经网络有1亿个参数,而到2019年这个数字就变成了15亿。

这超出了算力增长的极限,同时也给Intel带来压力,Intel必须找到提高芯片处理能力的新方法。

然而,斯旺认为人工智能更像是机遇而不是挑战。他认为,数据中心会是Intel的主要受益市场,因为它需要强大的芯片进行人工智能训练和推演。Intel出售兼容人工智能的小型设备芯片(如智能相机和传感器)的机会也将慢慢的变多。不同的是,芯片的原始功率可能差别不大,但它们尺寸更小、功耗更低。

图注:Intel的CEO鲍勃·斯旺。

斯旺表示:“我们将继续加速发展三类技术:人工智能技术、5G技术和自动化系统。”在2018年,Intel的前任CEO布莱恩·科再奇(Brian Krzanich)因与员工的婚外情被迫离职后,Intel的前首席财务官斯旺接替了这一职位。

我们坐在Intel总部的一个普通会议室里。在白板上,斯旺列出了Intel两方面的业务:左边是个人电脑芯片业务——支撑目前Intel约一半的收入;右边是数据中心业务,包括新兴的物联网、自动驾驶汽车和网络设备。

斯旺说:“我们需要不断适应这个数据慢慢的变多的世界,它需要更多的数据处理、存储、检索、更快的数据移动和更具相关性的智能分析。”

比起占据价值500亿美元的数据中心市场的90%份额,斯旺更希望占据3000亿美元市场的25%,这个市场包括智能相机、无人驾驶汽车和网络设备等。斯旺说:“这是一种策略,以我们的核心竞争力为起点,进行各方面的创新,扩展我们的现有业务。”

这可能是Intel重振旗鼓的方式。当年它未能如愿成为智能手机业务的主要技术供应商,输给了“手机行业的Intel”无线通讯公司Qualcomm(高通)。最近,Intel放弃了在智能手机调制解调器市场的投资,将剩下的业务卖给了Apple。

物联网市场,包括用于机器人、无人机、汽车、智能相机和其他移动设备的芯片,预计到2023年收益将达到2.1万亿美元。尽管Intel的市场占有率每年都以两位数的速度增长,但物联网带来的收益只占Intel总收入的7%。

数据中心业务贡献了32%的收入,仅次于个人电脑芯片业务。受人工智能影响最大的就属数据中心了。这就是怎么回事Intel一直在改进旗下最强大的CPU Xeon(至强Xeon是Intel生产的微处理器,它用于“中间范围”的企业服务器和工作站),以争取适应机器学习任务。

今年4月,Intel在第二代CPU Xeon中增加了更适合神经网络的“DL Boost”功能,精度丢失几乎可以忽略不计。同时,公司明年会推出两款针对大型机器学习模型的新芯片。

人工智能的复兴

2016年,从产品推荐算法到客户服务的语言机器人,神经网络的应用无所不包。

和其它芯片制造商一样,Intel知道,它必须为企业客户打造专门的人工智能软硬件,不但可以用来训练人工智能模型,还要从大量数据中进行推演。

当时,Intel并没有满足上述功能。业内的说法是,Intel的CPU Xeon非常擅长分析数据,但竞争对手计算机硬件公司Nvidia生产的图形处理器(GPU,Graphics Processing Unit)更适合“训练”,这种看法影响了Intel的业务发展。

所以在2016年,Intel以4亿美元收购了信息技术和服务公司Nervana,当时这家公司已经在研究专为人工智能训练而设计的芯片架构。

Intel收购Nervana已经三年了,看起来这么做是明智之举。在2019年11月于旧金山举行的会议上,Intel展示了两款新Nervana神经网络处理器(Neural Network Processors,下称NNP),一款用于运行神经网络模型,另一款用于训练神经网络。Intel与Facebook和百度合作,验证芯片设计是否合理。

Nervana并不是Intel当年唯一的收购对象。2016年,Intel还收购了另一家半导体公司Movidius,这家公司一直在研究可以在无人机或智能相机等设备内部运行计算机视觉模型的微型芯片。

虽然Movidius芯片的销售量并不是很大,但是增长速度喜人,而且Movidius芯片面向的正是让斯旺日思夜想的大型物联网市场。在旧金山的会议上,Intel还推出了一款将在2020年上半年推出的新款Movidius芯片。

图注:Intel旗下用于推演的Nervana NNP。

Nervana的CEO和创始人纳文·饶(Naveen Rao)表示,还是会有客户选择在Intel的常规CPU上进行人工智能计算。但是将这些CPU连接在一起,按照神经网络模型的需要进行团队合作,并不容易。另一方面,每个Nervana芯片都包含多个连接口,因此它们可以轻易地与数据中心的其他处理器协同工作。

饶说:“现在我能够正常的使用神经网络,将它分解成多个系统一起工作,这样,我们就可以用一个机架服务器,也可以是四个,来共同解决一个问题。”

图注:纳文·饶(Naveen Rao)。

2019年,Intel预计其人工智能相关产品的收入将达到35亿美元。目前,只有少数Intel客户使用Nervana的新芯片,但明年Intel很可能会迎来更广泛的用户基础。

改变从芯开始

芯片代表了Intel长期信念的转变,即从一块硅晶片,到可以处理个人电脑或服务器计算任务的CPU。随着游戏革命的到来,这种普遍的观念开始发生改变,需要更强大的算力在屏幕上显示复杂的图形。把这项工作交给GPU来完成很有必要,这样CPU就不会因此崩溃。

斯旺告诉我,早在多年以前Intel就开始将自己的GPU与CPU集成在一起,明年Intel将首次发布独立的GPU。

这样的想法也同样适用于人工智能模型。数据中心服务器中的CPU可以处理一定数量的人工智能程序,但随着工作量的增加,选择其他专用芯片效率会更高。Intel一直在投资设计芯片,将CPU和专用的加速器芯片捆绑在一起,以满足客户的功耗和工作负载需求。

“当你做芯片的时候,需要整合系统解决问题,这个系统需要的不单单是一个CPU。”

此外,Intel现在更依赖软件驱动处理器获得更高的性能和效率。这已经改变了企业内部的局势。一位分析师表示,Intel的软件开发与硬件开发如今已经“平等”,一视同仁。

Intel不再自己生产所有芯片,这打破了公司的旧有惯例。芯片设计师需要芯片的时候,如果其他公司能提供比Intel更好的芯片,这种外包也可以接受。例如,用于训练的新Nervana芯片由半导体制造商台积电(台湾积体电路制造股份有限公司,TSMC)制造。

出于物流和经济原因,Intel将一些芯片制造业务外包。由于Intel最先进的芯片制造产能有限,许多客户还在等待新Xeon CPU的交货。因此,Intel将部分其他芯片外包给了其他制造商。今年,Intel向客户发出了一封道歉信,为推迟发布向客户表示歉意,并阐述了其迎头赶上的计划。

所有这些变化都在挑战Intel内部长期以来的信念,改变公司的重点发展事项,重新平衡了产品结构。

转变过程中,Intel的业务看起来相当不错。传统的个人电脑芯片销售业务比五年前下降了25%,但Xeon处理器的销售却“一路高歌”。分析师迈克·菲布斯(Mike Feibus)如此表示。

Intel的一些客户已经在使用Xeon处理器运行人工智能模型。如果这些工作量增加,他们可能会考虑增加Nervana专用芯片。据Intel预计,这些芯片的第一批客户将是“超级扩张者”,即运营大量数据中心的大型公司,如Google、Microsoft和Facebook等企业。

Intel将智能手机处理器市场拱手让给Qualcomm,导致自己错过移动革命,这是一个老故事了。但事实是,移动设备慢慢的变成了通过云数据中心向手机提供服务的自动售货机。因此,把视频传到平板电脑时,很可能是Intel的芯片在起作用。

5G的到来使运行实时服务成为可能,比如从云端运行游戏。未来的智能眼镜或许可以通过数据中心运行的算法快速建立连接,即时识别物体。

所有这些都意味着这将是一个非同寻常的时代,在那时,Intel将会成为技术世界的核心。但随着人工智能模型慢慢的变复杂,功能越来越丰富,就像半个世纪以来,Intel为我们的电脑提供动力一样,它有望为技术世界保驾护航。

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!