Graphcore首席执行官认为新型人工智能将证明新型电脑的价值

导读人工智能芯片初创公司Graphcore的首席执行官奈杰尔•图恩表示,与传统的计算机芯片相比,“我们采用了一种非常不同的方法和架构”。“我们与客户的对话是,这是你工具箱里的一个新工

人工智能芯片初创公司Graphcore的首席执行官奈杰尔•图恩表示,与传统的计算机芯片相比,“我们采用了一种非常不同的方法和架构”。“我们与客户的对话是,这是你工具箱里的一个新工具,可以让你做不同的事情,解决不同的问题。”

世界上大多数计算机都倾向于先做一件事,然后进行下一件事,即一系列连续的任务。几十年来,计算机科学家一直在努力让机器并行地做很多事情。

随着近年来人工智能的蓬勃发展,一种理想的工作量已经到来,一种软件编程自然会变得更好,因为它的数学运算分布在许多芯片上,或者分布在一个芯片内并行工作的电路上。

对于新兴的芯片技术供应商来说,人工智能的迅速普及意味着,他们相信,他们的时代已经到来,销售新型并行处理计算机的机会已经到来。

“这是最基本的,”电脑初创公司Graphcore的联合创始人兼首席执行官奈杰尔·图恩(Nigel Toon)上周在英国的家中接受ZDNet的视频采访时说。

“我们有一个非常不同的方法和一个非常不同的架构”从传统的计算机芯片,图恩说。“我们与客户的对话是,这是你工具箱里的一个新工具,可以让你做不同的事情,解决不同的问题。”

Graphcore成立于2016年,总部设在布里斯托尔的古雅的中世纪小镇,伦敦西部的几个小时,在过去的几年中积累了惊人的战争基金的风险资金,以的公司之一,可以使并行计算的梦想成为现实。

上周,图恩提供了一个很好的概念验证,告诉我们事情的发展方向。

在一个关于医疗人工智能的虚拟会议上,微软机器学习科学家Sujeeth Bharadwaj展示了他在Graphcore芯片上所做的工作,该芯片可以在x光胸透中识别COVID-19。他说,Bharadwaj的工作表明,Graphcore芯片可以在30分钟内完成在英伟达(Nvidia)传统芯片上需要5个小时才能完成的工作。英伟达是硅谷一家主导神经网络运行的公司。

为什么会这样呢?Bharadwaj提出,他的程序,称为SONIC,需要一种不同的机器,一种可以并行运行更多东西的机器。

此外,“我们在几个月内完成的工作,通常需要数年的药物研发过程”:能源部的阿贡实验室(Argonne Labs)与人工智能(AI)对抗COVID-19

“有一个非常强大的协同作用,”他断言,在声波程序和Graphcore芯片之间。

如果Bharadwaj的观点是完全正确的,这意味着明天的顶级神经网络,通常被称为“最新技术”,将为Graphcore和拥有各种新型计算机的竞争对手打开一个巨大的市场机会,对英伟达构成巨大威胁。

Graphcore已经筹集了超过4.5亿美元的资金,其中包括2月份的1.5亿美元D轮融资。他说,“事实证明,这是筹集新资金的绝佳时机”。最新的注资使得Graphcore的后估值“接近20亿美元”。他指出,截至今年2月,该公司的银行存款为3亿美元。

投资者包括“科技行业一些最大的公开市场投资者”,比如英国投资经理贝利·吉福德(Baillie Gifford)。其他强大的支持者包括微软、博世、宝马以及谷歌旗下DeepMind人工智能部门的联合创始人戴米斯·哈萨比斯(Demis Hassabis)。

像Baillie Gifford这样的公司“在这里投资于一家私人公司,显然预期我们可能会在未来的某个时间上市,”Toon评论道。

至于Graphcore何时上市,“我不知道,”他笑着说。

为什么索尼克,以及类似的程序,能够实现并行执行任务,很大一部分原因是计算机内存。由于人工智能的出现,内存可能是芯片设计中最重要的方面。为了使许多任务并行工作,对存储数据的内存容量的需求迅速增加。

英伟达(Nvidia)或英特尔(Intel)等芯片的内存传统上被限制在数千万字节。更新的芯片,如Graphcore的智能处理单元(IPU),增加了3亿字节的内存容量。像其他现代芯片一样,IPU将内存吞吐量分散到硅片上,这样,超过1000个单独的计算单元中的每一个单元的内存都很接近。

其结果是,内存的存取速度比从芯片到计算机的主存要快得多,这仍然是英伟达最新的gpu的方法。英伟达去年收购了通信技术供应商Mellanox,通过扩大从GPU到外部存储器的通道,在一定程度上改善了这种状况。

但是从GPU到主存的移动速度仍然无法与芯片内存储器的速度相比,后者的速度可以达到每秒450亿字节。这种对内存的访问是Bharadwaj的声波神经网络能够在训练中看到与在Nvidia GPU上运行所花费的时间相比的显著加速的一个重要原因。

Graphcore“智能处理单元”(简称IPU)由1000多台并行运行的计算机组成,每台计算机都有自己的一批内存,用来并行处理通常需要在传统芯片上按顺序运行的任务。

索尼克是图恩的一个例子,图恩认为,新型的神经网络将越来越多地使IPU成为进行尖端人工智能开发的必备工具。

“我认为IPU能够帮助创新者做的一件事就是创建这些下一代图像感知模型,使它们更精确,更有效地实施,”图恩说道。

一个重要的问题是索尼克的结果是否是一个侥幸,或者IPU是否能够通过并行操作来加速许多不同种类的AI程序。

听Bharadwaj的描述,他的程序和Graphcore芯片的结合有些特别。“索尼克的设计是为了利用IPU的能力,”Bharadwaj在他的演讲中说。

然而,图恩对程序的定制方面轻描淡写。“在这种情况下没有前后调整,”他谈到索尼克的发展时说。“这是一个惊人的结果,他们发现使用技术和标准工具。”

图恩说,这项工作是独立于Graphcore完成的。“事情是这样的,有一天微软给我们打电话,他们说,哇,看看我们能做什么。”

Toon说,尽管IPU的设计是为了“支持这些类型的更复杂的算法”,但他指出,IPU的设计比单一的模型要广泛得多。“同样,它也适用于其他类型的模型。”例如,他引用了自然语言处理系统,“在这些网络中,你希望使用稀疏处理。”

微软人工智能科学家Sujeeth Bharadjwaj在一次医疗技术会议上讲述了他的声波神经网络是如何利用Graphcore IPU芯片构建的。

用于训练,尤其是推理的芯片市场已经变得非常拥挤。英伟达在培训领域占据主导地位,而英特尔在推理领域拥有最大的市场份额。除了Graphcore,硅谷Los Altos的Cerebras Systems公司也在运输系统,并从美国能源部阿贡国家实验室(Argonne National Laboratory)等主要研究实验室获得工作。其他一些大公司也获得了资金,目前正处于开发阶段,比如拥有斯坦福大学血统的SambaNova Systems。

然而,图恩把市场描绘成两匹马的比赛。他说:“每次我们去和客户交谈时,都是我们和英伟达的好意。”他告诉ZDNet,竞争没有取得什么进展。在Cerebras的例子中,该公司“已经向一些客户交付了一些系统,”并补充说,“我不知道他们获得了什么样的吸引力。”

图恩表示,英特尔去年收购了以色列初创企业Habana,“他们还有很多需要证明的地方。”他说:“他们并没有真正交付大量的产品,他们有一些推论产品,但没有可供客户使用的培训产品。”

一些业内观察人士认为,举证责任更多地落在了Graphcore的肩上。

著名芯片通讯《微处理器》的编辑Linley Gwennap告诉ZDNet:“英特尔收购Habana,使其在人工智能推理和训练方面成为英伟达的最大挑战者。”Gwennap认为,Habana芯片的基准测试结果比Nvidia的V100(目前最好的芯片)和Graphcore的部分都要好。“一旦英特尔将其广泛的人工智能软件移植到哈瓦那的硬件上,这一组合将远远领先于任何初创企业的平台。”

此外,该公司首席执行长萨巴诺娃(SambaNova)说,这不仅仅是人工智能的问题,这是整个计算机行业的一个变化

英伟达两周前宣布了其最新的人工智能芯片“A100”。图恩表示,当Graphcore在今年晚些时候发布其第二代处理器时,它有望超越A100。“当我们的下一代产品出现时,我们应该继续保持领先。”

Gwennap对此持怀疑态度。Nvidia的部分,他说:“提高性能酒吧远高于每个现有的产品,”,他说,让所有竞争对手”在同一位置:突然声称他们的下一代芯片将超越A100的性能在试图满足客户的软件需要一个小得多的团队比英特尔或Nvidia可以部署。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢