下一代AI芯片可能是推动技术进步的主要工具

导读Nvidia称其怪异的芯片为当今的超级计算硬件提供了一种更便宜,更快速的替代产品。总部位于加利福尼亚的芯片巨头Nvidia最近推出了其人工智能

Nvidia称其怪异的芯片为当今的超级计算硬件提供了一种更便宜,更快速的替代产品。总部位于加利福尼亚的芯片巨头Nvidia最近推出了其人工智能芯片Nvidia A100,旨在满足所有AI工作负载。芯片制造在最近已经看到了一些重大的创新。去年夏天,我报道了另一家位于加利福尼亚的芯片初创公司Cerebras ,该公司以其创新的芯片设计被称为“晶圆级引擎”(WSE)来提高标准。

随着对超级计算系统需求的增长,芯片制造商正争先恐后地提出可满足此类系统处理复杂计算需求的未来派芯片设计。最大的芯片制造商英特尔正在开发以人脑为模型的强大“神经形态芯片”。该设计基本上复制了大脑神经元的工作,以平稳地处理信息-所提出的芯片具有1亿个神经元的计算能力。

最近,澳大利亚的初创公司Cortical Labs通过结合使用生物神经元和专用计算机芯片来设计系统,进一步发展了这一想法-充分利用了数字系统的功能,并将其与生物神经元处理系统的功能相结合计算。

由于该流行病推迟了将近两个月,英伟达发布了其540亿晶体管的怪物芯片,该芯片具有5 petaFLOPS的性能,是上一代芯片Volta的20倍。芯片和使用该芯片的DGX A100系统(下面的视频)现已上市并发售。该系统的详细规格可在此处获得。

“您获得了56台服务器的额外内存,CPU和电源的所有开销……崩溃了。经济价值主张确实不在计划之列,这真是令人兴奋。” 〜英伟达首席执行官黄仁勋

第三代Nvidia的AI DGX平台,当前的系统基本上为您提供了整个数据中心在单个机架中的计算能力。对于今天处理AI培训的典型客户而言,需要600个中央处理单元(CPU)系统,成本为1100万美元,这将需要25个服务器机架和630千瓦的功率。Nvidia的DGX A100系统以100万美元的价格提供相同的处理能力,一个服务器机架和28千瓦的功率。

它还使您能够将工作拆分为较小的工作负载,以进行更快的处理-使用A100多实例GPU功能,可以将系统划分为每个系统56个实例。英伟达已经收到了全球一些最大公司的订单。以下是一些值得注意的:

最重要的是,全球成千上万的上一代DGX系统客户现在是Nvidia的潜在客户。Nvidia试图通过切换芯片上的不同元素为其商用GPU和消费者图形使用的GPU创建单个微体系结构,从长远来看可能会为其提供优势。

此次发布的其他产品还包括Nvidia的下一代DGX SuperPod,它是140个DGX A100系统的集群,能够实现700 petaflops的AI计算能力。芯片设计最终似乎正在赶上未来的计算需求。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢