cnvrg.io AI操作系统通过支持NVIDIA A100多实例GPU来提供加速的ML工作负载

导读 于机器学习的AI OS今天宣布将NVIDIA多实例GPU(MIG)技术与其数据科学平台进行原生集成。cnvrg io是第一个集成MIG的ML平台,这是一项突破性

于机器学习的AI OS今天宣布将NVIDIA多实例GPU(MIG)技术与其数据科学平台进行原生集成。cnvrg.io是第一个集成MIG的ML平台,这是一项突破性的新功能,可以将每个NVIDIA A100 GPU划分为多达七个加速器,以实现最佳利用率,从而有效地扩展对每个用户和应用程序的访问权限。此次集成是在发布 NVIDIA A100 Tensor Core GPU 和NVIDIA DGX A100系统以及cnvrg.io的NVIDIA DGX-Ready Software程序认证( 作为AI工作流解决方案)之后进行的。

NVIDIA GPU是机器学习和深度学习工作负载的强大动力。全新的NVIDIA A100 Tensor Core GPU在AI,数据分析和HPC工作负载的各个规模上均提供了空前的加速,以应对全球最棘手的计算挑战。作为NVIDIA数据中心平台的引擎,A100可以有效地扩展至数千个GPU,并且通过 MIG可以将其划分为七个独立的GPU实例,以加速各种规模的AI工作负载。

由于存在如此巨大的可变性,因此资源管理至关重要。基础架构团队需要MLOps,以及分配,安排,共享和监视MIG资源利用率的方法。这就是cnvrg.io数据科学平台快速发展的地方,并提供了 具有自助服务资源管理,元计划和MLOps功能的MIG集成。

cnvrg.io是最早集成NVIDIA新MIG功能的ML平台之一,该平台可在一个或多个DGX A100系统上扩展每个NVIDIA A100 Tensor Core GPU的性能和价值。每个MIG实例都通过其自己的高带宽内存,高速缓存和计算核心完全隔离。现在,管理员可以支持从最小到最大的所有工作负载,为每个作业提供合适大小的GPU,并保证服务质量(QoS),优化利用率并将加速的计算资源的使用范围扩展到每个用户。结合cnvrg.io的行业领先的资源管理和针对IT和AI团队的MLOps功能,MIG实例现在可以由执行任何ML工作的任何数据科学家一键使用。cnvrg.io与NVIDIA MIG的集成为AI团队提供了:

一键式按需提供MIG实例

定制的计算模板,简化了MIG的分配和利用

任何数据科学家均可使用NVIDIA A100处理能力来执行任何ML作业

用于MIG池管理的高级元计划功能

cnvrg首席执行官兼联合创始人Yochay Ettun说:“作为数据科学家,我们知道MIG功能具有改变数据科学家工作方式的能力,并为更广泛地利用NVIDIA GPU技术开辟了可能性。 io。“与NVIDIA紧密合作,我们正在帮助组织更轻松地在AI工作流程中利用A100中的MIG,并为AI团队提供敏捷性和生产力。”

NVIDIA产品管理高级总监John Barco说:“ A100 GPU的MIG功能使用户可以在DGX A100系统上并行打包数十个完全独立的作业,并具有出色的性能 。” “借助企业级AI工作流管理和cnvrg.io的MLOps软件对这项巨大的技术创新进行补充,可帮助客户最大程度地利用GPU并从AI投资中获得最大收益。”

AI团队可以使用NVIDIA MIG和cnvrg.io大大提高其A100 GPU的利用率 。如果您希望通过A100 GPU优化DGX A100系统的使用,cnvrg.io现在提供了工具,可快速利用A100中的MIG功能处理ML工作负载,并通过高级资源管理和MLOps提高性能 。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢