NVIDIA云原生技术

从数据中心和云到桌面和边缘,NVIDIA cloud Native技术提供了在具有NVIDIA GPU的系统上运行深度学习、机器学习和Kubernetes管理的其他GPU加速工作负载的能力,以及开发可以无缝部署在企业云本地管理框架上的容器化软件。


开放源代码

开源软件是NVIDIA云原生技术的基础。NVIDIA为开源项目和社区,包括容器运行时、Kubernetes操作员和扩展以及监控工具。

企业准备就绪

使用NVIDIA Cloud-Native技术开发的容器化应用程序可以在企业云本地管理框架上无缝运行,包括Red Hat OpenShift和VMware vSphere with Tanzu,以及NVIDIA-Base Command™和NVIDIA-Fleet Command™。

强大的生态系统

NVIDIA Cloud-Native技术支持所有NVIDIA企业GPU和网络适配器,无论它们在何处运行。NVIDIA-Certified Systems™(NVIDIA认证系统™)由众多全球系统制造商提供,经验证可与Cloud Native技术配合使用。该软件也可以从领先的云服务提供商在云实例上获得,并且可以部署在嵌入式系统上。


Kubernetes集成


NVIDIA GPU运营商使用Kubernetes运营商框架

NVIDIA GPU运营商

这个NVIDIA GPU运营商自动化在Kubernetes上公开GPU所需的软件的生命周期管理。它支持高级功能,包括更好的GPU性能、利用率和遥测。GPU Operator经过认证和验证,可与业界领先的Kubernetes解决方案兼容,允许组织专注于构建应用程序,而不是管理Kubernete基础设施。

了解更多信息

NVIDIA网络运营商

NVIDIA网络运营商通过自动化加速联网所需软件的部署和配置,简化了Kubernetes的扩展网络设计。网络运营商与GPU运营商配对,可启用NVIDIA GPUDirect®RDMA公司这是一项关键技术,可将云计算AI工作负载加速数个数量级。网络运营商还可用于为电信公司NFV应用程序启用加速Kubernetes网络环境,建立RDMA连接以快速访问NVMe存储等。

了解更多信息

企业支持

客户可以购买NVIDIA AI Enterprise,以获得对上游Kubernetes、Red Hat OpenShift或VMware vSphere with Tanzu上运行的GPU和Network Operator的企业支持。

了解更多信息

NVIDIA云本机堆栈

NVIDIA Cloud Native Stack是一种参考体系结构,可以轻松访问上游Kubernetes上运行的NVIDIA GPU和网络运营商。它提供了一种在x86和基于Arm的系统上快速部署Kubernetes的方法,并体验最新的NVIDIA功能,如多实例GPU(MIG)、GPUDirect RDMA、GPUDirect Storage和GPU监控功能。


Cloud Native Stack使开发人员能够构建、测试和运行与NVIDIA Operators协同工作的GPU加速的容器化应用程序。这些应用程序可以在基于企业Kubernetes的平台上无缝运行,如NVIDIA Base Command、NVIDIA Fleet Command、Red Hat OpenShift和VMware vSphere with Tanzu。开发人员可以将Cloud Native Stack部署到GPU加速的服务器、工作站、云实例或嵌入式系统上。



NVIDIA集装箱工具包

NVIDIA容器工具包允许用户构建和运行GPU加速的容器。该工具包包括一个容器运行时库和实用程序,用于自动配置容器以利用NVIDIA GPU。


将GPU应用程序容器化提供了几个好处,包括易于部署、跨异构环境运行的能力、可重复性和易于协作


了解更多信息

NVIDIA GPU运营商使用Kubernetes运营商框架