深度学习框架

深度学习(DL)框架通过高级编程接口为设计、训练和验证深度神经网络提供了构建块。广泛使用的DL框架,如PyTorch、JAX、TensorFlow、,PyTorch几何,DGL和其他人依赖GPU加速库,如cuDNN、NCCL和DALI,以提供高性能、多GPU加速训练。


查看所有框架

NVIDIA优化的DL框架

开发人员、研究人员和数据科学家可以轻松访问NVIDIA优化的DL框架容器,其中包含针对NVIDIAGPU进行性能调整和测试的DL示例。这消除了管理包和依赖项或从源代码构建DL框架的需要。包含所有依赖项的容器化DL框架为开始开发通用应用程序提供了一个容易的地方,例如对话式人工智能、自然语言理解(NLU)、推荐人和计算机视觉。访问NVIDIA NGC™目录了解更多信息。


PyTorch徽标

PyTorch公司

PyTorch是一个Python包,它提供了两个高级功能:

  • 具有强大GPU加速度的张量计算(如numpy)。
  • 建立在基于磁带的自动签名系统上的深度神经网络(DNN)。

重用您最喜欢的Python包,如numpy、scipy和Cython,以便在需要时扩展PyTorch。


NGC上的PyTorch 示例模型 自动混合精度

模型部署

对于PyTorch训练模型的高性能推理部署:

  • 1.使用Torch-TensorRT集成在PyTorch中优化和部署模型。
  • 2.将PyTorch模型导出到ONNX公司格式化,并使用导入、优化和部署NVIDIA TensorRT™公司,一个用于高性能深入学习推断的SDK。

学习资源


Tensorflow徽标

TensorFlow公司

TensorFlow是一个使用数据流图进行数值计算的开源软件库。图中的节点表示数学运算,而图边表示在它们之间流动的多维数据数组(张量)。这种灵活的体系结构允许您将计算部署到桌面、服务器或移动设备中的一个或多个CPU或GPU,而无需重写代码。为了可视化TensorFlow结果,TensorFlow提供了一套可视化工具TensorBoard。


NGC上的TensorFlow GitHub上的TensorFlow 示例模型 自动混合精度 JetPack的TensorFlow

模型部署

对于TensorFlow训练模型的高性能推理部署:

  • 1.使用TensorFlow-TensorRT集成来优化和部署TensorFlow中的模型。
  • 2.将TensorFlow模型导出到ONNX公司并使用导入、优化和部署NVIDIA TensorRT公司,一个用于高性能深入学习推断的SDK。

学习资源


JAX徽标

日本宇宙航空公司

JAX是一个Python库,用于高性能数值计算和机器学习研究。JAX可以自动区分本机Python并实现NumPy API。只需更改几行代码,JAX就可以实现跨多节点、多GPU系统的分布式训练,并通过XLA提高性能。


NGC上的JAX GitHub上的JAX

学习资源


PaddlePaddle徽标

飞桨

PaddlePaddle为加载数据和指定模型结构提供了直观而灵活的界面。它支持CNN、RNN和多种变体,并可以轻松配置复杂的深层模型。

PaddlePaddle还提供了极为优化的操作、内存回收和网络通信,并可以轻松扩展异构计算资源和存储以加快培训过程。


桨NGC上的桨 桨叶桨叶安装页面 桨叶源

模型部署

对于PaddlePaddle训练模型的高性能推理部署:

  • 使用Paddle-TensorRT集成在PaddlePaddle中优化和部署模型。
  • 将PaddlePaddle模型导出到ONNX,并使用NVIDIA TensorRT导入、优化和部署,这是一个用于高性能深入学习推断的SDK。

学习资源


MATLAB徽标

MATLAB软件

MATLAB使DL对工程师、科学家和领域专家来说很容易。通过管理和标记大型数据集的工具和功能,MATLAB还提供了用于机器学习、神经网络、计算机视觉和自动驾驶的专用工具箱。只需几行代码,MATLAB就可以创建和可视化模型,并将模型部署到服务器和嵌入式设备上,而无需成为专家。MATLAB还允许用户从MATLAB代码中为DL和视觉应用程序自动生成高性能CUDA代码。


NGC上的MATLAB 用于深度学习的MATLAB

模型部署

对于MATLAB训练模型的高性能推理部署,请使用MATLAB GPU编码器从云到嵌入式部署环境自动生成TensorRT优化推理引擎。


学习资源