深度学习

边缘人工智能的MATLAB和Simulink

将机器学习和深度学习应用程序部署到嵌入式系统

模拟、测试机器学习和深度学习模型,并将其部署到边缘设备和嵌入式系统。为完整的人工智能应用程序生成代码,包括预处理和后处理算法。

使用MATLAB®和Simulink®,您可以:

  • 生成优化的C/C++和CUDA代码以部署到CPU和GPU
  • 生成用于部署到FPGA和SoC的可合成Verilog和VHDL代码
  • 使用硬件优化的深度学习库(包括oneDNN、Arm Compute Library和TensorRT)加速推理
  • 将预先训练的TensorFlow Lite(TFLite)模型集成到部署到硬件的应用程序中
  • 使用超参数调优、量化和网络修剪工具压缩AI模型,以便在资源约束硬件上进行推理

“从数据注释到选择、培训、测试和微调我们的深度学习模型,MATLAB提供了我们所需的所有工具,GPU编码器使我们能够快速部署到NVIDIA GPU,尽管我们的GPU经验有限。”

德拉斯集团Valerio Imbriolo
部署到嵌入式硬件映像中的C/C++代码的屏幕截图。

CPU和微控制器

使用MATLAB Coder™和Simulink Coder™从经过训练的机器学习和深度学习模型生成可移植的优化C/C++代码。可选地包括对特定于供应商的库的调用,以便在生成的代码中进行深度学习推断,例如oneDNN和Arm®计算库。

Simulink中C/C++代码的屏幕截图,部署到NVIDIA桌面和嵌入式GPU的图像中。

GPU(全球生产单位)

生成优化的CUDA®使用GPU Coder™为训练有素的深度学习网络编写代码。包括预处理和后处理以及网络,以便将完整的算法部署到桌面、服务器和嵌入式GPU。使用NVIDIA®CUDA库,如TensorRT™和cuDNN,可最大限度地提高性能。

在MATLAB的原型硬件上运行基于FPGA的深度学习推理,然后生成深度学习HDL IP核,以部署在任何FPGA或ASIC上。

FPGA和SoC

使用deep learning HDL Toolbox™在FPGA和SoC上原型化并实施深度学习网络。使用预先构建的比特流为流行的FPGA开发工具包编程深度学习处理器和数据移动IP核。使用HDL Coder™生成自定义深度学习处理器IP核和比特流。

分层图的屏幕截图、校准统计数据和验证结果,以优化用于嵌入式部署的AI模型。

AI模型压缩

通过大小感知的超参数调整和权重、偏差和激活的量化,降低机器学习和深度学习模型的内存需求。通过修剪不重要的层连接来最小化深层神经网络的大小。