生成优化的C/C++和CUDA代码以部署到CPU和GPU 生成用于部署到FPGA和SoC的可合成Verilog和VHDL代码 使用硬件优化的深度学习库(包括oneDNN、Arm Compute Library和TensorRT)加速推理 将预先训练的TensorFlow Lite(TFLite)模型集成到部署到硬件的应用程序中 使用超参数调优、量化和网络修剪工具压缩AI模型,以便在资源约束硬件上进行推理
“从数据注释到选择、培训、测试和微调我们的深度学习模型,MATLAB提供了我们所需的所有工具,GPU编码器使我们能够快速部署到NVIDIA GPU,尽管我们的GPU经验有限。” 德拉斯集团Valerio Imbriolo