跳到内容
30:42网络研讨会

使用RAG增强LLM,使用Pure和NVIDIA加速企业AI

利用Pure Storage和NVIDIA开启检索增强型发电(RAG)的变革力量。加入我们,参加一场充满见解和演示的会议,为您的生成人工智能计划注入活力。
本次网络研讨会于2024年4月25日首次播出
我们录制的网络研讨会的前5分钟是开放的;然而,如果你喜欢,我们会要求你提供一些信息来完成观看。
  • 人工智能
  • AIRI公司
  • NVIDIA公司
  • 技术会谈
  • FlashBlade

罗伯特·阿尔瓦雷斯

高级AI解决方案架构师,Pure Storage

阿努拉达·卡鲁皮亚

NVIDIA首席工程师

卡尔文·聂

解决方案营销经理AI,Pure Storage

通过检索增强生成(RAG),生成人工智能对企业的益处和投资回报率是显而易见的。RAG通过使用专有数据增强通用大型语言模型(LLM)来提供特定于公司的响应。 

本课程将展示使用Pure Storage®和NVIDIA的RAG企业实施如何加快数据处理,提高可扩展性,并提供比从头创建自定义LLM更容易的实时响应。 

参加以获得技术见解,并观看分布式加速GenAI RAG管道的演示。

  • 了解使用RAG为企业级GenAI应用程序增强LLM的好处

  • 了解如何使用NVIDIA NeMo Retriever微服务和Pure Storage FlashBlade//S™加速RAG管道并提供增强的洞察力

  • 查看我们的概念验证演示,在企业用例中显示加速RAG

创新领导者

在人工智能突破之年,Pure Storage被AI突破奖评为大数据最佳人工智能解决方案。

阅读博客
06/2024
利用纯存储加速AI驱动的结果
从实际客户那里了解Pure Storage如何帮助加快模型训练和推理、简化AI管道,以及降低数据中心的AI功耗。
电子书
9页
继续观看
我们希望你觉得这个预览很有价值。要继续观看此视频,请在下面提供您的信息。
本网站受reCAPTCHA和Google的保护隐私政策服务条款适用。
您的浏览器不再受支持!

较旧的浏览器通常存在安全风险。为了在使用我们的网站时提供最佳体验,请更新到这些最新的浏览器。