英伟达AI

使用NVIDIA NIM即时部署生成性人工智能

使用NVIDIA优化和加速的API探索最新的社区构建AI模型,然后使用NVIDI NIM™推理微服务部署到任何地方。

立即体验领先的开放式模型


集成

加速人工智能只是API调用

使用熟悉的API快速启动和运行。

与流行库无缝兼容

使用现有工具和应用程序中的NVIDIA API,只需三行代码。

使用你喜欢的工具

使用您最喜欢的大型语言模型(LLM)编程框架,包括LangChain和LlamaIndex,并在应用程序中轻松集成最新的AI模型。

NIM代理蓝图

构建有影响力的生成性AI应用程序所需的一切。每个蓝图都包括NVIDIA NIM和合作伙伴微服务、一个或多个AI代理、示例代码、定制说明和用于部署的Helm图表。


随时随地跑步

使用NVIDIA NIM加速AI部署

作为NVIDIA AI Enterprise的一部分,NVIDIA-NIM是一套易于使用的推理微服务,用于加速基础模型在任何云或数据中心的部署,并帮助确保数据安全。

使用NVIDIA NIM加速AI部署

部署NIM

使用单个命令为模型部署NIM。您还可以使用微调模型轻松运行NIM。

运行推断

使用基于NVIDIA加速基础设施的最佳运行时引擎启动和运行NIM。

生成

开发人员只需几行代码就可以集成自托管NIM端点。

部署
运行
生成
docker运行nvcr.io/nim/publisher_name/model_name
curl-X“POST”\ 'http://0.0.0.0:8000/v1/completions网址' \ -H'接受:application/json'\ -H'内容类型:application/json'\ -d英寸{ “model”:“model_name”, “prompt”:“从前”, “max_tokens”:64 }'
导入openai 客户端=openai。开放人工智能( base_url=“YOUR_LOCAL_ENDPOINT_url”, api_key=“YOUR_LOCAL_api_key” ) chat_completion=客户端.chat.completions.create( model=“model_name”, messages=[{“role”:“user”,“content”:“Write me a love song”}], 温度=0.7 )

本地启动或与Kubernetes一起扩展

从单个设备到数据中心规模,在任何NVIDIA加速的基础设施上无缝部署容器化AI微服务。

放心安全部署

依靠生产级运行时,包括正在进行的安全更新,并使用企业级支持支持的稳定API运行业务应用程序。

降低成本和碳足迹

使用AI运行时降低生产中运行模型的运营成本,这些运行时在NVIDIA加速基础设施上持续优化以实现低延迟和高吞吐量。

吞吐量

NVIDIA NIM提供了优化的吞吐量和开箱即用的延迟,以最大限度地生成令牌,支持高峰时间的并发用户,并提高响应能力。

配置:Llama 3-70b-指令,输入令牌长度:7000,输出令牌长度:1000。并发客户端请求:100,在4 x H100 SXM NVLink上。NIM关闭:FP16,TTFT:~120s,ITL:~180ms;NIM开启:FP8,TTFT:~4.5s,ITL:~70ms。

自定义

为您的领域特定需求量身定制NIM微服务

使用NVIDIA NeMo进行微调

NVIDIA NeMo™公司是一个端到端的平台,用于在任何地方开发自定义生成AI。它包括用于培训、定制和检索增强生成(RAG)、护栏、数据管理和模型预培训的工具,为企业采用生成人工智能提供了一种简单、经济、快速的方法。

参见NVIDIA NIMs的实际应用

快速入门

开始免费原型制作

开始使用易于使用、NVIDIA管理的无服务器API。

  • 访问完全加速的AI基础设施。
  • 确保您的数据不用于模型培训。
  • 免费开始1000个推理学分。

下载和部署

运行NVIDIA NIM,在您选择的云或数据中心中缩放优化的AI模型。

  • 确保数据永远不会离开您的安全空间。
  • 从云端点无缝过渡到自托管API,无需更改代码。
  • 使用NVIDIA AI Enterprise许可证进行生产,或免费使用NVIDIA开发商计划.

使用NVIDIA AI Foundry构建自定义生成AI模型

访问基础模型、企业软件、加速计算和人工智能专业知识,为您的企业应用程序构建、微调和部署自定义模型。

用例

激发您的创新

了解NVIDIA API如何支持行业用例,并通过精心策划的示例启动您的AI开发。

数字人类

让游戏角色栩栩如生,或创建交互式虚拟化身来增强客户服务,使您的应用程序能够与用户进行更深入的联系。

内容生成

基于企业的领域专业知识和专有IP,生成高度相关、定制和准确的内容。

生物分子生成

生物分子生成模型和GPU的计算能力有效地探索了化学空间,快速生成适合特定药物靶点或属性的各种小分子集合。

生态系统

让您的企业AI走得更远更快

加入主要合作伙伴,利用我们生态系统中的模型、工具包、向量数据库、框架和基础设施开发您的AI应用程序。

资源

解锁、升级和升级

NVIDIA LaunchPad

通过动手实验室解锁AI

通过开发框架、基于检索增强生成(RAG)的聊天机器人、路线优化等的指导实践实验室,体验端到端的人工智能解决方案。

NVIDIA开发商计划

加速您的AI应用程序

通过NVIDIA Developer Program免费访问NIM进行应用程序开发、研究和测试,以及技术学习资源。

AI工作台

从小处开始。规模大

NVIDIA AI Workbench为开发人员提供了在本地或远程GPU驱动的容器上运行支持API的模型的灵活性,允许交互式项目工作流从实验到原型制作到概念验证。

新闻

在新闻中浏览NVIDIA NIM

查看NVIDIA最新新闻稿,了解NIM和生成性AI如何影响行业、合作伙伴、客户等。

文档

浏览技术文档,开始使用NVIDIA API原型化和构建企业AI应用程序,或使用NVIDI NIM在您自己的基础设施上进行扩展。