<code id='E5FBE198F3'></code><style id='E5FBE198F3'></style>
    • <acronym id='E5FBE198F3'></acronym>
      <center id='E5FBE198F3'><center id='E5FBE198F3'><tfoot id='E5FBE198F3'></tfoot></center><abbr id='E5FBE198F3'><dir id='E5FBE198F3'><tfoot id='E5FBE198F3'></tfoot><noframes id='E5FBE198F3'>

    • <optgroup id='E5FBE198F3'><strike id='E5FBE198F3'><sup id='E5FBE198F3'></sup></strike><code id='E5FBE198F3'></code></optgroup>
        1. <b id='E5FBE198F3'><label id='E5FBE198F3'><select id='E5FBE198F3'><dt id='E5FBE198F3'><span id='E5FBE198F3'></span></dt></select></label></b><u id='E5FBE198F3'></u>
          <i id='E5FBE198F3'><strike id='E5FBE198F3'><tt id='E5FBE198F3'><pre id='E5FBE198F3'></pre></tt></strike></i>

          嘉盛资本通
          嘉盛资本通

          英伟达推出AI代工业务 为客户定制部署“超级模型” IT之家今日(7月24日)

          时间:2025-09-19 05:18:57 来源:

          IT之家今日(7月24日),超级模型英伟达公司昨日(7 月 23 日)发布新闻稿 ,英伟正式推出“NVIDIA AI Foundry”代工服务和“NVIDIA NIM”推理微服务。达推I代定制

          “NVIDIA AI Foundry”代工服务

          英伟达表示客户可以使用 Meta 的工业 Llama 3.1 AI 模型 ,以及英伟达的客户软件、计算和专业知识,部署为特定领域定制构建“超级模型” 。超级模型

          客户可以利用专有数据、英伟由 Llama 3.1 405B 和英伟达 Nemotron Reward 模型生成的达推I代定制合成数据来训练这些“超级模型”。

          NVIDIA AI Foundry 由 NVIDIA DGX™ Cloud AI 平台提供支持 ,工业该平台与世界领先的客户公共云共同设计  ,为企业提供大量计算资源,部署并可根据AI 需求的超级模型变化轻松扩展  。

          NVIDIA AI Foundry 包括 Nemotron 和 Edify 等英伟达创建的英伟 AI 模型 、流行的达推I代定制开放式基础模型、用于定制模型的 NVIDIA NeMo™ 软件,以及 NVIDIA DGX™ Cloud 上的专用容量(由 NVIDIA AI 专家构建并提供支持) 。

          输出结果由 NVIDIA NIM(一个推理微服务 ,其中包括定制模型 、优化引擎和标准 API)负责,可以部署到任何地方 。

          NVIDIA NIM 推理微服务

          NVIDIA NIM 是一套加速推理微服务,允许企业在云计算 、数据中心、工作站和 PC 等任何地方的 NVIDIA GPU 上运行AI模型。

          通过使用行业标准的 API ,开发人员只需几行代码就能利用 NIM 部署人工智能模型 。NIM 容器无缝集成 Kubernetes(K8s)生态系统 ,可以高效地协调和管理容器化人工智能应用 。

          更多内容请点击【休闲】专栏