<code id='EA7913EAD2'></code><style id='EA7913EAD2'></style>
    • <acronym id='EA7913EAD2'></acronym>
      <center id='EA7913EAD2'><center id='EA7913EAD2'><tfoot id='EA7913EAD2'></tfoot></center><abbr id='EA7913EAD2'><dir id='EA7913EAD2'><tfoot id='EA7913EAD2'></tfoot><noframes id='EA7913EAD2'>

    • <optgroup id='EA7913EAD2'><strike id='EA7913EAD2'><sup id='EA7913EAD2'></sup></strike><code id='EA7913EAD2'></code></optgroup>
        1. <b id='EA7913EAD2'><label id='EA7913EAD2'><select id='EA7913EAD2'><dt id='EA7913EAD2'><span id='EA7913EAD2'></span></dt></select></label></b><u id='EA7913EAD2'></u>
          <i id='EA7913EAD2'><strike id='EA7913EAD2'><tt id='EA7913EAD2'><pre id='EA7913EAD2'></pre></tt></strike></i>

          嘉盛资本通
          嘉盛资本通

          英伟达推出AI代工业务 为客户定制部署“超级模型” IT之家今日(7月24日)

          时间:2025-09-19 08:37:35 来源:

          IT之家今日(7月24日) ,超级模型英伟达公司昨日(7 月 23 日)发布新闻稿 ,英伟正式推出“NVIDIA AI Foundry”代工服务和“NVIDIA NIM”推理微服务 。达推I代定制

          “NVIDIA AI Foundry”代工服务

          英伟达表示客户可以使用 Meta 的工业 Llama 3.1 AI 模型,以及英伟达的客户软件、计算和专业知识,部署为特定领域定制构建“超级模型” 。超级模型

          客户可以利用专有数据 、英伟由 Llama 3.1 405B 和英伟达 Nemotron Reward 模型生成的达推I代定制合成数据来训练这些“超级模型”。

          NVIDIA AI Foundry 由 NVIDIA DGX™ Cloud AI 平台提供支持,工业该平台与世界领先的客户公共云共同设计,为企业提供大量计算资源,部署并可根据AI 需求的超级模型变化轻松扩展 。

          NVIDIA AI Foundry 包括 Nemotron 和 Edify 等英伟达创建的英伟 AI 模型 、流行的达推I代定制开放式基础模型 、用于定制模型的 NVIDIA NeMo™ 软件,以及 NVIDIA DGX™ Cloud 上的专用容量(由 NVIDIA AI 专家构建并提供支持) 。

          输出结果由 NVIDIA NIM(一个推理微服务,其中包括定制模型 、优化引擎和标准 API)负责,可以部署到任何地方 。

          NVIDIA NIM 推理微服务

          NVIDIA NIM 是一套加速推理微服务 ,允许企业在云计算、数据中心、工作站和 PC 等任何地方的 NVIDIA GPU 上运行AI模型 。

          通过使用行业标准的 API,开发人员只需几行代码就能利用 NIM 部署人工智能模型 。NIM 容器无缝集成 Kubernetes(K8s)生态系统,可以高效地协调和管理容器化人工智能应用 。

          更多内容请点击【时尚】专栏