英伟达开源120B智能体模型,吞吐量达前代5倍

英伟达开源120B智能体模型,吞吐量达前代5倍

# 英伟达开源1200亿参数大模型Nemotron 3 Super,推理吞吐量提升5倍,专为多智能体场景打造

据[1M AI News监测](https://t.me/OneMillion_AI)消息,英伟达近日正式发布开源大语言模型**Nemotron 3 Super**,该模型专为多智能体应用场景设计,在架构创新与性能表现上均实现重要突破。

## 🔥 核心亮点:1200亿参数与创新架构

– **模型规模**:总参数量达**1200亿**,采用混合**Mamba-Transformer MoE**架构
– **高效推理**:每个token仅激活**120亿参数**,大幅提升推理效率
– **突破性技术**:引入**「潜在MoE」(Latent MoE)**技术,将token嵌入压缩至低秩潜在空间后再路由至专家网络
– **性能飞跃**:以单个专家的计算成本同时激活**4个专家**,推理吞吐量较上一代**最高提升5倍**

## 🌐 原生支持百万级上下文,专为智能体优化

Nemotron 3 Super原生支持**100万token上下文窗口**,特别适用于需要长时间保持工作流状态的自主智能体应用。在评估智能体工作负载的**PinchBench基准测试**中,该模型得分**85.6%**,成为同类开源模型中的最高分。

## 📦 完整生态支持

英伟达此次同步开源了:
– **超过10万亿token的训练数据集**
– **15个强化学习训练环境和评估方案**
– 采用**NVIDIA Nemotron Open Model License**许可协议

## 🚀 多平台部署与行业应用

模型已上线多个主流平台:
– **Hugging Face**
– **build.nvidia.com**
– **Perplexity**
– **OpenRouter**

支持通过以下云服务部署:
– **Google Cloud**
– **Oracle**
– **AWS Bedrock**
– **Azure**

## 🏢 行业先锋已率先采用

多家知名企业已开始采用Nemotron 3 Super:
– **Perplexity**
– **CodeRabbit**
– **Cadence**
– **达索系统**
– **西门子**

这款模型的发布标志着英伟达在开源大模型领域的重要布局,为多智能体应用开发提供了强大的基础设施支持。

原创文章,作者:admin,如若转载,请注明出处:https://www.23btc.com/158832/

(0)
上一篇 13小时前
下一篇 13小时前

相关推荐