BlockBeats 消息,4 月 10 日,马斯克近日在 X 平台的一则回复意外引发外界热议:关于 Anthropic 旗舰模型的参数规模,外界开始基于马斯克言论进行“反向推算”。
在回应用户对 Grok 4.2 参数量的追问时,马斯克确认道:
> 「0.5 万亿总参数。当前 Grok 是 Sonnet 的一半,Opus 的十分之一。以其体量而言,这是一个非常强大的模型。」
如果按照马斯克所说的比例关系反推:
– **Grok 4.2 为 Opus 的十分之一**
⇒ **Claude Opus 参数量约为 5 万亿**
– **Grok 4.2 为 Sonnet 的一半**
⇒ **Claude Sonnet 参数量约为 1 万亿**
需要强调的是,**Anthropic 从未公开披露旗下任何模型的参数规模**。上述数字均来自马斯克相关表述的推算,并非官方披露数据。
与此同时,马斯克还提到 SpaceX AI 旗下 **Colossus 2** 超算集群正同步训练 **7 个模型**,其中最大规模或将达到 **10 万亿参数**。他还意味深长地补充:
> 「还有一些追赶要做。」
若推算结果属实,则 **Claude Opus(约 5 万亿参数)** 将成为当前已知部署模型中的参数“头部”;而 xAI 同步训练的 **10 万亿参数级模型**,也可能成为下一轮 AI 竞争格局变化的重要变量。
原创文章,作者:admin,如若转载,请注明出处:https://www.23btc.com/169425/


