根据 **[1M AI News](https://t.me/OneMillion_AI)** 的监测,**Anthropic** 拒绝公开其 **Mythos** 的模型架构,但一项“异常”测试成绩迅速点燃了社区猜测。
—
## Mythos 测出来“很不对劲”
Anthropic 官方的 **system card** 显示:在 **GraphWalks BFS** 测试中(让模型在复杂图结构里执行**广度优先搜索**),Mythos 得分 **80.0%**;而 **Opus 4.6** 为 **38.7%**,**GPT-5.4** 仅 **21.4%**。
值得注意的是:在其他基准任务上,模型之间的差距并没有出现如此夸张的拉开。
—
## 社区第一时间盯上了“循环语言模型”
Meta 机器学习工程师 **Chris Hayduk** 最先指出,这种异常尖峰“恰好”指向一种特定架构:**循环语言模型(Loop Language Model)**。
字节跳动 **Seed** 团队在去年 10 月发表论文提出 **LoopLM**。其核心思路是:
让同一组 **Transformer 层**对输入反复运行多轮,在模型内部完成推理;而不是像当前大量依赖“思维链”那样,通过生成大量文本来“思考”。
论文的共同作者中,还包括图灵奖得主 **Yoshua Bengio**。论文中也明确指出:**图搜索**正是这种架构的理论强项。
更关键的是,论文开源的小模型 **Ouro** 中:
– **14 亿参数**版本即可打平约 **40 亿参数**的标准模型。
—
## 第二条线索:token 用得少,但速度更慢
另一个支持猜测的细节来自 **SWE-bench** 测试。
Mythos 在 SWE-bench 上消耗的 **token 量**,仅为 **Opus 4.6 的 1/5**;但其**推理速度反而更慢**。
这与普通直觉形成反差:通常模型输出越少会越快。
不过,如果“计算被藏在模型内部的反复迭代里”,那么这种矛盾就能被解释通。
—
## Anthropic:架构被标注为“研究敏感信息”
目前,Anthropic 将相关架构列为 **「研究敏感信息」**,并未作出回应。
这一切依然是推测;但若确有其事,这意味着下一代顶级模型的架构突破,可能**部分源自中国团队的公开研究成果**。
原创文章,作者:admin,如若转载,请注明出处:https://www.23btc.com/170409/


