Karpathy:大模型或改用HTML输出,终局是交互式神经

Karpathy:大模型或改用HTML输出,终局是交互式神经

据 **[动察 Beating](https://t.me/OneMillion_AI)** 监测,**“vibe coding”概念提出者、OpenAI 创始成员 Andrej Karpathy** 今日发文力挺 **Claude Code** 团队提出的做法:**用 HTML 取代 Markdown**。

他不但明确表示赞同这项改变,还进一步勾勒了 **AI 交互界面**的演进路线图,并预测:当大模型完成多轮形态迭代后,最终输出的终局形态将是——**“交互式神经视频”**。

## 从纯文本到 HTML:输出格式在加速进化

Karpathy 认为,AI 输出格式的演变存在清晰路径:

– **最早**:极难阅读的**纯文本**
– **随后**:更易表达的**Markdown**
– **当下趋势**:逐渐成为新标准、排版灵活性更强的**HTML**
– **中间还会经历多代过渡形态**(例如 4、5、6 等)
– **最终抵达(n)**:由扩散模型直接生成的**交互式神经视频**

在“终局形态”上,他还点名了前 OpenAI 研究员近期发布的 **无代码像素级渲染原型 Flipbook**,作为这一方向的直观参考。

## 核心逻辑:人脑的“物理带宽”决定最佳交互方式

在 Karpathy 看来,这一演进背后的根本原因是:**人脑的物理带宽**。

他指出,人类大脑中约 **三分之一**用于并行处理视觉信号——这相当于向大脑输入信息的**“十车道高速公路”**。

因此,人机融合交互的最优解应当是:

– **Input(人类对 AI)**:用沟通效率最高的**语音**来传达指令
– **Output(AI 对人类)**:用高带宽的**视觉画面**(图像、动画或视频)完成反馈

## 现实痛点:输入端仍不够“空间化”

同时,他也提到当前输入端仍有明显短板:
仅靠**语音或文本**,还不够精确,缺少类似在两人并排看电脑时那种能力——

> **用手指/比划,指向屏幕上某个具体区域**

他认为应尽快补齐这种**空间指示能力**。

## 立即可用的建议:提示词末尾加上 HTML 结构化指令

作为现阶段提升体验的捷径,Karpathy 给出了一个非常直接的建议:

**在提示词末尾加上:**
**“将回复结构化为 HTML”**

原创文章,作者:admin,如若转载,请注明出处:https://www.23btc.com/179686/

(0)
上一篇 4小时前
下一篇 3小时前

相关推荐