# Tether 推出全球首个跨平台 LoRA 微调框架,让十亿参数 AI 模型在手机上也能训练
> 普通笔记本电脑、消费级 GPU,甚至智能手机,现在也能训练十亿参数级别的语言模型。
BlockBeats 消息,3 月 17 日,稳定币发行商 Tether 宣布,其 AI 平台 QVAC Fabric 推出了全球首个面向 **Microsoft BitNet(1-bit LLM)** 的跨平台 LoRA 微调框架。
这一突破性进展意味着,**十亿参数级别的大型语言模型** 将不再依赖昂贵的专业硬件,而可以在普通笔记本电脑、消费级 GPU 甚至智能手机上完成训练与推理。
—
## 大幅降低 AI 训练门槛
Tether 官方表示,该框架显著降低了 AI 模型训练对显存和算力的要求,支持包括 **Intel、AMD、Apple Silicon** 在内的多种处理器架构,以及 **Adreno、Mali、Apple Bionic** 等移动 GPU。
在实测中,团队展示了令人印象深刻的效率:
* **1.25 亿参数 BitNet 模型** 在 Samsung S25 上仅需约 **10 分钟** 即可完成微调;
* **10 亿参数模型** 在 Samsung S25 上耗时约 **1 小时 18 分钟**,在 iPhone 16 上约为 **1 小时 45 分钟**;
* 团队甚至成功在 **iPhone 16** 上完成了 **130 亿参数模型** 的微调,证明了其强大的设备兼容性与效率。
## 性能与能效双重突破
除了训练效率,该框架在推理性能与资源占用方面也表现卓越:
* **推理加速**:BitNet 模型在移动 GPU 上的推理速度,相比 CPU 可提升 **2 至 11 倍**。
* **显存优化**:测试显示,BitNet-1B 模型在推理与微调任务中的显存占用,相比传统的 16-bit 模型最高可减少 **77.8%**。
## 推动去中心化 AI 发展
Tether 首席执行官 Paolo Ardoino 阐述了此项技术的深远意义:
> “这项技术的目标是减少对大型云计算服务和专用 AI 硬件的依赖,使得 AI 模型的训练能够在本地设备上独立完成。这为 **去中心化 AI** 与 **联邦学习** 等创新模式奠定了坚实的技术基础。”
这一框架的推出,不仅降低了个人开发者和小型团队进入 AI 领域的门槛,也为保护数据隐私、实现分布式智能计算开辟了新的可能性。AI 开发正从集中化的云端,走向更广阔、更个性化的边缘设备。
原创文章,作者:admin,如若转载,请注明出处:https://www.23btc.com/160365/


