不再是企业级GPU专利!稳定币巨头Tether推出首个手机端十亿级AI训练框架LoRA

不再是企业级GPU专利!稳定币巨头Tether推出首个手机端十亿级AI训练框架LoRA

币圈子(120btC.coM):在人工智能(AI)领域,训练强大模型向来被视为「烧钱」的代名词,高度依赖昂贵的NVIDIA系统或云端算力。然而,稳定币巨头Tether正试图用技术改写这个规则。Tether旗下的技术部门「Tether Data」于3月17日宣布,正式为其QVAC(Quantum Verse Automatic Computer)平台推出全球首个跨平台BitNet LoRA微调框架。

这项技术的核心价值在于:它能让具备「十亿参数规模(Billion-parameter)」的AI模型,在每个人口袋里的手机上直接进行个性化学习。

1-bit架构魔力:让手机性能「以小博大」

这项突破性进展建基于微软(Microsoft)推出的BitNet1-bit LLM架构。透过QVAC Fabric的优化,BitNet模型的内存占用与计算压力被降至极低水准。根据公告,该框架不仅支持常见的NVIDIA GPU,更实现了对Intel、AMD、AppleM系列晶片以及行动装置端Adreno(Android)、Mali、Apple Bionic GPU的全面兼容。

这意味着,原本只能在数据中心跑的AI,现在可以在你的手机上进行「Low-Rank Adaptation(LoRA)」微调。Tether指出,这种技术能让边缘设备处理比传统Q4量化模型「大2倍」的模型,展现出极致的储存优势。

实测数据曝光:Samsung S25与iPhone 16的惊人速度

Tether工程团队在公告中分享了令人振奋的实测数据,展示了该框架在现代手机上的实战能力:

  • 1.25亿参数模型:在Samsung S25上微调一个包含300份生物医学文件的资料集,仅需约10分钟。

  • 10亿(1B)参数模型:完成同样的微调任务,在Samsung S25上耗时1小时18分钟,而在iPhone 16上则为1小时45分钟。

  • 极限挑战:开发团队成功在iPhone 16上运行高达130亿(13B)参数模型进行微调,推向了行动装置的物理极限。

告别API密钥,打造100%隐私的个人AI

Tether执行长Paolo Ardoino一直强调:「如果你需要API密钥才能使用AI,那它就不真正属于你。」QVAC的核心理念即是「本地优先(Local-first)」。

透过BitNet LoRA框架,使用者可以让AI直接学习本地的邮件、笔记与讯息,而无需将任何数据上传至云端服务器。这不仅消除了企业对机敏数据被滥用的疑虑,更打破了AI开发仅局限于少数巨头垄断的现状。目前,QVAC Fabric LLM已作为开源软件(Apache2.0授权)发布,并在Hugging Face提供预选适配器,让全球开发者能即刻启动这场边缘运算的革命。