微软发布全球首个1-bit大模型:内存缩至0.4 GB,参数只有0和±1,性能追平全精度

360影视 日韩动漫 2025-04-22 16:40 2

摘要:如图所示,BitNet b1.58 2B 在内存、延迟、能耗三项指标上全面领先更狠的是,和常见的 INT4 量化模型比,BitNet b1.58 2B4T 在内存进一步压缩的情况下,性能反而更稳,几乎没有明显损失。而且,不只是干掉传统PTQ量化,放到同类1-b

原创 文摘菌 大数据文摘图注:如图所示,BitNet b1.58 2B 在内存、延迟、能耗三项指标上全面领先更狠的是,和常见的 INT4 量化模型比,BitNet b1.58 2B4T 在内存进一步压缩的情况下,性能反而更稳,几乎没有明显损失。而且,不只是干掉传统PTQ量化,放到同类1-bit模型里,BitNet b1.58 2B4T 也是一骑绝尘,甚至比部分更大参数、后量化的模型还强。04 one more thingBitNet b1.58 2B4T 已经是1-bit模型的天花板,但团队还留了不少悬念:如何实现更大规模扩展(7B、13B)?怎样支持更长上下文,挑战大段落、复杂推理任务?多语言、多模态集成,让1-bit模型也能“看图说话”软硬件协同,期待新一代AI芯片为低比特模型量身定做理论层面,1-bit训练为啥能这么有效?还有哪些魔法值得挖掘?原标题:《微软发布全球首个1-bit大模型:内存缩至0.4 GB,参数只有0和±1,性能追平全精度》

来源:小丁科技讲堂

相关推荐