摘要:如图所示,BitNet b1.58 2B 在内存、延迟、能耗三项指标上全面领先更狠的是,和常见的 INT4 量化模型比,BitNet b1.58 2B4T 在内存进一步压缩的情况下,性能反而更稳,几乎没有明显损失。而且,不只是干掉传统PTQ量化,放到同类1-b
原创 文摘菌 大数据文摘
图注:如图所示,BitNet b1.58 2B 在内存、延迟、能耗三项指标上全面领先更狠的是,和常见的 INT4 量化模型比,BitNet b1.58 2B4T 在内存进一步压缩的情况下,性能反而更稳,几乎没有明显损失。而且,不只是干掉传统PTQ量化,放到同类1-bit模型里,BitNet b1.58 2B4T 也是一骑绝尘,甚至比部分更大参数、后量化的模型还强。04 one more thingBitNet b1.58 2B4T 已经是1-bit模型的天花板,但团队还留了不少悬念:如何实现更大规模扩展(7B、13B)?怎样支持更长上下文,挑战大段落、复杂推理任务?多语言、多模态集成,让1-bit模型也能“看图说话”软硬件协同,期待新一代AI芯片为低比特模型量身定做理论层面,1-bit训练为啥能这么有效?还有哪些魔法值得挖掘?原标题:《微软发布全球首个1-bit大模型:内存缩至0.4 GB,参数只有0和±1,性能追平全精度》 来源:小丁科技讲堂
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!