摘要:自给自足的数据工厂传统模型依赖人工规则过滤代码数据,比如“必须包含注释”“不能有语法错误”。但程序员审美各异,规则容易打架,扩展性差。Seed-Coder的解决方案很“暴力”:让另一个LLM当裁判!团队训练了一个“代码质量评分器”,用LLM从可读性、模块化、
你是否想过,LLM训练自己的数据,还能比人类筛选的更高效?传统code大模型依赖人工制定规则筛选数据,成本高、效率低,还容易带偏模型。
论文:Seed-Coder: Let the Code Model Curate Data for Itself
而Seed-Coder团队直接“让LLM自己当老师”,用模型筛选数据训练自己,打造出一系列8B参数的轻量级开源代码模型,性能甚至超越百亿级对手!
1. 自给自足的数据工厂
传统模型依赖人工规则过滤代码数据,比如“必须包含注释”“不能有语法错误”。但程序员审美各异,规则容易打架,扩展性差。
Seed-Coder的解决方案很“暴力”:让另一个LLM当裁判!团队训练了一个“代码质量评分器”,用LLM从可读性、模块化、清晰度、复用性四个维度给代码打分,自动过滤低质量数据。
这种“LLM教LLM”的模式,让数据筛选效率提升百倍,最终构建了6万亿token的高质量代码训练库,支持89种编程语言!
2. 小身材大智慧的模型架构
Seed-Coder基于Llama 3架构,8.2B参数:
这种训练让模型像玩拼图一样学习代码逻辑,效果远超传统单模式训练。
3. 推理能力的训练法
Seed-Coder的推理模型用长思维链强化学习(LongCoT),专攻多步骤复杂编码问题。简单说,就是让模型先写解题思路,再生成代码,并通过反复试错优化逻辑链。
比如解算法题时,模型会先拆分问题:“第一步读输入,第二步排序,第三步计算极差……”再一步步写代码。这种“先想后做”的策略,让它在竞赛级题库中表现惊艳。
更惊人的是,它甚至能在竞赛编程平台Codeforces上达到1553分,接近人类铜奖水平!
可以预见,这类轻量高效的代码模型将加速渗透开发工具链,成为程序员24小时在线的“超级助手”已经不远了~(既感到欣慰,又感到危险有木有!
来源:有趣的科技君