田渊栋和SergeyLevine参与开发新型RL算法
强化学习提升了 LLM 各方面的能力,而强化学习本身也在进化。现实世界中,很多任务很复杂,需要执行一系列的决策。而要让智能体在这些任务上实现最佳性能,通常需要直接在多轮相关目标(比如成功率)上执行优化。不过,相比于模仿每一轮中最可能的动作,这种方法的难度要大得
算法 rl 田渊 rl算法 sergeylevine 2025-03-23 18:25 4
强化学习提升了 LLM 各方面的能力,而强化学习本身也在进化。现实世界中,很多任务很复杂,需要执行一系列的决策。而要让智能体在这些任务上实现最佳性能,通常需要直接在多轮相关目标(比如成功率)上执行优化。不过,相比于模仿每一轮中最可能的动作,这种方法的难度要大得
算法 rl 田渊 rl算法 sergeylevine 2025-03-23 18:25 4
来自 Meta 等机构的研究者提出了一种新颖且高效的预训练框架:连续概念混合(Continuous Concept Mixing, CoCoMix),其将离散的下一个 token 预测与连续概念相结合。
transformer 田渊 概 革新transformer 2025-03-13 10:11 5
在 DeepSeek 能够破圈而出的一众原因中,完全摒弃传统的监督微调(SFT)、转而采用大规模强化学习(RL)的创新之处是关键所在,这使得模型推理能力在质上取得显著突破,更证明了强化学习在提升大语言模型推理能力方面的巨大潜力。
12月21日凌晨2点,OpenAI的12天直播,终于来到了最终章。奥特曼,也在一片圣诞的气息中终于回归。为大家带来了最后的压轴大戏。
OpenAI推出ChatGPT热线,用户可通过电话或WhatsApp直接与AI互动,无需联网;
针对大语言模型的推理任务,近日,Meta田渊栋团队提出了一个新的范式:连续思维链,对比传统的CoT,性能更强,效率更高。