发布于 6 天前
摘要
DPO可否拆分为两个阶段的SFT,一个最小化正样本loss,一个最大化负样本loss? 一、DPO是什么? DPO(Direct …
DPO可否拆分为两个阶段的SFT,一个最小化正样本loss,一个最大化负样本loss? 一、DPO是什么? DPO(Direct …
在 In-Context RL 的研究热潮中,往往存在一种惯性思维,认为只要把 Transformer 做大,把上下文窗口拉长,模 …
过去一年来, o1和DeepSeek-R1 的神话,结合媒体的宣传,让 RL 特别像武侠小说里的绝世功法:给个 reward,堆上 …
在大语言模型(LLMs)竞争日趋白热化的今天,「推理能力」已成为评判模型优劣的关键指标。OpenAI 的 o 系列、Anthrop …
本文虽然标题中提到“类 PPO 算法”,但更准确地说,DAPO 和 GSPO 都可以视作在 GRPO 框架下,针对不同任务场景的一 …