Jay 发自 凹非寺量子位 | 公众号 QbitAI
盼星星盼月亮,千呼万唤的DeepSeek-R2没盼到,R1又抱着琵琶出来溜了一圈
还记得去年登上《Nature》封面的那篇关于R1的论文吗?
DeepSeek又悄悄给它塞了64页的技术细节。
是的,你没看错,直接从22页干到86页,简直可以当教科书看了……
谁能想到,论文发布都快一年过去了,DeepSeek居然还能更这么多东西。
把两份论文对着一看,发现这件事不简单。
新版本论文的信息量很大,不止是补了几块附录,正文也被大幅度翻修,几乎像重写了一篇。
在看新论文前,先简单回溯下去年一月份发的v1版。
这个版本围着DeepSeek-R1-Zero展开,重点是释放信号:纯强化学习这条路,是能走通的。
相比起来,v2明显在具体的实现细节上下了更多笔墨。
就比如R1这部分,DeepSeek这次系统性把R1的完整训练路径展开了。
整个过程分成四步:
第一步,冷启动。用数千条能体现思考过程的CoT数据,对模型做SFT。
第二步,推理导向RL。在不破坏对话思考风格的前提下,继续提升模型能力,同时引入语言一致性奖励,解决语种混用的问题。
第三步,拒绝采样和再微调。同时加入推理数据和通用数据,要让模型既会推理、也会写作。
第四步,对齐导向RL。打磨有用性和安全性,让整体行为更贴近人类偏好。
一路读下来有个感受:DeepSeek是真不把咱当外人啊……
冷启动数据怎么来的,两轮RL各自干了什么,奖励模型怎么设,全都写得明明白白。简直跟教科书没啥区别了。
除了R1,R1-Zero的部分也有补充,主要是关于「Aha Moment」这件事。
在v1版本中,DeepSeek展示过一个现象:随着思考时长的Scaling,模型会在某个时刻突然出现学会「反思」。
这次,DeepSeek对这种涌现做了更多的分析,放在附录C.2中:
先挑了一批具有代表性的反思性词汇,比如「wait」「mistake」「however」等,由几位人工专家筛选、合并成一份最终词表,然后统计这些词在训练过程中出现的频率。
结果显示,随着训练推进,这些反思性词汇的出现次数,相比训练初期直接涨了大约5到7倍。
关键在于,模型在不同阶段,反思习惯还不太一样
拿「wait」举例,在训练早期,这个词几乎从不出现,但等到8000步之后,突然出现个明显的峰值曲线。
不过,DeepSeek-R1虽然大幅提升了推理能力,但毕竟是开源模型,如果安全性工作做的不到位,很容易被微调后用于生成危险内容。
在v1版论文里,DeepSeek有提到针对安全性做了RL。这次,他们详细披露了相关细节和评估方式。
为评估并提升模型的安全性,团队构建了一个包含10.6万条提示的数据集,依据预先制定的安全准则,标注模型回复。
奖励模型方面,安全奖励模型使用点式(point-wise)训练方法,用于区分安全与不安全的回答。其训练超参数与有用性奖励模型保持一致。
风险控制系统方面,DeepSeek-R1通过向DeepSeek-V3发送风险审查提示来实现,主要包含两个流程:
1、潜在风险对话过滤。
每轮对话结束,系统会将用户输入和一份与安全相关的关键词匹配,一旦命中,就会被标记为「不安全对话」。
2、基于模型的风险审查。
识别成功后,系统会将这些不安全对话和与预设的风险审查提示(下图)拼接在一起,并发送给DeepSeek-V3进行评估,判断是否要拦截。
事实证明,引入风险控制系统后,模型的安全性得到了显著提升。在各种benchmark上,R1的表现与前沿模型水平相近。
唯一的例外是HarmBench,R1在其测试集中知识产权相关问题上表现不佳。
DeepSeek自己也构建了一套内部安全评测数据集,主要分为4大类、共28个子类,总计1120道题目。
评测方法上,团队采用了LLM-as-a-Judge的评估范式,用GPT-4o对模型输出进行安全性判定,将问答划分为以下三类:
下图展示了DeepSeek-V3、DeepSeek-R1、Claude-3.7-Sonnet和GPT-4o在该测试集上的表现。
除了这些干货,有网友从作者栏中扒出来个小细节——
论文发表将近一年后,18位核心贡献者,全员仍在DeepSeek团队里。
总计的100多位作者中,也只有5位被打了星号(已离开团队)。
而在去年的作者栏里,一共有6个星号——比今年还多一个
对着数了一下,这个消失的星号来自Ruiqi Ge
这位此前离队的作者,如今已回到了团队。
在人才狙击战如此激烈的AI行业,DeepSeek的团队成员非但没怎么流失,甚至还「回流」了一位。
拿来跟硅谷对比下,未免过于反差。
前段时间,OpenAI的首席研究官Mark Chen在播客上爆料:
我团队的一位核心研究员告诉我,扎克伯格带着自己煮的南瓜汤出现在他家门口。
听起来挺温情,但从LeCun离职风波的一系列「鸡飞狗跳」来看,小扎的「煲汤式招聘」,在为Meta带来成绩之前,好像先让内部文化出现了缝隙。
老员工被裁是最明显的,然而就连最「得宠」的亚历山大王,据说有时也会对「王」的导师——扎克伯格,感到颇为不耐烦
小扎呀,煲汤这招如果不好使,咱要不找DeepSeek取取经?
说实话,真有点没想到。信息密度这么高的材料,居然只是拿来给一篇旧论文「打补丁」。
要知道,大多数期刊论文都是发完就算数了,后续要补也顶多是补个勘误说明。
DeepSeek这次,直接往里塞了64页新内容。
而且一点消息没透露,还是网友们自己发现的。
所以,这些技术细节,究竟是原本就有,只是当时不方便公开;还是团队为了解答大家的疑问,索性写了份「说明书」?
不管答案是哪一个,如此细致的工程披露,无疑又把R1的可复现性往前推了一大步。
从时间点来看也挺耐人寻味。
R1的补充材料,憋这么久都没发,偏偏是在论文将满一周年时拿出来,像是在给R1画句号一样。
难道……春节又有大的要来了?
R2,还是V4?
v2版论文链接:
https://arxiv.org/abs/2501.12948v2