论文略读:Efficient Reasoning for LLMs through Speculative Chain-of-Thought
202504 arxiv
- 现在LLM(如Deepseek-R1)在进行推理任务是,有两个缺点
- 参数量大(成本大)
- 思考过程长(速度慢)
- 之间的解决方法有两种
- 把大模型压缩成小模型
- 但小模型解题能力直线下降
- 让模型少进行一定的思考,直接给答案
- 但遇到难题时,草稿太短反而容易出错
- 把大模型压缩成小模型
- ——>论文提出SCoT(推测性思维链)
- 小模型快速生成多个短的思考过程
- 大模型选择最好的小模型的思考过程作为答案,
- 如果小模型全错,那就大模型重新生成一遍思考过程
- 小模型快速生成多个短的思考过程