Rephrase and Respond :让大语言模型为自己提出更优的问题
摘要
误解不仅存在于人际沟通中,也存在于人类与大型语言模型(LLMs)之间。这类偏差可能导致LLMs以出人意料的方式理解看似明确的问题,从而给出错误的回答。尽管人们普遍认为prompt(例如问题)的质量会显著影响LLMs生成的回答质量,但目前仍缺乏一种系统的方法来构造LLMs更容易理解的问题。本文提出了一种名为“Rephrase and Respond”(RaR)的方法,允许LLMs在单个prompt中对人类提出的问题进行改写和扩展,并基于此作答。这种方法是一种简单而有效的提示方式,能够提升模型表现。
我们还提出了一种两步变体的RaR方法,先由一个改写型LLM对问题进行重述,再将原始问题与改写后的问题一并传递给另一个负责回答的LLM。这种机制可以促进不同LLM之间对改写问题的有效利用。
我们的实验表明,该方法能在多种任务中显著提升多个模型的性能。我们进一步将RaR方法与当前流行的Chain-of-Thought(CoT)方法进行了全面讨论,并展示RaR与CoT具有互补性,能够结合使用以获得更佳效果。我们的工作不仅有助于高效提升LLM的表现,也有助于更公平地评估LLM的能力。
1 引言
大型语言模型(LLMs),如GPT系列(Radford等,2019;Brown