大语言模型 提示词的少样本案例的 演示选择与排序新突破
提示词中 演示示例的选择与排序
这篇论文《Rapid Selection and Ordering of In-Context Demonstrations via Prompt Embedding Clustering》聚焦于提升大语言模型(LLMs)在自适应上下文学习(ICL)场景中演示示例的选择与排序效率
一、论文要解决的问题
在上下文学习(ICL)中,大语言模型仅依靠少量演示示例就能完成任务,但模型性能对演示示例的顺序极为敏感。然而,目前对于这种顺序敏感性的内在机制尚缺乏清晰的理解。此外,在自适应ICL场景中,若要通过穷举法搜索最优演示顺序,其时间复杂度高达阶乘级别(如n个示例的排列组合为n!),这在实际应用中效率极低,难以实现。
核心挑战:
- 深入理解演示顺序影响模型性能的内在原因。
- 找到一种高效的方法,在保证模型性能的前提下&