时间与地点
2026年1月,谷歌研究团队发布了一项关于大语言模型优化的研究成果,相关论文《Prompt Repetition Improves Non-Reasoning LLMs》在学术圈引起广泛关注。
核心人物与研究团队
该研究由Google Research团队主导完成。值得注意的是,这项发现颠覆了以往需要复杂提示工程的传统思路。
发生了什么事:简单重复提问的巨大能量
谷歌研究发现,只需将用户的提示词重复输入一遍,就能显著提升大模型在非推理任务中的表现。具体操作是将原来的 <QUERY> 变成了 <QUERY><QUERY>格式。
研究团队在7个主流模型上进行了大规模测试,包括Gemini 2.0 Flash、GPT-4o、Claude 3.7 Sonnet和DeepSeek-V3等,覆盖了ARC、OpenBookQA、GSM8K等7个常用基准测试。
实验结果令人震惊:在70组实验中,重复提示词在47组测试中取得胜利,且没有一次表现更差。特别是在一项名为”NameIndex”的定制测试中,Gemini 2.0 Flash-Lite的准确率从21.33%飙升至97.33%,提升幅度高达76个百分点。
技术原理:破解”因果盲点”
这种简单方法有效的背后,是解决了Transformer架构的一个根本限制——因果盲点。大模型通常从左到右处理文本,在处理后续内容时无法”回头看”前面的信息。重复输入让模型在处理第二遍内容时,能够参考第一遍的完整信息,从而获得类似双向注意力的效果。
有什么影响:AI优化的”免费午餐”
这项研究的实际影响深远,主要体现在三个方面:
-
成本效益显著:重复提示词几乎不增加响应时间,因为现代GPU处理预填充阶段高度高效,用户几乎感知不到差异。这意味着企业可以用更小的模型达到更优效果,大幅降低成本。
-
应用场景明确:该技术主要适用于非推理任务,如信息检索、分类和简单问答。对于需要复杂推理的任务,传统的”思维链”方法仍然更有效。
-
安全新考量:重复机制可能是一把双刃剑,既可能增强恶意提示的效果,也可能通过重复安全规则来强化模型防护,需要安全团队更新测试流程。
六、总结
谷歌的这项研究揭示了一个简单却强大的优化技术,通过重复提示词有效提升大模型性能。这一发现不仅挑战了复杂提示工程的传统思路,更为企业级AI应用提供了高性价比的优化方案,彰显了AI领域”简单即有效”的创新哲学。





没有回复内容