Prompt Engineering大语言模型提示策略
这是一份详尽的白皮书,作者是 Google 的 Lee Boonstra,面向希望通过提示工程(Prompt Engineering)提升大语言模型(LLM)使用效果的开发者和产品设计者。文档围绕 Gemini 模型 和 Vertex AI 展开,也适用于如 GPT、Claude、LLaMA 等其他模型。
🧩主要内容概览:
1. 提示工程基础
- Prompt 是 LLM 输入的主要接口,是指导模型生成输出的关键。
- 一个好的 Prompt 会结合任务目标、模型选择、参数配置、结构设计等元素。
2. LLM输出控制参数
- Temperature:控制输出的“随机性”或“确定性”。
- Top-K / Top-P(Nucleus Sampling):控制采样范围。
- Token 长度:限制输出字数,影响成本和性能。
3. 提示设计方法
- Zero-shot、One-shot、Few-shot:无示例/一个示例/多个示例。
- System Prompting:设定整体任务背景和输出要求。
- Role Prompting:让模型扮演某个角色(如旅游顾问)。
- Contextual Prompting:加入额外上下文帮助模型理解任务。
4. 高级技巧
- Step-back Prompting:先问一个通用问题再细化任务。
- Chain of Thought (CoT):引导模型逐步思考,适用于复杂推理任务。
- Self-consistency:通过多次生成、取多数意见来提升一致性。
- Tree of Thoughts (ToT):多路径推理的泛化版本。
- ReAct (Reason + Act):结合思考和工具调用,实现 agent-like 交互。
- 自动提示生成(APE):用模型生成提示,再筛选优化,形成自动迭代闭环。
5. 代码相关提示
- 提供生成代码、解释代码、翻译代码、调试代码等提示技巧。
6. 多模态提示
- 支持将图像、音频、代码等作为输入,与文本提示结合。
7. 最佳实践
- 提供清晰、简洁、具体的指令优于负向约束。
- 推荐使用变量、控制 token 数量、混合输入格式。
- 持续测试和记录每次提示的效果,有助于优化。
谷歌原文:https://drive.google.com/file/d/1AbaBYbEa_EbPelsT40-vj64L-2IwUJHy/view?pli=1