Prompt Engineering大语言模型提示策略

https://youtu.be/xEhwtCY6t0M

这是一份详尽的白皮书,作者是 Google 的 Lee Boonstra,面向希望通过提示工程(Prompt Engineering)提升大语言模型(LLM)使用效果的开发者和产品设计者。文档围绕 Gemini 模型Vertex AI 展开,也适用于如 GPT、Claude、LLaMA 等其他模型。

🧩主要内容概览:

1. 提示工程基础

  • Prompt 是 LLM 输入的主要接口,是指导模型生成输出的关键。
  • 一个好的 Prompt 会结合任务目标、模型选择、参数配置、结构设计等元素。

2. LLM输出控制参数

  • Temperature:控制输出的“随机性”或“确定性”。
  • Top-K / Top-P(Nucleus Sampling):控制采样范围。
  • Token 长度:限制输出字数,影响成本和性能。

3. 提示设计方法

  • Zero-shot、One-shot、Few-shot:无示例/一个示例/多个示例。
  • System Prompting:设定整体任务背景和输出要求。
  • Role Prompting:让模型扮演某个角色(如旅游顾问)。
  • Contextual Prompting:加入额外上下文帮助模型理解任务。

4. 高级技巧

  • Step-back Prompting:先问一个通用问题再细化任务。
  • Chain of Thought (CoT):引导模型逐步思考,适用于复杂推理任务。
  • Self-consistency:通过多次生成、取多数意见来提升一致性。
  • Tree of Thoughts (ToT):多路径推理的泛化版本。
  • ReAct (Reason + Act):结合思考和工具调用,实现 agent-like 交互。
  • 自动提示生成(APE):用模型生成提示,再筛选优化,形成自动迭代闭环。

5. 代码相关提示

  • 提供生成代码、解释代码、翻译代码、调试代码等提示技巧。

6. 多模态提示

  • 支持将图像、音频、代码等作为输入,与文本提示结合。

7. 最佳实践

  • 提供清晰、简洁、具体的指令优于负向约束。
  • 推荐使用变量、控制 token 数量、混合输入格式。
  • 持续测试和记录每次提示的效果,有助于优化。

谷歌原文:https://drive.google.com/file/d/1AbaBYbEa_EbPelsT40-vj64L-2IwUJHy/view?pli=1

油管:https://youtu.be/xEhwtCY6t0M

了解 Tarogo Cloud Bloger & Shop 的更多信息

立即订阅以继续阅读并访问完整档案。

继续阅读