Prompt Engineering 简介 #

什么是大语言模型? #

在了解 Prompt Engineering 之前,我们需要先理解大语言模型(Large Language Model,LLM)的概念。大语言模型是一种基于深度学习的 AI 系统,通过海量文本数据训练,能够理解和生成人类语言。

text
┌─────────────────────────────────────────────────────────────┐
│                     大语言模型工作原理                         │
├─────────────────────────────────────────────────────────────┤
│                                                             │
│  ┌──────────────┐    ┌──────────────┐    ┌──────────────┐  │
│  │   输入文本    │ →  │   模型处理    │ →  │   输出文本    │  │
│  │  (Prompt)    │    │  (LLM)       │    │  (Response)  │  │
│  └──────────────┘    └──────────────┘    └──────────────┘  │
│                                                             │
│  输入:"请解释什么是机器学习"                                  │
│                        ↓                                    │
│  输出:"机器学习是人工智能的一个分支..."                        │
│                                                             │
└─────────────────────────────────────────────────────────────┘

主流大语言模型 #

text
┌─────────────────────────────────────────────────────────────┐
│                     主流大语言模型                            │
├─────────────────────────────────────────────────────────────┤
│                                                             │
│  OpenAI                                                     │
│  ├── GPT-3.5    早期版本,性价比高                           │
│  ├── GPT-4      最强推理能力                                 │
│  └── GPT-4 Turbo 更快速度,更长上下文                        │
│                                                             │
│  Anthropic                                                  │
│  ├── Claude 3 Haiku   快速响应                               │
│  ├── Claude 3 Sonnet  平衡性能                               │
│  └── Claude 3 Opus    最强能力                               │
│                                                             │
│  Google                                                     │
│  ├── Gemini Pro      通用模型                                │
│  └── Gemini Ultra    高级模型                                │
│                                                             │
│  开源模型                                                    │
│  ├── LLaMA 2/3       Meta 开源                              │
│  ├── Mistral         欧洲开源                               │
│  └── Qwen            阿里开源                               │
│                                                             │
└─────────────────────────────────────────────────────────────┘

什么是 Prompt Engineering? #

Prompt Engineering(提示词工程)是设计和优化输入给大语言模型的提示词(Prompt)的过程,目的是获得更准确、更相关、更高质量的输出结果。

核心定义 #

text
Prompt Engineering = 设计 + 优化 + 评估

设计:构建清晰、结构化的提示词
优化:迭代改进提示词以获得更好结果
评估:测试和验证提示词的效果

为什么需要 Prompt Engineering? #

text
问题场景:
─────────────────────────────────────────────────
用户:帮我写一篇文章
AI:什么主题?什么风格?多长?给谁看?

优化后:
用户:请以专业科技博客的风格,写一篇关于人工智能
     未来发展趋势的文章,面向普通读者,约1000字,
     需要包含具体案例和预测

AI:[生成高质量文章]
─────────────────────────────────────────────────

Prompt Engineering 的历史 #

发展历程 #

text
2020年 ─── GPT-3 发布
    │
    │      展示了提示词的重要性
    │      "Prompt" 概念开始流行
    │
2021年 ─── Prompt Engineering 兴起
    │
    │      研究人员开始系统研究
    │      Few-shot Learning 概念提出
    │
2022年 ─── ChatGPT 爆发
    │
    │      大众开始接触提示词
    │      应用场景急剧扩展
    │
2023年 ─── 技术成熟
    │
    │      Chain of Thought 广泛应用
    │      专业工具和框架出现
    │
2024年 ─── 产业化应用
    │
    │      企业级应用普及
    │      成为必备技能

重要里程碑 #

时间 事件 意义
2020 GPT-3 发布 展示了大规模语言模型的能力
2021 Few-shot 论文 提出了少样本学习方法
2022 ChatGPT 发布 AI 进入大众视野
2022 Chain of Thought 提升复杂推理能力
2023 GPT-4 发布 多模态能力增强
2023 Prompt 工具涌现 专业化工具和平台出现

Prompt Engineering 的核心概念 #

1. 提示词(Prompt) #

提示词是用户输入给大语言模型的文本,包含问题、指令、上下文等信息。

text
提示词组成:
├── 指令(Instruction)- 告诉 AI 要做什么
├── 上下文(Context)- 提供背景信息
├── 输入数据(Input)- 需要处理的数据
└── 输出格式(Output Format)- 期望的输出形式

2. 补全(Completion) #

模型根据提示词生成的输出文本。

text
Prompt: "将以下句子翻译成英文:你好,世界"
Completion: "Hello, World"

3. 上下文窗口(Context Window) #

模型能够处理的最大文本长度。

text
┌─────────────────────────────────────────────────────────────┐
│                    上下文窗口示意                              │
├─────────────────────────────────────────────────────────────┤
│                                                             │
│  [系统提示] [用户历史消息] [当前提示词] ← 上下文窗口           │
│                                                             │
│  GPT-4 Turbo: 128K tokens ≈ 10万汉字                        │
│  Claude 3: 200K tokens ≈ 15万汉字                           │
│  Gemini: 1M tokens ≈ 75万汉字                               │
│                                                             │
└─────────────────────────────────────────────────────────────┘

4. Token #

文本的最小处理单位,通常一个英文单词约等于 1-2 个 Token,一个汉字约等于 1-2 个 Token。

text
文本: "Hello World"
Tokens: ["Hello", " World"] = 2 tokens

文本: "你好世界"
Tokens: ["你", "好", "世", "界"] = 4 tokens

Prompt Engineering 的核心原则 #

原则一:清晰明确 #

text
❌ 不好的提示词:
"写点东西"

✅ 好的提示词:
"请写一篇关于人工智能发展历程的文章,约800字,
  面向大学生读者,使用通俗易懂的语言"

原则二:提供上下文 #

text
❌ 不好的提示词:
"这段代码有什么问题?"
(没有提供代码)

✅ 好的提示词:
"以下 Python 代码在处理大文件时出现内存错误,
  请分析原因并给出优化建议:

  def process_file(filename):
      with open(filename) as f:
          lines = f.readlines()
      return [line.strip() for line in lines]"

原则三:指定格式 #

text
❌ 不好的提示词:
"列出 Python 的优点"

✅ 好的提示词:
"请以表格形式列出 Python 的主要优点,
  包含以下列:优点名称、详细说明、适用场景"

原则四:分步引导 #

text
❌ 不好的提示词:
"计算 (15 + 27) × 3 - 8"

✅ 好的提示词:
"请一步步计算以下表达式:(15 + 27) × 3 - 8
  要求展示每一步的计算过程"

Prompt Engineering 的应用场景 #

1. 内容创作 #

text
场景:文章写作、文案创作、脚本编写

示例提示词:
"你是一位资深的内容创作者,请为一家咖啡店写一段
 吸引人的社交媒体推广文案,风格温馨文艺,
 突出咖啡的品质和店铺的氛围,约150字"

2. 编程开发 #

text
场景:代码生成、代码审查、调试

示例提示词:
"请用 Python 写一个函数,实现以下功能:
 - 输入:一个包含整数的列表
 - 输出:列表中所有偶数的平方和
 - 要求:使用列表推导式,添加类型注解和文档字符串"

3. 数据分析 #

text
场景:数据解读、报告生成、趋势分析

示例提示词:
"以下是某电商平台过去12个月的销售额数据(单位:万元):
 [120, 135, 142, 138, 155, 168, 175, 182, 190, 185, 210, 245]
 请分析:
 1. 整体趋势如何?
 2. 哪些月份增长明显?
 3. 可能的影响因素有哪些?"

4. 教育学习 #

text
场景:知识问答、概念解释、学习辅导

示例提示词:
"请用简单易懂的语言向一个10岁的孩子解释
 什么是'光合作用',使用生活中的类比,
 并举一个具体的例子"

5. 商业应用 #

text
场景:市场分析、商业计划、决策支持

示例提示词:
"作为一位商业顾问,请分析开设一家社区便利店
 的可行性,需要考虑:
 1. 选址因素
 2. 目标客户群
 3. 竞争分析
 4. 盈利模式
 请给出结构化的分析报告"

Prompt Engineering 的价值 #

对个人 #

text
提升效率:
├── 减少沟通成本
├── 快速获得高质量输出
├── 自动化重复性工作
└── 学习新知识更快

能力提升:
├── 更好地利用 AI 工具
├── 提高工作质量
├── 拓展能力边界
└── 保持竞争力

对企业 #

text
业务价值:
├── 降低人力成本
├── 提高生产效率
├── 改善服务质量
└── 加速创新

应用场景:
├── 智能客服
├── 内容生产
├── 数据分析
├── 辅助决策
└── 流程自动化

Prompt Engineering vs 传统编程 #

特性 传统编程 Prompt Engineering
输入 代码 自然语言
输出 确定性结果 概率性结果
调试 断点、日志 迭代优化
学习曲线 较陡 较平缓
适用场景 精确逻辑 模糊任务
灵活性 需要修改代码 即时调整

学习路径 #

text
入门阶段
├── Prompt Engineering 简介(本文)
├── 基本概念与原理
└── 快速开始

基础阶段
├── 提示词结构设计
├── 常用技巧与方法
└── 提示词模板

进阶阶段
├── Few-shot Learning
├── Chain of Thought
└── 角色扮演与人格设定

高级阶段
├── 提示词优化策略
├── 安全与防护
└── 效果评估方法

实战阶段
├── 代码生成与辅助
├── 文本处理与分析
└── 数据分析与可视化

下一步 #

现在你已经了解了 Prompt Engineering 的基本概念,接下来学习 基本概念与原理,深入了解大语言模型的工作原理!

最后更新:2026-04-05