Prompt 提示工程:与 AI 的沟通


9 个月前

如果我问你 “未来的数字语言是什么?”__你会怎么回答?是机器学习、人工智能还是算法?你听说过提示工程吗?这是将这些技术变为现实的重要工具之一。在这个人工智能迅速发展的时代,提出正确的问题已成为与获得正确答案同样重要的技能。那么,我们该如何提出正确的问题呢?你认为正确的问题能将人工智能带到何处呢?

什么是提示工程?

提示工程是一个专注于开发和优化提示的人工智能领域,以便与AI模型进行有效沟通。提示是一个自然语言文本,要求生成式AI执行特定任务。这些提示充当人类愿望与机器理解之间的桥梁,使模型能够产生更精确和相关的结果。

每个与AI合作的系统仅根据给定的输入进行操作。输入定义得越清晰,结果就越准确。这就是提示工程的作用所在。

有效的提示应该是什么样的?

  • 清晰提供相关的背景信息。

    我是一名准备教授三角函数的数学老师。

  • 具体避免不必要的信息。

    为15名学生准备一节40分钟的特别课程计划。

  • 开放式让它跳出框架思考。

    你能给出一些现实世界的例子,让课程对学生更有趣吗?

如上所示,有效的提示应该清晰、具体且开放。

None

提示工程

构建良好提示的几个关键要素共同使我们能够与AI进行更高效和有目的的互动。这些要素包括:

  • 指令 → 你应该明确你希望AI做什么。例如,你可以通过直接提问来引导信息搜索,比如 “X国的国王是谁?”
  • 角色 → 将AI置于特定的个性或视角会影响响应的语气和内容。例如,“你是简·K。给我写一个关于魔法的短故事。” 你可以给出创造性和具体的角色指引。
  • 输出格式 → 指定AI应输出的格式对于特定需求(如考试准备)尤其有用。例如,“我正在准备Y考试。给我一个最佳准备的清单。” 你可以明确你的格式要求。
  • 上下文 → 在请求中提供足够的上下文有助于AI给出更准确和有意义的响应。这在基于预先给定文本提问时尤其重要。
  • 示例 → 你可以提供示例来展示你希望AI以何种风格或格式回应。例如,你可以给出一段之前写的文本,并通过说_“写一些类似的内容。”_来引导你的提示。

通过这些要素,你的提示变得更加结构化、易于理解,并且以AI能够以最佳方式回应你的方式呈现。

None

照片由 Vadim Bogulov 提供,来源于 Unsplash

在与AI合作时,你可以以多种方式构建提示,使你想要的答案更具体且与目的相关。

指定你希望响应呈现的方式是有用的。例如,你可以要求它以列表格式呈现结果:“以项目符号的形式写出输出。”

你可以引导AI使复杂概念更易理解。例如,“像对5岁小孩解释一样解释主题X。” 这种方法使复杂信息更易于广泛受众理解。

你可以要求长答案或短答案,以便AI以最适合你的格式回应。你可以通过提示控制响应的数量,例如 “为我总结这个主题,写一个简短的段落”“给我更详细的解释。”

你还可以定义响应的情绪或语气。你可以通过要求正式、幽默、对话或更严肃的语气来定制响应的风格。例如,你可以通过说 “用正式的语气写答案”“你能以幽默的方式解释吗?” 来改变答案的语气。

None

照片由 Matt Ridley 提供,来源于 Unsplash

在撰写提示时,我们可以自定义文本格式,特别是如果有地方我们想强调。

我们可以用符号 # 写标题。用 # 写的标题比用 ## 写的标题格式更大。

# 旅游指南 → 标题 
## 意大利之旅 → 副标题

我们可以在我们想强调的单词前后加上双星号 (**) 或双下划线 (__) 来加粗。

**数据科学** 在当今世界中具有重要意义。

我们可以将我们想要指定的部分用引号 (" ") 括起来。

机器学习是一门旨在“从数据中学习”的科学。

如果我们希望输出被分段,可以在这些段落之间放置三条破折号 ( — — —)。

机器学习使用各种算法分析数据。
---
深度学习处理更复杂的数据结构。

训练技术

  • 零样本学习:

零样本学习允许模型仅通过指令执行任务,而不提供示例。

给我写一首关于日落的诗。

* 单样本学习:

这是通过向模型展示一个示例并要求其执行其他相同类型的任务。

英国的首都是什么?
- 伦敦
日本的首都是什么?
- 

* 少样本学习:

少样本学习意味着通过展示几个示例来训练模型。

英国的首都是什么?
- 伦敦
日本的首都是什么?
- 东京
土耳其的首都是什么?
- 安卡拉

* 思维链 (COT) 提示:

它使模型能够逐步思考并生成解决方案。

让我们一步一步地分解问题。 
你有10个鸡蛋,给了朋友4个。 
你还剩多少个鸡蛋?

None

照片由 bruce mars 提供,来源于 Unsplash

我们能相信结果吗?

有时,无论我们写出多好的提示,结果可能仍然不正确。结果应该在逻辑上是一致的、精确的、相关的和准确的。例如,如果我们要求AI提供某个主题的优缺点,可能会在两边写出相同的句子。我们应该始终自己检查。

还有另一种情况需要注意。在AI语言模型中,模型有时会自信地生成错误或不真实的信息。如果我们问 “谁是第一个踏上月球的人?” 而得到的答案不是 “尼尔·阿姆斯特朗”,我们应该知道这是幻觉。在这种情况下,我们可以要求它引用可靠的来源。

None

照片由 Rock'n Roll Monkey 提供,来源于 Unsplash

AI模型是用截至某个日期的数据进行训练的。因此,模型对截止日期之后发生的事件、更新或发展没有知识。例如,如果一个模型训练到2023年,它将不知道该日期之后的政治、科学或社会事件。需要注意的是,我们需要进行额外的研究来考虑这一点。

我们用来引导人工智能模型的提示不仅塑造了今天的技术,也塑造了未来的数字世界。每一个新问题都为创造性解决方案和不同发现打开了大门。提示工程是人工智能与人类更和谐合作的强大工具,这一领域在未来有望取得重大突破。谁知道,也许我们明天发出的一个命令将使智能系统以非常不同的方式感知世界。看到我们在这段旅程中共同发现的事物令人兴奋!

感谢你的时间。希望这对你有帮助。我期待你的反馈。

Linkedin

资源

FluxAI 中文

© 2025. All Rights Reserved