好的提示词能精准引导大模型的输出方向,避免结果偏离预期。对于 AI 交互,提示词是高效沟通的桥梁。好的提示词可节省反复修改时间,提升内容质量与契合度,确保获取信息或结果符合需求。
下文将以几种典型的提示词撰写方法为例,进行介绍:如何根据具体的应用场景来选择合适的提示词撰写方法。
- 零样本提示(Zero-shot):仅提供任务描述,不包含示例,适用于输出简单的任务的场景(如电影评论情感分析)。
提示词示例:请对以下电影评论进行情感分类,判断其是正面、负面还是中性:这部电影剧情紧凑,演员演技精湛,视觉效果震撼,整体观影体验非常棒,是一部不可多得的佳作。
- 少样本提示(Few-shot):通过1-5个示例引导模型学习模式(如将披萨订单解析为 JSON 格式),需确保示例的多样性和质量。适用于具有严格的输出格式要求的场景。
提示词示例:"请将以下披萨订单文本转换为结构化JSON格式,需包含尺寸、配料、配送要求等字段。示例如下:
-
- 示例1:
输入:'12寸薄饼披萨,加双倍芝士和意大利辣肠,备注:晚7点后配送'
输出:{"size":"12寸","crust":"薄饼","toppings":["双倍芝士","意大利辣肠"],"delivery":"晚7点后"}
-
- 示例2:
输入:'芝心边厚底披萨,不要青椒,多加蘑菇,地址:花园小区3栋'
输出:{"size":"未指定","crust":"厚底","crust_edge":"芝心","toppings":["蘑菇"],"exclude":["青椒"],"address":"花园小区3栋"}
- 系统提示(System Prompting):定义全局任务框架(如强制返回 JSON 格式或过滤有害内容),适用于结构化输出和安全性控制。
提示词示例:你是一个智能客服助手,需处理用户咨询并返回结构化回复。所有输出必须为JSON格式,包含question(用户问题)、answer(回复内容)、confidence(置信度,0-1)字段。同时,严禁输出任何包含个人隐私或敏感信息的内容。
- 角色提示(Role Prompting):赋予模型特定身份(如导游、代码审查员),以调整输出风格和视角。
提示词示例:你是一名专业的旅游规划师,擅长根据用户需求定制旅行方案。请以专业、细致的态度,结合当地特色与用户偏好,为计划前往巴黎的用户提供一份包含景点、美食、住宿的3日旅行攻略。
- 上下文提示(Contextual Prompting):提供任务相关背景信息(如针对机器学习领域最新研究热点问题的相关文章),增强输出的相关性。
提示词示例:你是一名AI行业分析师,需针对“AI大模型在自动驾驶中的实时决策优化”撰写分析报告。请参考以下网页信息:【多传感器时序对齐与动态注意力机制】和【2025年自动驾驶计算平台能效白皮书】作为背景信息进行撰写。
- 回溯式提示(Step-back Prompting):通过先回答抽象问题(如“游戏关卡设计的核心原则”)再解决具体任务,激活模型的深层知识,提升复杂问题(如设计游戏剧情)的解决能力。
提示词示例:你是一名游戏设计师,请先阐述游戏剧情设计的核心原则,如叙事逻辑、情感共鸣与玩家参与度平衡。接着,运用这些原则设计一个科幻主题的游戏剧情大纲,要求包含关键情节转折与角色成长路径,并说明设计思路。
以下为几种提升模型推理能力的提示方法:
- 思维链(Chain of Thought,简称CoT):要求模型分步解释推理过程(如数学问题),显著提高复杂任务(如漏洞分类)的准确性。需注意输出长度增加带来的成本。适合场景:那些特别复杂、逻辑链条长的任务。
- 自洽性(Self-consistency):多次生成不同推理路径,通过多数投票选择最优答案,增强鲁棒性(如邮件分类任务中平衡矛盾结果)。适合场景:在结果可能有矛盾、不确定的任务里特别有用。
- 思维树(Tree of Thoughts,简称ToT):允许多路径并行推理(如图1对比CoT与ToT),适用于需探索性决策的任务(如多步骤规划)。适合场景:对于那些需要广泛探索、尝试多种可能性才能做出决策的任务很合适。
- 推理与行动(Reason & Act,简称ReAct):结合推理与外部工具调用(如搜索API),模拟人类“思考-行动”循环(如通过Google搜索汇总乐队成员子女数量)。适合场景:那些需要实时、准确数据才能得出正确结果的任务。