AI最佳实践:如果一开始没成功,那就再试一次,反复提示

qimuai 发布于 阅读:0 一手编译

AI最佳实践:如果一开始没成功,那就再试一次,反复提示

内容来源:https://www.geekwire.com/2026/ai-best-practices-if-at-first-you-dont-succeed-prompt-prompt-again/

内容总结:

AI提示工程实用指南:从“老虎机”到“电动工具”的进阶之路

近日,一篇关于如何有效使用AI的实操指南引发关注。文章指出,许多用户将AI当作“老虎机”,指望一次输入就能获得完美答案,结果往往失望而归。实际上,AI更像一把“电动工具”,关键在于掌握正确的“提问技巧”。

核心原则:把AI当“聪明但字面理解的新员工”

文章建议,用户应将大语言模型视为一位才华横溢但按字面意思执行指令的首日新员工。他们有能力,但需要极其精确的指令。检验提示词质量的一个黄金法则是:将你的问题拿给一位毫无背景的同事看,问他能否执行。如果不能,AI也不能。

但作者特别提醒,切勿将模型真的当作“人”。新员工会提问、会记住上下文、能发现指令不合理,但AI默认不会。利用这个比喻是为了提醒自己提供具体背景,而非期待模型拥有人类判断力。

三大基础技巧:立竿见影的效果

  1. 具体说明格式、长度、受众和约束条件:模糊的提示产生模糊的回答。例如,不要写“写一篇营销趋势分析”,而要写“分析过去六个月B2B SaaS领域最重要的三大营销趋势,每个附一个公司案例,并用一句话判断该趋势会加速还是趋缓。写成一篇面向非技术董事会、400字的简报。”

  2. 提供几个示例:这是日常提示中最具杠杆效应的操作。模型从示例中学习模式的速度远快于文字描述。用户只需提供两三个期望的输出格式,AI就能精准模仿。

  3. 告诉AI该做什么,而非不该做什么:负面指令更容易被违反。将“别太正式、别用术语、别无聊”改为“用温暖、对话式的口吻,就像一位聪明的同事在喝咖啡时向你解释,使用平实的英语和短句。”

进阶技巧:像程序员一样迭代

重要禁忌

结语

文章强调,最擅长使用AI的人不是那些拥有最棒提示模板的人,而是那些把模型当作推进工作的强大工具、愿意迭代对话的人。你无需一开始就清晰无比,好的对话能帮你发掘自己未曾考虑过的选项和问题。但识别正确答案的责任,始终在你肩上。

中文翻译:

[编者按:本文是奥伦·埃齐奥尼关于AI使用与最佳实践系列文章的第三篇。另见《AI教练还是AI代笔?选择权在你》和《如何借助AI进行阅读》。]

一位朋友曾就某专业事项向ChatGPT征求意见,得到的回应却平淡乏味、毫无新意。我建议她换个方式:先向AI索要15个不同思路,快速浏览后挑出两个最有潜力的,再让ChatGPT进行优化。她欣然照做,事后欣喜不已。ChatGPT并未变聪明,但她的提问技巧提高了。

这是我钟爱的一招:向AI索要多重选项,深入挖掘有潜力的方向,而最关键的是——如果初次尝试未达预期,那就再问、再问、再问!

下文将提供实用建议,教您如何将AI作为强力工具而非“老虎机”来使用。对于简单请求,这些方法或许有些大材小用,但若您认真对待提示词技巧,请继续阅读。

Anthropic公司针对其模型Claude的官方指南中有一条有用提示:将模型视为一个第一天入职、才华横溢但只会照章办事的新员工。他们有能力,但也是新手。他们会完全按你的指令行事,所以你必须明确说出自己的需求。

Anthropic团队的黄金法则是:将你的提示词展示给一位毫不知情的同事,问他能否照做。如果答案是否定的,那模型也同样无法执行。遵循这一原则可以养成几个习惯,在动用任何高级技巧之前,就能立即提升输出质量。

不过,我要提醒一点:不要将模型当作人。它不是。“才华横溢的新员工”这个描述只是一个有用的出发点,是比喻而非现实。新员工会追问细节、记得你昨天说过的话、发现指令不合理时也会提出疑问。Claude默认情况下则不会。可以借助这个比喻提醒自己表述要具体、提供上下文,但一旦开始期待模型具备人类判断力时,就要立刻放下这个比喻——因为它根本不具备这样的能力。

以下是一份操作指南,以列表形式呈现,便于查阅和定期复习。

对格式、篇幅、受众和限制条件要具体明确。

模糊的提示词产生模糊的输出。解决办法是说出你真正想要的内容。

提升提示词质量,往往只需明确限制条件。模糊的提示词会产生安全、圆滑、百科全书式的答案,因为模型没有关于优化目标的信号,只能默认提供全面覆盖。而具体的提示词会产生有观点、有用的答案,因为限制条件排除了安全但无用的选项。要求“三个”而非“一些”迫使模型进行排序。要求“加速或趋于平稳”迫使模型做出判断。要求“董事会简报”决定了哪些内容需要被删减。你每增加一个限制条件,模型就无法再回避一个决策。

提供几个示例。

这是日常提示词技巧中杠杆效应最高的操作。模型从示例中学习模式的速度快于从描述中学习。

告诉模型该做什么,而非不该做什么。

否定指令比肯定指令更容易被违反。改用肯定的表述方式能获得更清晰的结果。

让你的提示词风格与你期望的输出风格相匹配。

这一点可能会让一些人感到意外。如果你的提示词充满项目符号和粗体文本,模型也会返回项目符号和粗体文本。如果你想要流畅的散文,就用流畅的散文来写提示词。

这些习惯看似不起眼。但结合起来应用,就能将提示词从我的朋友最初操作的那种“觉得ChatGPT没什么用”的水平,提升到AI能带来丰厚回报的程度。本文后续部分的高级技巧就是建立在这个基础之上的,但如果提示词连基本要求都达不到,这些技巧也无能为力。

在基础之上,这里还有一套来自OpenAI、Google、一线开发者以及那些以构建生产级AI系统为职业的人们的有效习惯。与其说是技巧,不如说是工作流程规范。

迭代;将提示词视为测试驱动开发。

你的第一个提示词只是一个草稿。经验最丰富的从业者会构建少量测试用例(他们关心的输入),在所有用例上运行提示词,不断优化直到输出始终如一地好。已有多个开源工具包可以使这一循环流程化。

明确“完成”的定义。

OpenAI针对GPT-5的官方指南强调,要告诉模型什么才算完成回答。否则,模型会自行判断,往往在给出第一个看似合理的回答后就停止。

根据任务调整“努力程度”。

现代推理模型具备“努力”或“思考”程度的调节旋钮。提取和分类任务使用低努力;综合和策略任务使用高努力。大多数用户将其保持在默认状态,从而在处理难题时付出代价。

直接注入当前或专有语境。

注意避免模型不熟悉的行业术语和缩写(例如,使用“项目管理办公室”而不是缩写PMO)。模型无法访问你的内部文件。请粘贴相关材料。

建立个人提示词库。

这是专业人士的进阶操作。昨天行之有效的模式,明天很可能也依然有效。不必每次都从头重写。保存那些能持续产出良好结果的提示词,按任务类型进行组织。将它们视为活文档,而非一次性尝试。

以下是一些关键的禁忌:

从AI中获益最多的人,并非拥有最佳提示词模板的人。而是那些将模型视为推进工作的强大工具的人。 你无需在开始时就能清晰地表达自己到底想要什么。一次良好的对话就能帮你达成目标,揭示你独自一人可能会错过的选项和问题。但AI做不到的,是当正确答案出现时识别出它。这一部分,仍然取决于你。

延伸阅读……

供应商文档:

从业者资源:

编者按:GeekWire 发表来宾观点,旨在促进知情讨论并突出对科技与创业社群议题的多元视角。如果您有兴趣提交来宾专栏,请发送邮件至 [email protected]。我们编辑团队将对稿件进行相关性和编辑标准的审核。

英文来源:

[Editor’s Note: This is the third in a series by Oren Etzioni about AI usage and best practices. See also “AI Coach or AI Ghostwriter? The Choice Is Yours,” and “How to read with AI.”]
A friend asked ChatGPT for input on a professional matter and received a banal, lackluster response. I suggested she try a different approach: ask for 15 different ideas, scan them, pick the two that felt most promising, and then ask ChatGPT to refine. She came back overjoyed. ChatGPT had not gotten smarter, but she became better at prompting.
This is my favorite gambit: ask AI for many options, delve deeper into the promising ones, and most importantly, if at first you don’t succeed, prompt, prompt again!
What follows is practical advice on how to use AI as a power tool rather than a slot machine. For a simple request, it’s overkill, but if you’re serious about prompting, read on.
Anthropic’s own guidance for prompting Claude contains a helpful hint: treat the model as a brilliant but literal-minded new employee on their first day. They are capable. They are also new. They will do exactly what you ask, so you have to ask exactly what you want.
The Anthropic team’s golden rule is to show your prompt to a colleague with no context and ask whether they could follow it. If the answer is no, the model can’t either. This principle generates a handful of habits that lift output quality immediately, before any of the more advanced techniques come into play.
One caveat from me, though: don’t think of the model as a person. It’s not. The “brilliant new employee” framing is a useful starting point, but it’s a metaphor, not reality. A new hire asks follow-up questions, remembers what you said yesterday, and notices when an instruction is dumb. Claude does none of that by default. Lean on the metaphor to remember to be specific and provide context, but drop it the moment you start to expect human judgment that just isn’t there.
Here’s the playbook, organized as a list for easy reference and periodic review.
Be specific about format, length, audience, and constraints.
Vague prompts produce vague output. The fix is to say what you actually want.

Geekwire

文章目录


    扫描二维码,在手机上阅读