本文约2000字,建议阅读9分钟
本文为你提供使用ChatGPT优化提示的知识和技巧。
作为一个大型语言模型(LLM)接口,ChatGPT有令人印象深刻的潜力,但是真正能否用好取决与我们的提示(Prompt ),一个好的提示可以让ChatGPT晋升到一个更好的层次。
在这篇文章中,我们将介绍关于提示的一些高级知识。无论是将ChatGPT用于客户服务、内容创建,还是仅仅为了好玩,本文都将为你提供使用ChatGPT优化提示的知识和技巧。
2. 自我提问
该方法涉及模型在回答初始问题之前明确地问自己(然后回答)后续问题。
这个听起来就很玄学对吧,其实OpenAI是通过人类反馈强化学习 (Reinforcement Learning with Human Feedback) 的方法训练了他们的 GPT 模型,也就是说人工的反馈在训练中起了很重要的作用,所以ChatGPT 的底层模型与类人的逐步思考方法保持一致的。
4. ReAct
ReAct (Reason Act)方法包括结合推理跟踪和特定于任务的动作。
推理跟踪帮助模型规划和处理异常,而动作允许它从外部来源(如知识库或环境)收集信息。
5. Reflection
在ReAct模式的基础上,Reflection方法通过添加动态内存和自反射功能来增强LLM——可以推理和特定于任务的操作选择能力。
为了实现完全自动化,Reflection论文的作者引入了一种简单但有效的启发式方法,允许代理识别幻像(hallucinations),防止重复动作,并在某些情况下创建环境的内部记忆图。
这样的话无论提示是什么,最后都会将我们指定的目标发送给LLM。
总结ChatGPT响应是不确定的——这意味着即使对于相同的提示,模型也可以在不同的运行中返回不同的响应。如果你使用API甚至提供API服务的话就更是这样了,所以希望本文的介绍能够给你一些思路。
另外本文的引用如下:
Prompt injection attacks against GPT-3
https://simonwillison.net/2022/Sep/12/prompt-injection/
Ignore Previous Prompt: Attack Techniques For Language Models
https://arxiv.org/abs/2211.09527
Self-ask Prompting
https://ofir.io/Self-ask-prompting/
Large Language Models are Zero-Shot Reasoners
https://arxiv.org/abs/2205.11916
Reflexion: an autonomous agent with dynamic memory and self-reflection
https://arxiv.org/abs/2303.11366
ReAct: Synergizing Reasoning and Acting in Language Models
https://arxiv.org/abs/2210.03629
Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
https://arxiv.org/abs/2201.11903
作者:Ivan Campos
MORE
花粉社群VIP加油站
猜你喜欢