近期各行各业已进入言必谈 ChatGPT 的阶段,大家津津乐道于 ChatGPT 的各种应用场景,比如怎么在自己的学习或工作中应用,提升效率。就连怎么跟 ChatGPT 提问对话,都发展出一门名为 Prompt Engineering 的新学科分支。
要最大程度地发挥 ChatGPT 的价值,就得对它的原理有一定的了解,这样就能知道它最适用的场景、目前的能力边界等。今天我就用大白话的方式,给大家分享下近期对它的研究和理解。
ChatGPT 和 GPT 是什么关系?简单讲,ChatGPT 是一个产品,GPT 是一个 AI 领域的大语言模型(Large Language Model,简称 LLM)。
ChatGPT 提供了自然语言对话(Chat)的方式,与这个大模型进行交互,得到用户想要的答案。
而大语言模型,你只需要记住它是一种可以对自然语言(也就是平时我们说的各种语言,如中文、英文、日文等)进行处理的程序,它最厉害的地方在于能够基于前面给定的文字,预测接下来可能出现的文本内容。
比如平时你用手机输入法打字或百度搜索,输入“明天天气”,系统就会提示“明天天气怎么样”,就运用了类似的技术。只不过这里的大语言模型,它用来学习和训练的数据量要大非常多,对应的能预测生成的内容也多非常多,可以直接生成一整段话甚至一篇文章。
GPT 是什么意思?GPT 的全称是生成式预训练转换器模型(Generative Pre-trained Transformer)。中文的翻译通常把 Transformer 略过不译,但这里的 Transformer 却恰恰是 GPT 区别于其它自然语言模型的最显著的地方。
Transformer,如果你经常看电影,会知道它也是「变形金刚」的英文。所以这里的 Transformer 你也可以把它理解为一种「变形转换器」,它可以把你输入的文字,转变成具备丰富维度信息的数学信息,以让计算机更好地理解,这样也就能输出与你的预期匹配度更高的内容。
生成式预训练,则表示这个模型,除了可以基于输入自动生成内容外,它的模型本身是经过提前训练的,而不是实时计算的。举个例子,你在考试前,会做 10 套真题,如果真正考试时,遇到你做过的或者类似的题目,你就可以运用相同的思路很快得出答案。你这个备考做真题的过程,就是「预训练」。而 GPT 与你备考的不同,则在于它训练的数据是海量的互联网数据。
如果你想更快地抄作业,还可以参考这个开源库的指令示例合集 https://github.com/f/awesome-chatgpt-prompts/blob/main/prompts.csv,里面有大量的例子,相信对你一定有启发。
花粉社群VIP加油站
猜你喜欢