行业更新系列
北京时间3月15日凌晨,Open AI发布ChatGPT-4。ChatGPT Plus的订阅者可以付费获得具有使用上限的GPT-4访问权限。在发布中,GPT-4展现了更强的能力,如:
创造力:GPT-4比此前的版本更具创造性和协作性。它可以生成、编辑,并与用户一起迭代创意和技术写作任务,例如作曲、写剧本或学习用户的写作风格。
图片输入:GPT-4可以接受图像作为输入,并基于此生成标题、分类和分析。
支持更长的输入:GPT-4能够处理超过25,000字的文本,允许用例,如长形式的内容创建,扩展对话,以及文档搜索和分析等。
我们并不希望单纯对GPT-4的新能力进行罗列,而是希望谈谈我们眼中GPT-4相对于此前版本的一些值得关注的进步,以及我们的理解。
亮点1:多模态的输入方式
多模态的意义不仅在于场景拓展,也在于模型自身的能力提升。
多模态的输入模式有望使得AI的应用场景被进一步拓展。多模态能力是目前市场中对于GPT-4讨论最多的点,但讨论往往集中在多模态相对于单模态在应用场景拓展方面的潜力。比如,大模型的能力能否被引入一些处理图片的场景中,让目前的产品变得更强大。
我们认为,除场景拓展外,同时值得关注的是多模态是否能够使模型本身的能力获得增强,并解决更为复杂的问题。如同人类感知世界的过程是通过输入文本、图片、视频等各类信息实现的,那么多模态能否使得模型本身获得更强甚至额外的能力值得关注。根据Open AI发布的结果,GPT-4在处理复杂问题时的表现明显好于此前的GPT-3.5。比如在模拟律师资格考试的任务中,GPT-4的分数落在前10%的考生中,而GP4-3.5的分数则落在了后10%。
亮点2:训练结果的可预测性
大模型的训练结果变得更可预测。根据Open AI的表述,“GPT-4的一个重点是构建了一个可预测的深度学习堆栈”,可以使用不超过GPT-4计算量千分之一的训练模型对GPT-4一些性能进行准确的预测。这使得我们能够在花费较少代价的情况下让AI模型的目标更符合人类的意图和价值观。一方面能够加快模型的迭代效率,毕竟针对特定模型进行广泛的调优是不现实的;另一方面,也有助于解决目前“ChatGPT会生成一些对人类有害或者歧视性答案”的问题。
模型能力似乎并不来自强化学习。为了测试强化学习对于模型能力的影响,Open AI分别基于GPT-4基础模型和加入强化学习的GPT-4模型运行了一系列考试中的多项选择题部分。结果显示,在所有的考试中,基础的GPT-4模型的平均成绩为73.7%,而引入强化学习后的模型的平均成绩为74.0%,这意味着强化学习并没有显著改变基础模型的能力,换句话说,大模型的能力来自于模型本身。根据Open AI的表述,强化学习的意义更多地在于让模型的输出更符合人类的意图和习惯,而不是模型能力的提升(有时甚至会降低模型的考试成绩)。
本文源自券商研报精选
花粉社群VIP加油站
猜你喜欢