花粉乐分享平台宣传视频
> 乐学堂 > > 200字带你看完一本书,GPT-3已经会给长篇小说写摘要了
200字带你看完一本书,GPT-3已经会给长篇小说写摘要了
来源:量子位
2023-04-17 17:38:56
180
管理

博雯 发自 凹非寺

量子位 报道 | 公众号 QbitAI

现在,AI能帮你200字看完一段12万词的长篇小说了!

比如这样一段121567词的《傲慢与偏见》原文:

其中只有叶子任务会对书籍中的原始文本进行操作。

并且,已生成的摘要应该放在同一深度,并按照顺序串联起来。

比如上图中的蓝色任务的先前总结输出就用虚线来表示,这样,每一个摘要都是自然地从上一层任务(前文)流出,以保证那些相距较远的段落能够真正地“联系上下文”。

接下来开始训练:

根据上述的任务树将书籍和其子摘要递归为任务;从树上抽出一个节点,对应一个带训练的总结任务;获得训练数据,给该节点以输入;使用训练数据对模型进行微调。

其中,所有训练数据都来自GPT-3中的书籍部分。

研究人员会跳过非叙事性书籍,尽量选择小说类(平均包含超过10万个单词),因为这些上下文关联性更强的文本对总结任务来说更难。

这一训练过程可以使用新的模型、不同的节点采样策略、不同的训练数据类型(演示和比较)来迭代。

对于演示用的数据,使用标准的交叉熵损失函数进行行为克隆(BC)。

对于比较数据,则通过强化学习(RL)来对抗一个专为人类偏好而训练的奖励模型。

强化学习也有三种变体的抽样任务:

全树第一棵子树第一片叶子

训练完成后进行总结,任务的最终目的是追溯出叙述的时间线和整体主题。

每个摘要子任务的目标是将文本压缩5到10倍,长度上限为128到384个符号。

优于现有同类模型

实验阶段,研究人员使用了Goodreads 2020榜单上的40本最受欢迎的书籍,其中囊括了幻想、恐怖、爱情、推理等近20个类型。

然后让两名人类研究员和模型同时进行总结,要求双方的摘要质量的一致性接近于80%。

模型规模分为175B和6B两种,且训练模式也分为上述的强化学习的三种变体任务。

最后结果中,可以看到第一棵子树RL和全树RL的总结任务最接近于人类的水平:

并且,也有超过5%的175B模型的摘要被打到了6分(满分7分),超过15%的摘要被打到5分:

论文:https://arxiv.org/abs/2109.10862

OpenAI官网介绍:https://openai.com/blog/summarizing-books/

参考链接:https://venturebeat.com/2021/09/23/openai-unveils-model-that-can-summarize-books-of-any-length/

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一时间获知前沿科技动态

花粉社群VIP加油站

3
点赞
赏礼
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与花粉乐分享无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非花粉乐分享)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@hflfx.com
关于作者
浅笑安然(采蜜高手)
文章
478
主题
10
关注
0
粉丝
0
点击领取今天的签到奖励!
签到排行
随手拍
54个圈友 0个话题
华为手机随手拍,记录生活点滴之美好
华为P30pro
51个圈友 0个话题
这里是华为P30pro手机交流圈,欢迎华为P30pro用户进群交流
体验官
60个圈友 2个话题
华为花粉体验官,体验官专属的交流群
登录后查看您创建的圈子
登录后查看您创建的圈子
所有圈子
猜你喜欢
杭州互联网违法和不良信息举报平台 网络110报警服务 浙ICP备17046585号
3
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索