国漫手机壁纸

200字带你看完一本书,GPT-3已经会给长篇小说写摘要了

博雯发自凹非寺现在,AI能帮你200字看完一段12万词的长篇小说了!比如这样一段121567词的《傲慢与偏见》原文:△图源OpenAI官网AI分四个阶段来总结:先把原文总结成276个摘要(24796词),然后进一步压缩成25个摘要(3272词),再到4个

NetSmell 出品

  博雯发自凹非寺

  现在,AI 能帮你 200 字看完一段 12 万词的长篇小说了!

  比如这样一段 121567 词的《傲慢与偏见》原文:


△图源 OpenAI 官网

  AI 分四个阶段来总结:

  先把原文总结成 276 个摘要(24796 词),然后进一步压缩成 25 个摘要(3272 词),再到 4 个摘要(475 词)。

  最终得到一段 175 词的摘要,长度只有原片段的千分之一:

  粗略翻译下看看,关键的几个情节都点到了:

  这理解力,不禁让人望着某泡面压留下了泪水。

  这就是 OpenAI 最新推出的能给任意长度书籍写摘要的模型。

  平均 10 万词以上的训练文本,最终能压缩到 400 字以内。

  而且这也是源自 OpenAI 精妙的刀法:没错,就是把 GPT-3 数据集里的书籍/小说部分抽出来进行训练所得到的模型。

  话不多说,一起来看看这个微调版的 GPT-3 模型。

  递归任务分解

  首先,现将“总结一段文本”这一任务进行算法上的分解。

  如果该文本足够短,就直接进行总结;如果它比较长,就把文本分成小块,并递归地对每一块进行总结。

  这就形成了一棵总结任务树:

  其中只有叶子任务会对书籍中的原始文本进行操作。

  并且,已生成的摘要应该放在同一深度,并按照顺序串联起来。

  比如上图中的蓝色任务的先前总结输出就用虚线来表示,这样,每一个摘要都是自然地从上一层任务(前文)流出,以保证那些相距较远的段落能够真正地“联系上下文”。

  接下来开始训练:

  根据上述的任务树将书籍和其子摘要递归为任务;

  从树上抽出一个节点,对应一个带训练的总结任务;

  获得训练数据,给该节点以输入;

  使用训练数据对模型进行微调。

  其中,所有训练数据都来自 GPT-3 中的书籍部分。

  研究人员会跳过非叙事性书籍,尽量选择小说类(平均包含超过 10 万个单词),因为这些上下文关联性更强的文本对总结任务来说更难。

  这一训练过程可以使用新的模型、不同的节点采样策略、不同的训练数据类型(演示和比较)来迭代。

  对于演示用的数据,使用标准的交叉熵损失函数进行行为克隆(BC)。

  对于比较数据,则通过强化学习(RL)来对抗一个专为人类偏好而训练的奖励模型。

  强化学习也有三种变体的抽样任务:

  全树

  第一棵子树

  第一片叶子

  训练完成后进行总结,任务的最终目的是追溯出叙述的时间线和整体主题。

  每个摘要子任务的目标是将文本压缩 5 到 10 倍,长度上限为 128 到 384 个符号。

  优于现有同类模型

  实验阶段,研究人员使用了 Goodreads 2020 榜单上的 40 本最受欢迎的书籍,其中囊括了幻想、恐怖、爱情、推理等近 20 个类型。

  然后让两名人类研究员和模型同时进行总结,要求双方的摘要质量的一致性接近于 80%。

  模型规模分为 175B 和 6B 两种,且训练模式也分为上述的强化学习的三种变体任务。

  最后结果中,可以看到第一棵子树 RL 和全树 RL 的总结任务最接近于人类的水平:

  并且,也有超过5% 的 175B 模型的摘要被打到了 6 分(满分 7 分),超过 15% 的摘要被打到 5 分:

  研究团队也在最近提出的 BookSum 数据集上进行了测试,结果比现有的长文本总结模型更好:

  除此之外,摘要是否能用来回答关于原文的问题也是评估方法之一。

  因此,团队将他们的总结模型应用于 NarrativeQA 问题回答数据集,可以看到,虽然没有经过明确的问题回答训练,但在所有的指标上都获得了最好的结果:

  作者介绍

  这篇研究出自 OpenAI 的 OpenAI Alignment team,他们表示,目前没有开源此模型的计划。

  论文一作 Jeff Wu 本硕都毕业于麻省理工大学,在加入 OpenAI 之前有过在谷歌工作的经历。

  共同一作 Long Ouyang 本科毕业于哈佛大学,博士则毕业于斯坦福大学的认知心理学专业,主要研究领域为认知科学与概率规划研究。

  论文:

  https://arxiv.org/abs/2109.10862

  OpenAI 官网介绍:

  https://openai.com/blog/summarizing-books/

  参考链接:

  https://venturebeat.com/2021/09/23/openai-unveils-model-that-can-summarize-books-of-any-length/

显示余下内容
相关文章:
  1. 信用卡 PIN 码很容易猜测
  2. 神经元簇发能模拟 AI 学习策略
  3. 蜘蛛丝可能根本不具有抗菌性质
  4. 佳能因禁止无墨水打印机扫描被起诉
  5. DeepMind盈利后开始「买买买」!收购机器人模拟平台MuJoCo,全面开源
  6. 分析师:新MacBook Pro搭载自家芯片,苹果利润率更高了
  7. 格芯提交上市申请IPO,筹资约26亿美元
  8. 美股周二:中概股普涨 阿里涨超6% 高途涨逾12%
  9. 搭配自研处理器与安卓12,谷歌新机Pixel 6起价599美元
  10. 摩根士丹利:马斯克有望凭SpaceX成首位万亿美元富豪
  11. 《鱿鱼游戏》助奈飞三季度新增用户翻倍,股价近新高
  12. DOTA 2又上热搜了 为什么这次大家到处刷“猛犸”?
  13. 多位游戏巨头联合希望美国政府监管盗版和作弊网站
  14. Google Play Data Safety开始接受开发者申请:2022年将强制执行
  15. 价格欺诈投诉引发公益诉讼 京东“划线价”格式条款须整改
 

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注