智能写作指利用自然措辞处理技能来自动天生文本内容。
这种技能通过剖析给定语料库,学习文本的构造和语法,然后利用这些信息来天生新的文本。
智能写作可以用来快速天生高质量的文本内容,并且可以用来完成诸如文章写作、报告天生和择要提取等任务。

图1为我们先容了智能写作的基本观点,而令人意想不到的是,这一段先容的作者竟是AI本身!
这一段AI自动天生的“自我介绍”既富有逻辑条理,又阐述了精确的知识,这便是当下最火热的AIGC技能的威力!

什么是AIGC?AIGC,即AI-generated Content,基于AI的内容生产,它是利用人工智能进行内容创作的办法,它被认为是继PGC(Professionally-generated Content)、UGC(User-generated Content)之后的新型内容创作办法。
AIGC在文本、图像和音视频等多领域都正在高速发展,近年来出身了许多主打AIGC的创作体验平台,用户可以输入一句话让AI合成一张与描述关联的图片,或者更为常见的是输入一句文章的描述,或仅仅是一句故事的开头,让AI替你完成文章的续写。
智能写作在我们的日常办公中具有相称好的落地前景,例如新闻写作、诗歌春联、故事写作、广告文案、金融报告、行政文书等办公场景,这些场景都有干系智能写作产品得到运用,可以看到智能写作技能能够为包括资讯、金融、广告、政法等各行各业的从业者供应便捷且高质量的文本写作做事,帮助人们更快地理解和剖析繁芜的信息,从而帮助人们更好地做出决策,产生主要的代价。
这统统生产力提高的愿景正在逐步成为现实,背后缘故原由是技能的发展和提升,下图为笔者整理的AIGC用于智能写作的干系技能发展脉络。

图2. 文本写作的干系主要技能

AIGC用于智能写作的技能综述达不雅观数据

文本写作技能在很长一段韶光里以RNN Seq2Seq为主,发展迟缓,而当Transformer模型构造问世后,这一领域的技能发展迅速爆发,环绕着Transformer的文本写作技能喷涌而出,包括微软亚洲研究院、谷歌AI、Facebook AI、OpenAI等诸多国际有名研究机构都纷纭投入,先后出身了UniLM(2019)、MASS(2019)、T5(2020)、BART(2020)、GPT系列(2018-2022)等多个影响力显著的研究成果。
本文将沿着这条技能发展脉络,从传统的智能写作到如今的前沿研究为读者做详细的阐述,并为大家先容达不雅观数据的智能写作产品实践。

智能写作干系技能背景

01任务定义

在深入理解干系技能之前,我们先对文本写作任务进行一个数学上的形式化定义。
文本写作任务的核心是天生一个字符串组成的序列Y = (y1,...,yi,...,yn ),个中yi∈ν,ν是一个给定的词汇表。
在大多数情形下,文本写作须要以输入作为条件进行天生,输入的数据可能是文章主题,或者是文章的开头句等等,我们用X表示输入。
基于以上定义,文本写作任务建模可以表示为P(Y|X) = P(y1,...,yi,...,yn |X),个中P表示概率分布函数。

02数据集

写作任务公开的评测数据集,在英文上有CommenGen、ROCStories、WritingPrompts等多少数据集,而在中文上有Couplets、AdvertiseGen等多少数据集,数据集的概述见表1。

表1. 文本写作任务干系评测数据集

03评测指标

文本写作任务须要量身定制的指标能够对技能的利害进行评测,常日写作的好坏会从四个角度进行度量:

流畅度(fluency):天生文本的流畅程度;

真实性(factuality):天生文本在多大程度上反响了语境;

语法(grammar):天生文本的语法精确性;

多样性(diversity):天生的文本是否具有不同的类型或样式。

常日此类任务的评测最好的办法当属人工,然而人工评测的本钱巨大,为此,业界设计了以下几种自动评测的量化指标,这些指标常日是量化天生文本和参考文本之间的相似度。
比较常用的有基于词汇和基于语义的相似度度量。
3.1 基于词汇

基于词汇的度量是衡量单词或短语单元的重合度,然后聚合到整体句子级相似度,包括:

BLEU-n,打算天生文本和参考文本的n-gram单元的重合度,最为广泛利用的是BLEU和BLEU-2;

Self-BLEU,用来衡量天生文本的多样性,即在多条不同的天生文本之间打算BLEU值,Self-BLEU越小则多样性越强;

ROUGE-n,同样是打算天生文本和参考文本的ngram单元的重合度,不同点在于BLEU是重合n-gram数/天生文本n-gram数,而ROUGE是重合n-gram数/参考文本n-gram数,因此可以看做召回版本的BLEU;

Perplexity(PPL)和Reverse PPL,PPL是在参考文本上演习措辞概率模型,然后用它打算天生文本的概率,概率越高则表示天生文本越流畅;而Reverse PPL则是在天生文本上演习措辞概率模型,然后反过来打算参考文本的概率,概率越高则表示天生文本越多样。

3.2 基于语义

比较基于词汇的办法,基于语义可以把字面不相似而语义相似的情形也纳入考量,是一种更贴近人工评测的办法,这个中包括:

dssm,利用深层语义相似模型分别将天生文本和参考文本映射到一个低维语义表示空间,并打算天生文本向量和参考文本向量的间隔;

BERTscores、BERTr、YiSi等,近年来呈现的基于预演习模型的评测方法,利用BERT的embedding表示代替n-gram,打算天生文本和参考文本的相似性。

04主要技能脉络

图3. 文本写作的干系主要技能

图3列举了文本写作领域中部分影响力较大的干系技能。
在很长一段韶光里文本写作因此基于RNN的Seq2Seq模型为主流技能,如图4所示,其由两个RNN网络组成,第一个RNN是编码器,第二个RNN是解码器。
模型先以循环单元将输入文本编码到隐向量,后再通过循环单元顺序逐字解码,顺序解码时将上一单元输出和上一单元隐向量同时作为解码器的输入。
RNN Seq2Seq天生的文实质量常日欠佳,时常伴有语法缺点或语意不明的问题,紧张缘故原由是其逐字顺序编码解码过程引起的偏差通报和放大。

图4. RNN Seq2Seq模型示意图

图5. Transformer模型

随着2017年Transformer模型构造(见图5)的问世,众人惊叹于其强大的捕捉超长间隔依赖的特色表示能力,并且由于Transformer可以并行处理序列的特性,演习效率比较RNN也大幅提升,于是文本写作算法研究投入也极速地向Transformer倾斜,随之孕育而生了一系列的预演习模型(见表2),时至今日已经成为文本写作技能的主流前沿代表。
下文将为读者重点逐一阐述。

表2. 文本写作的干系预演习模型概述

AE=自编码;AR=自回归;SLM=标准措辞模型;CTR=受损文本重修;NSP=下一句预测;FTR=全文重修。

前沿技能先容

当下文本写作的主流前沿技能是从不同类型、构造组件和预演习任务中衍化的多少种预演习模型。
本节内容将为读者做重点先容。

01UniLM

UniLM的全称是Unified Language Model,是2019年微软亚洲研究院提出的天生式BERT 模型,和传统的Seq2Seq不同的是,它只用了BERT,没有Decoder部分。
它凑集了L2R-LM(ELMo,GPT),R2L-LM(ELMo)、BI-LM(BERT)以及Seq2Seq-LM几个其他模型演习的办法,以是叫Unified模型。
图6. UniLM模型概览

UniLM的预演习分为三个部分,Left-to-Right、Bidirectional以及Seq-to-Seq(见图6)。

对付这三种办法,不同点只是Transformer的mask矩阵的改动而已:

对付Seq-to-Seq,前一句对后一句的Attention被mask,这样一来前一句只能关注到自身,但不能关注到后一句;后一句每个词向其之后的Attention被mask,只能关注到其之前的词;

对付Left-to-Right,Transformer的Attention只关注这个词本身以及前面的词,后面的词不做关注,以是mask矩阵是下三角矩阵;

对付Bidirectional,Transformer的Attention关注所有的词,并且包含NSP任务,和原来的BERT一样。

在UniLM的预演习过程中,三种办法各演习1/3的韶光,比较原始BERT,其添加的单向LM预演习加强了文本表示能力,而其添加的Seq-to-Seq LM预演习也使UniLM能够很好地胜任文本天生/写作的任务。

02T5

T5的全称是Text-to-Text Transfer Transformer,是2020年谷歌提出的模型构造,其总体思路是用Seq2Seq文本天生来办理所有下贱任务:如问答、择要、分类、翻译、匹配、续写、指代消解等。
这个办法能够使所有任务共享相同的模型,相同的丢失函数和相同的超参数。
图7. T5思维框架

T5的模型构造是基于多层Transformer的Encoder-Decoder构造。
与其他模型的紧张差异是,GPT系列是仅包含Decoder构造的自回归措辞模型(AutoRegressive LM),BERT是仅包含Encoder的自编码措辞模型(AutoEncoder LM)。
图8. T5预演习目标示例

T5的预演习分为无监督和有监督两个部分:

无监督部分

无监督部分是采取类似BERT的MLM方法,不同的是BERT是mask单个词,而T5是mask一段连续的词,也便是text span。
被mask的text span只用单个mask字符更换,也便是说对付mask后的文本而言,mask的序列长度也是不可知的。
而在Decoder部分,只输出被mask的text span,其它词统一用设定的<X>、<Y>、<Z>符号更换。
这样做有三个好处,其一是加大了预演习难度,显然预测一个长度未知的连续text span是比预测单个词更难的任务,这也使得演习的措辞模型的文本表示能力更有普适性,在质量较差的数据上的微调适应性更强;其二是对付天生任务而言输出的序列便是长度未知的,T5的预演习很好适配了这一特性;另一个好处是缩短了序列长度,使得预演习的本钱得以降落。
T5所采取的这种预演习任务也被称为CTR(Corrupted Text Reconstruction,受损文本重修)。

有监督部分

有监督部分采取GLUE和SuperGLUE中包含的机器翻译、问答、择要、分类四大类任务。
核心是Fine-tune时把这些数据集和任务合在一起作为一个任务,为了能够实现这一点它的思路是给每个任务设计了不同的prefix,与任务文本一同输入。
举例说翻译任务,把英语的“That is good.”翻译为德语,那么演习时就输入“translate English to German: That is good. target: Das ist gut.”,而预测时则输入“translate English to German: That is good. target:”,模型输出预测“Das ist gut.”。
个中“translate English to German:”便是为此项翻译任务添加的prefix。

03BART

BART的全称是Bidirectional and Auto-Regressive Transformers,是2020年Facebook提出的模型构造。
正如其名,它是一种结合了双向编码和自回归解码构造的模型构造。

图9. BART的基本事理

BART的模型构造接管了BERT的Bidirectional Encoder和GPT的Left-to-Right Decoder各自的特点,建立在标准的Seq2Seq Transformer model的根本之上,这使得它比BERT更适宜文本天生的场景;同时比较GPT,也多了双向高下文语境信息。
图10. BART预演习采取的[noise]

BART的预演习任务采取基本理念同样是还原文本中的[noise]。
BART采取的[noise]详细有:

Token Masking:和BERT一样,随机选择token用[MASK]代替;

Token Deletion:随机删除token,模型必须确定哪些位置短缺输入;

Text Infilling:和T5做法类似,mask一个text span,每个text span被一个[MASK]标记更换。
在T5做法根本上,同时考虑了当text span长度为0,此时则插入一个[MASK]标记;

Sentence Permutation:以句号作为分割符,将输入分成多个句子,并随机打乱;

Document Rotation:随机均匀地选择一个token,以这个token为中央,旋转输入,选中的这个token作为新的开头,此任务演习模型以识别文档的开头。

可以创造比较起BERT或T5,BART在Encoder端考试测验了多种[noise],其缘故原由和目的也很大略:

BERT的这种大略更换导致的是Encoder真个输入携带了有关序列构造的一些信息(比如序列的长度等信息),而这些信息在文本天生任务中一样平常是不会供应给模型的;

BART采取更加多样的[noise],意图是毁坏掉这些有关序列构造的信息,防止模型去“依赖”这样的信息。
针对各种不同的输入[noise],BART在Decoder端采取了统一的还原形式,即输出精确的原始整句。
BART所采取的这种预演习任务也被称为FTR(Full Text Reconstruction, 全文重修)

04GPTs

GPT的全称是Generative Pre-Training, 是OpenAI在自然措辞处理领域的一项极为主要的研究。
GPT是一个循序迭代的预演习模型,其家族紧张成员包括初代GPT、GPT-2、GPT-3、InstructGPT和如今炙手可热的ChatGPT等。
下面为大家逐一先容。
4.1 GPT

图11. 标准Transformer Decoder(左);GPT Decoder(右)

初代GPT是2018年OpenAI提出的一种预演习措辞模型,它的出身比较BERT更早,它的核心思想是基于大量无标注数据进行天生式预演习学习,然后在特界说务上进行微调。
正因其专注于天生式预演习,GPT的模型构造只利用了Transformer的Decoder部分,其标准构造包含了Masked Multi-Head Attention和Encoder-Decoder Attention(图11左)。
GPT的预演习任务是SLM(Standard Language Model,标准措辞模型),即基于上文(窗口)预测当前位置的词,因此要保留Mask Multi-Head Attention对词的下文遮挡,防止信息透露。
由于没有利用Encoder,以是GPT的构造中去除了Encoder-Decoder Attention(图11右)。

4.2 GPT-2

初代GPT的问题是微调下贱任务不具备迁移能力,Fine-Tuning层是不共享的,为理解决这个问题,2019年OpenAI又推出了GPT家族新的成员:GPT-2。
GPT-2的学习目标是利用无监督的预演习模型做有监督的任务,与初代GPT比较,GPT-2有如下改动:1)模型构造去除Fine-Tuning层,所有任务都通过设计成合理的语句给措辞模型进行预演习,演习需担保每种任务的丢失函数都收敛;2)Layer Normalization的位置移动到了每个sub-block输入的地方,在末了一个Self-Attention后面也加了一个Layer Normalization;3)采取了改动的初始化方法,在初始化时将残差层的权重缩放到1⁄√N倍,N为残差层的数量;4)Vocabulary规模扩展到了50257,输入的上文大小由512扩展到了1024,利用更大的batch_size演习。

GPT-2的多任务演习使其拥有更强的泛化能力,当然这同时也是得益于其用了多达40G的演习语料。
GPT-2的最大贡献是验证了通过海量数据和大量参数演习出来的模型有迁移到其它种别任务中而不须要额外演习的能力。

4.3 GPT-32020年OpenAI在GPT-2的根本上又进一步推出了GPT-3。
GPT-3的做法更加大略粗暴,模型整体构造和演习目标与GPT-2基本无异,但GPT-3把模型尺寸增大到了1750亿参数量(比GPT-2大115倍),并且利用45TB数据进行演习。
得益于惊人弘大的参数量,GPT-3可以在不做梯度更新的情形下利用零样本、少样本进行学习预测。

4.4 InstructGPT超大模型的GPT-3在天生任务的效果上确实达到了空前的效果,特殊是零样本和少样本场景下成为最佳,但GPT-3面临了一项新的寻衅:模型的输出并不总是有用,它可能输出不真实、有害或者反响不良感情的结果。
这个征象是可以被理解的,由于预演习的任务是措辞模型,预演习的目标是在输入的限定下使输出的结果为自然措辞的可能性最大化,而这个中并没有“用户须要安全、有用”的哀求。
为理解决这个问题,2022年OpenAI基于GPT-3揭橥了一项主要研究:InstructGPT,引入从人类反馈中强化学习(RLHF,Reinforcement Learning from Human Feedback)的技能。

图12. InstructGPT操作过程

InstructGPT模型上基本和 GPT-3没有太大变革,紧张变革的是演习策略,总体思路是标注职员对调用示例供应示范回答,然后用这些数据在模型上进行微调,从而使模型能够做出更加得当的回答。

其演习步骤分为三步:

网络示范数据,用监督演习的办法演习一个模型。
从prompt数据集中采样一部分进行人工标注,然后将其用于GPT-3的Fine-Tune;

网络比拟数据,演习一个回报模型。
采样一批数据输入第一步Fine-Tune之后的模型,标注职员对模型的输出按照利害进行排序,然后用这些数据演习一个回报模型;

用强化学习来优化模型的输出。
利用第二步得到的回报模型来对模型的输出进行打分,将得分作为强化学习的褒奖,基于PPO(Proximal Policy Optimization)算法来微调天生模型。

由此产生的 InstructGPT在遵照指令方面,远比GPT-3要好得多,同时InstructGPT也较少地凭空捏造事实,有害输出的产生呈现小幅低落趋势。
4.5 ChatGPT现在让我们回顾本文的开头,那个为我们准确并有条理地解答了“什么是智能写作”的AI模型——它便是ChatGPT,OpenAI于2022年11月30日正式发布了这一项最新研究。
ChatGPT利用与InstructGPT相同的方法,利用来自人类反馈的强化学习(RLHF)来演习该模型,改进点在于数据网络的方法(未详细公开)。
图13. ChatGPT操作过程

可以看到,ChatGPT的演习流程与InstructGPT是同等的,差异只在于InstructGPT是在GPT-3上做Fine-Tune,而ChatGPT是在GPT-3.5上做Fine-Tune(GPT3.5是OpenAI在2021年四季度演习的InstructGPT模型,在自动编写代码方面有较强的能力)。

纵不雅观从初代GPT到ChatGPT的发展,OpenAI证明了用超海量数据演习超大模型,这样得到的预演习措辞模型就足以应对自然措辞理解和自然措辞天生的各种下贱任务,乃至不须要微调,零/少样本一样能够应对。
而在输出的安全可控性上,OpenAI给出的答案是基于人力的强化学习:雇佣了40名标注职员全职事情近2年(标注韶光官方未公开,笔者仅从GPT-3到ChatGPT大约两年半韶光间隔推测,由于强化学习须要不断迭代),为模型的输出进行标注反馈,由这些数据方可进行强化学习,辅导模型优化。
Transformer+超海量数据+超大模型+弘大人力+强化学习,造就了如今征象级的ChatGPT。

达不雅观数据的智能写作运用实践

写作一贯是企奇迹单位的主要事情内容,是公司数据资产的紧张载体,是建立企业知识中台的主要基石。
基于此,达不雅观数据以NLP技能综合业务需求,全力投入研发并打造了两款智能写作产品——达不雅观智能写作助手和达不雅观智能文档写作。

01达不雅观智能写作助手

达不雅观智能写作助手是一款AI写尴尬刁难象,以AI技能综合写作场景需求,为内容创作和版式调度赋能,实现全场景的精彩表达,提升写作效率和质量,成为写作者的全能高效助手。

取代传统格式刷:高自由度排版工具,批量操作效率翻倍

快速扫描全文,剖析文章构造,识别出段落的类型,点击即可一键运用统一样式。
达不雅观智能写作助手将依据文档及段落类型,推举标准样式,用户也可以创建自定义的样式库。

图14.达不雅观智能写作助手智能样式排版

灵感激发:启示创作灵感

对付各种丰富场景的自由写作,当碰着写作思路瓶颈时,达不雅观智能写作助手借助内置的大措辞模型算法能力,将根据已有段落的理解,自动续写出多少种最贴合的下文,引发写作人创作的灵感。

图15.达不雅观智能写作助手根据上文段落自动续写

海量素材:AI据意查询

达不雅观智能写作助手内置30万+条素材,涵盖公函、名人名言、古诗词等类型。
支持根据用户输入的想法、需求等描述性语句,通过智能剖析搜索最适宜的写作素材。

图16.达不雅观智能写作助手支持据意查询

全面校正:快速创造文章缺点,担保文档质量

达不雅观智能写作助手通过拼写检讨、语法检错和语法纠错,严格校验100多种常见缺点,不放过任何差错,确保文章高品质。

图17.达不雅观智能写作助手全面校正中文常见缺点

达不雅观智能写作助手能够为各行各业的职员带来巨大的代价:

新媒体运营:公众号、小红书、新闻稿等文案创作;

办公室白领:政府、企奇迹单位员工等均可利用达不雅观智能写作助手快速完成公函、报告、合同等文档书写;

创意写作者:续写提示,引发创作灵感,完成优质创作。

02达不雅观智能文档写作

达不雅观智能文档写作,是一款紧张实现债券、基金、合同等各种业务文档的智能写作产品,实现从文档的智能审阅到智能写作的高度超过。

开箱即用:内置多种成熟模板

针对市情共性需求,达不雅观智能文档写作产品已内置尽职调查报告、各板块招股解释书、各债券类型的债券召募解释书、发行公告、持续督导核查报告等数十种文档模板,并支持用户根据业务需求改动及自定义。
图18.达不雅观智能文档写作预制模板库

模板自定义:高度灵巧的模板配置办法

达不雅观智能文档写作可支持用户自定义写作模板,特殊针对一二级市场及其他常用条约文档写作的需求,独创了适用多数据、多表格的模板配置办法,支持模板中表格行数/列数自动判断,数据占比、变动等信息自动打算,多数据领悟汇总等功能,以方便快捷地实现各种文档的便捷模板定义及写作。
图19.达不雅观智能文档写作支持灵巧的模板配置

数据来源:数据库、非构造化数据均可利用

达不雅观智能文本写作不仅支持接口对接、数据库对接的形式自动从外部数据源中获取数据进行自动添补。
同时,得益于达不雅观成熟的文本理解能力,支持从非构造化文本中提取构造化信息,包括实体字段、组合字段、元素字段(图、表、段落、标题等)进行自动录入。

以债承业务为例,系统可根据天眼查、企查查、WIND等第三方业务系统,及企业内部数据库,如各种条约、往期财务数据、专利证照等信息,根据用户自定义的模板信息完成文档写作任务,并根据NLP技能润色加工行文构造,天生适宜行业写作风格及格式的文档。
图20.达不雅观智能文档写作支持丰富的数据来源

智能写作:AI赞助非模板文档写作

针对非模板文档写作需求,达不雅观智能写作利用行业最新算法技能实现择要自动天生、自动续写、实时遐想等功能。
通过机器结合人工便捷实现各种文档写作。
图21.达不雅观智能文档写作AI赞助高度智能化

结果复核:多功能协同保障写作质量

针对债承、股权、投研及法务财务等用户对数据精确性、文本准确性的需求,达不雅观智能写作可与智能文档审核、智能文档比对功能协同。
写作结果完成后可由AI对其数据逻辑性与同等性、语义标点规范性做审核。
从细节入手,以人性化的交互设计降落用户人工复核本钱,充分知足用户在线流畅编辑超长文档的需求。

图22.达不雅观智能文档写作多功能协同,保障写作结果准确性

目前,达不雅观智能文档写作产品已在头部券商、基金公司支配运用。
未来产品将持续积累,为用户供应数字化智能转型、建立企业知识中台的便捷化、智能化利器。

寻衅与展望

AIGC用于智能写作取得的进展确实令人惊叹,但是我们也不得不认识到当下依然存在许多寻衅,包括:

缺少创意:智能写作的紧张寻衅之一是AI算法很难天生真正原创和有创意的内容。
虽然人工智能可以产生语法精确且连贯的高质量内容,但它可能缺少真正创造性写作所必需的人情味和洞察力;

对高下文的理解有限:智能写作的另一个寻衅是,AI算法可能很难完备理解给定情形的高下文细微差别。
例如,人工智能可能无法准确解读书面内容中的语气、情绪或文化差异;

偏见问题:AI算法的好坏取决于它们所演习的数据,如果演习数据有偏差,人工智能的输出也会有偏差。
这可能会导致道德问题,例如刻板印象和歧视的长期存在;

高本钱落地:开拓和落地 AI 算法和系统非常昂贵,以目前取得不错进展的技能来说普遍须要弘大的数据、算力乃至人工支持,这将对面向工业的智能写作落地形成寻衅

总体而言,智能写作AIGC仍有极大的潜力尚未充分发挥,未来的研究事情也会着重在如何战胜上述的寻衅。
未来可能会在融入人工见地和强化学习的根本上,进一步通过设计干系维度的量化指标辅导模型的优化。
随着效果的日益增强,相信会有更多研究事情投入到智能写作的小样本学习和模型压缩技能上,降落落地本钱,使得智能写作产品能够做事到每个人的日常事情中。
作者:达不雅观数据 徐雪帆参考文献

[1] Lewis M, Liu Y, Goyal N, et al. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension[J]. arXiv preprint arXiv:1910.13461, 2019.

[2] Dong L, Yang N, Wang W, et al. Unified language model pre-training for natural language understanding and generation[J]. Advances in Neural Information Processing Systems, 2019, 32.[3] Li X L, Thickstun J, Gulrajani I, et al. Diffusion-LM Improves Controllable Text Generation[J]. arXiv preprint arXiv:2205.14217, 2022.

[4] Li J, Tang T, Zhao W X, et al. Pretrained language models for text generation: A survey[J]. arXiv preprint arXiv:2105.10311, 2021.

[5] Zhang H, Song H, Li S, et al. A survey of controllable text generation using transformer-based pre-trained language models[J]. arXiv preprint arXiv:2201.05337, 2022.

[6] Liu Y, Gu J, Goyal N, et al. Multilingual denoising pre-training for neural machine translation[J]. Transactions of the Association for Computational Linguistics, 2020, 8: 726-742.

[7] Raffel C, Shazeer N, Roberts A, et al. Exploring the limits of transfer learning with a unified text-to-text transformer[J]. J. Mach. Learn. Res., 2020, 21(140): 1-67.

[8] Zhang Z, Han X, Zhou H, et al. CPM: A large-scale generative Chinese pre-trained language model[J]. AI Open, 2021, 2: 93-99.

[9] Xue L, Constant N, Roberts A, et al. mT5: A massively multilingual pre-trained text-to-text transformer[J]. arXiv preprint arXiv:2010.11934, 2020.[10] Montesinos D M. Modern Methods for Text Generation[J]. arXiv preprint arXiv:2009.04968, 2020.

[11] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. Advances in neural information processing systems, 2017, 30.

[12] Ouyang L, Wu J, Jiang X, et al. Training language models to follow instructions with human feedback[J]. arXiv preprint arXiv:2203.02155, 2022.[13] Radford A, Narasimhan K, Salimans T, et al. Improving language understanding by generative pre-training[J]. 2018.

[14] Radford A, Wu J, Child R, et al. Language models are unsupervised multitask learners[J]. OpenAI blog, 2019, 1(8): 9.

[15] Brown T, Mann B, Ryder N, et al. Language models are few-shot learners[J]. Advances in neural information processing systems, 2020, 33: 1877-1901.[16] ChatGPT: Optimizing Language Models for Dialogue. https://openai.com/blog/chatgpt/