GPT-3模型是一个通用的预训练生成模型,使用Trasformer的Decoder-oly结构,可以用于解决下游各种类型的生成任务,特别是zero-shot生成能力。模型利用大量无监督数据,通过自回归任务进行预训练。可以用于解决文本生成相关的任务包含:文本摘要、问题生成、data-to-text等。 GPT-3模型使用Trasformer的 Decoder结构,并对Trasformer Decoder进行了一些改动,原本的Decoder包含了两个 Multi-Head Attetio 结构,GPT-3只保留了 Mask Multi-Head Attetio,利用常规的语言建模优化,从左到右的自回归预训练。本模型是基于GPT-3的代码结合大量中文无监督数据和下游任务数据预训练得到,我们训练了多种不同参数的模型,此处展示的是GPT-3 Large模型。GPT-3模型介绍,详见:Laguage Models are Few-Shot Learers
。该模型是基于中文GPT-3 Large在诗词生成数据集上训练得到的。 本模型主要用于诗词生成场景。比如用户可以自行尝试输入各种内容,然后让模型去回答、续写或者根据指令回复 在安装完成MaaS-lib之后即可使用GPT-3的text-geeratio的能力 模型在古诗词数据集上训练,有可能在其他方向生成产生一些偏差,请用户自行评测后决定如何使用。 本模型采用无监督数据和有监督下游数据相结合的方式对GPT-3进行预训练,其中无监督数据包含公开可下载的语料,有监督数据包含摘要、诗词、作文等数据集 如果GPT-3模型对您有帮助,请您引用该模型的相关文章:GPT-3文本生成模型介绍
模型描述
期望模型使用方式以及适用范围
如何使用
代码范例
from modelscope.pipelies import pipelie
from modelscope.utils.costat import Tasks
text_geeratio_zh = pipelie(Tasks.text_geeratio, model='leiwag1/educatio_model')
result_zh = text_geeratio_zh("落木旧山寺")
prit(result_zh['text'])
模型局限性以及可能的偏差
训练数据介绍
训练tips
相关论文以及引用信息
@iproceedigs{NEURIPS2020_1457c0d6,
author = {Brow, Tom ad Ma, Bejami ad Ryder, Nick ad Subbiah, Melaie ad Kapla, Jared D ad Dhariwal, Prafulla ad Neelakata, Arvid ad Shyam, Praav ad Sastry, Girish ad Askell, Amada ad Agarwal, Sadhii ad Herbert-Voss, Ariel ad Krueger, Gretche ad Heigha, Tom ad Child, Rewo ad Ramesh, Aditya ad Ziegler, Daiel ad Wu, Jeffrey ad Witer, Clemes ad Hesse, Chris ad Che, Mark ad Sigler, Eric ad Litwi, Mateusz ad Gray, Scott ad Chess, Bejami ad Clark, Jack ad Berer, Christopher ad McCadlish, Sam ad Radford, Alec ad Sutskever, Ilya ad Amodei, Dario},
booktitle = {Advaces i Neural Iformatio Processig Systems},
editor = {H. Larochelle ad M. Razato ad R. Hadsell ad M.F. Balca ad H. Li},
pages = {1877--1901},
publisher = {Curra Associates, Ic.},
title = {Laguage Models are Few-Shot Learers},
url = {https://proceedigs.eurips.cc/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf},
volume = {33},
year = {2020}
}
点击空白处退出提示










评论