AI

通义-文本生成视频大模型-英文-通用领域-v1.0 本模型基于多阶段文本到视频生成扩散模型, 输入描述文本,返回符合文本描述的视频。仅支持英文输入。 一些文本生成视频示例如下,上方为输入文本,下方为对
370pytorchmulti-modal
目前模型在ModelScope提供在线体验功能,暂不支持pipeline推理、下载和训练,后续迭代更新版本会开放下载,敬请期待。 通义-文本生成图像大模型-中英文-通用领域 本模型基于多阶段文本到图
610pytorchmulti-modal
大规模中文理解和生成联合模型PLUG PLUG (Pre-training for Language Understanding and Generation) 是一个270亿参数的大规模中文理解和生
450pytorchnlp
基于RoBERTa的中文Large预训练模型介绍(文档更新中) RoBERTa的中文Large预训练模型是使用广泛的中文数据和masked language model任务训练的中文自然语言理解预训练
260pytorchnlp
基于DeBERTaV2的中文Base预训练模型介绍(文档更新中) DeBERTaV2的中文Base预训练模型是使用wikipedia数据集、wudao数据集及中文网页数据,以masked langua
270pytorchnlp
MaSTS中文预训练-CLUE语义匹配模型介绍 基于此模型在QBQTC数据集上训练得到MaSTS中文文本相似度-CLUE语义匹配模型。集成在QBQTC数据集上训练得到的相似度匹配模型,在CLUE语义匹
600pytorchnlp
OFA-图像描述(英文) News 2022年11月: 发布ModelScope 1.0版本,以下能力请使用1.0.2及以上版本。 新增OFA Tutorial。 图像描述是什么? 如果你希望为一
370pytorchmulti-modal
大规模中文理解和生成联合模型PLUG PLUG (Pre-training for Language Understanding and Generation) 是一个270亿参数的大规模中文理解和生
320pytorchnlp
Bert实体相关性-中文-通用领域-base 实体链接旨在区分文本中的mention和大规模知识图谱中实体的对应关系,也是自然语言处理(NLP)领域的基础问题,在很多对话、检索、关系抽取等下游任务中发
370pytorchnlp
CodeGeeX: 多语言代码生成\翻译模型 CodeGeeX是一个具有130亿参数的多编程语言代码生成预训练模型。CodeGeeX采用华为MindSpore框架实现,在鹏城实验室“鹏城云脑II”中的
460pytorchnlp
基于DeBERTaV2的中文Lite预训练模型介绍(文档更新中) DeBERTaV2的中文Lite预训练模型是使用wikipedia数据集、wudao数据集及中文网页数据,以masked langua
260pytorchnlp
基于RoBERTa的中文Lite预训练模型介绍(文档更新中) RoBERTa的中文Lite预训练模型是使用广泛的中文数据和masked language model任务训练的中文自然语言理解预训练模型
310pytorchnlp
Pangu-Alpha 2.6B 鹏程·盘古系列模型整体介绍 基于盘古系列大模型提供大模型应用落地技术帮助用户高效的落地超大预训练模型到实际场景。 鹏程·盘古系列大模型整个框架特点如下: 鹏程·盘
1220pytorchnlp
图像描述介绍 图像描述:给定一张图片,模型根据图片信息生成一句对应描述。可以应用于给一张图片配上一句文字或者打个标签的场景。本页面右侧提供了在线体验的服务,欢迎使用!注:本模型为mPLUG-图像描述的
360pytorchmulti-modal
text-classification widgets: task: text-classification inputs: type: text validator: max_words: 25
750PyTorchnlp
基于BERT的中文Lite预训练模型介绍(文档更新中) BERT的中文Lite预训练模型是使用wikipedia数据和masked language model任务训练的中文自然语言理解预训练模型。
230pytorchnlp
mPLUG介绍 本模型为mPLUG-图像描述的Large模型,参数量约为6亿,可以用于finetune下游的VQA,Caption等多模态任务。 模型描述 mPLUG模型是统一理解和生成的多模态基础模
560pytorchmulti-modal
基于BERT的中文Large预训练模型介绍(文档更新中) BERT的中文Large预训练模型是使用wikipedia数据和masked language model任务训练的中文自然语言理解预训练模型
430pytorchnlp
MSEL实体向量-通用领域-base 实体链接旨在区分文本中的mention和大规模知识图谱中实体的对应关系,也是自然语言处理(NLP)领域的基础问题,在很多对话、检索、关系抽取等下游任务中发挥着重要
290pytorch
CEEL实体相关性-通用领域-base 实体链接旨在区分文本中的mention和大规模知识图谱中实体的对应关系,也是自然语言处理(NLP)领域的基础问题,在很多对话、检索、关系抽取等下游任务中发挥着重
460pytorch
当前共6731个项目
×
寻找源码
源码描述
联系方式
提交