SceneFlow Estimation on 3D Point Clouds 介绍 任务:输入两堆点云,输出每个点的三维光流(xyz) 模型描述 采用递归神经网络和attention机制来迭代求解每
440pytorch
多模态文档理解预训练模型 (v0.0) 这是一个用于文档理解任务的多模态预训练模型,可以作为backbone来赋能各种文档理解下游任务。 模型描述 框架介绍 预训练数据与方法 使用方法 预训练模型下载
280pytorch
GPT-3夸夸机器人介绍 GPT-3模型是一个通用的预训练生成模型,可以用于解决下游各种类型的生成任务,特别是zero-shot生成能力。我们在GPT-3基础模型上,通过夸夸数据训练了一个GPT-3夸
350pytorchnlp
Randeng-T5-77M-MultiTask-Chinese Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introduc
470pytorchText2Text Generation
该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。 请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。 Clone wi
220pytorch
--- 视频插帧介绍 给定一段低帧率视频或连续4帧图片,模型会返回高帧率视频(默认为输入帧率两倍)或中间帧图像。 模型描述 全链路插帧模型包含光流计算模块和中间帧生成模块。其中光流计算模型复用了RAF
590pytorch
中文CLIP News 2022年11月: 发布ModelScope 1.0版本,以下能力请使用1.0.2及以上版本。 上线Huge模型(224分辨率) 上线创空间,更强大的demo展示:中文图文检
320pytorchmulti-modal
中文CLIP News 2022年11月: 发布ModelScope 1.0版本,以下能力请使用1.0.2及以上版本。 上线Huge模型(224分辨率) 上线创空间,更强大的demo展示:中文图文检
360pytorchmulti-modal
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
210pytorch
Erlangshen-RoBERTa-330M-NLI Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introduction
400pytorchnlp
Erlangshen-Roberta-110M-NLI Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introduction
350pytorchnlp
Erlangshen-Roberta-330M-Similarity Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introd
270pytorchnlp
BAStructBERT通用领域中文分词模型介绍 中文分词任务就是把连续的汉字分隔成具有语言语义学意义的词汇。中文的书写方式不像英文等日耳曼语系语言词与词之前显式的用空格分隔。为了让计算机理解中文文本
330pytorchnlp
Erlangshen-RoBERTa-110M-Similarity Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introd
370pytorchnlp
Erlangshen-RoBERTa-330M-Sentiment Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introdu
370pytorchnlp
该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。 请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。 Clone wi
150
Wenzhong-GPT2-110M Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introduction 善于处理NLG任务
330pytorchnlp
LSTM通用领域中文词性标注模型介绍 词性标注任务是将给定句子中的每个单词从给定标签组 (tag set)中赋予一个词性标签 (part-of-speech tag)。中文词性标注任务示例: 输入:
360pytorchnlp
LSTM电商领域中文分词模型介绍 中文分词任务就是把连续的汉字分隔成具有语言语义学意义的词汇。中文的书写方式不像英文等日耳曼语系语言词与词之前显式的用空格分隔。为了让计算机理解中文文本,通常来说中文信
250pytorchnlp
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
250pytorch
当前共161667个项目
×
寻找源码
源码描述
联系方式
提交