视频流深度与相机位姿估计算法介绍 任务 输入一段RGB视频流,深度与相机位姿估计算法将分析场景三维结构、输出图像对应的稠密深度图以及图像之间的相对相机位姿 模型描述 本模型基于DRO: Deep Re
400pytorchcv
集成中  Documentation  |  Paper |  Blog   |  GitHub  
560pytorchmulti-modal
GPT-MoE中文270亿作文生成模型 概述 GPT模型能较好的处理文本生成领域的各种任务,比如文本补全,自由问答,完形填空,写作文,写摘要,写小说,写诗歌等等。最近火爆全网的人工智能产品ChatGP
440pytorchnlp
KnowPrompt基于知识协同优化的调优方法 KnowPrompt用于关系抽取任务,通过学习模板词和答案词,将实体和关系的知识注入模型,并在知识约束下协同优化它们的表示 模型描述 先将知识注入提示,
490pytorchnlp
Vision Middleware (ViM) 视觉中间件模型介绍 本模型为基于中游任务训练的基础模型多任务中间件模块组,其基础模型为 CLIP-ViT-B/16。 模型描述 基础模型的预训练与下游任
490pytorchcv
MaSTS中文预训练-CLUE语义匹配模型介绍 基于此模型在QBQTC数据集上训练得到MaSTS中文文本相似度-CLUE语义匹配模型。集成在QBQTC数据集上训练得到的相似度匹配模型,在CLUE语义匹
690pytorchnlp
mPLUG介绍 本模型为mPLUG-图像描述的Large模型,参数量约为6亿,可以用于finetune下游的VQA,Caption等多模态任务。 模型描述 mPLUG模型是统一理解和生成的多模态基础模
670pytorchmulti-modal
图像描述介绍 图像描述:给定一张图片,模型根据图片信息生成一句对应描述。可以应用于给一张图片配上一句文字或者打个标签的场景。本页面右侧提供了在线体验的服务,欢迎使用!注:本模型为mPLUG-图像描述的
470pytorchmulti-modal
Bert实体相关性-中文-通用领域-base 实体链接旨在区分文本中的mention和大规模知识图谱中实体的对应关系,也是自然语言处理(NLP)领域的基础问题,在很多对话、检索、关系抽取等下游任务中发
470pytorchnlp
CEEL实体相关性-通用领域-base 实体链接旨在区分文本中的mention和大规模知识图谱中实体的对应关系,也是自然语言处理(NLP)领域的基础问题,在很多对话、检索、关系抽取等下游任务中发挥着重
560pytorch
CodeGeeX: 多语言代码生成\翻译模型 CodeGeeX是一个具有130亿参数的多编程语言代码生成预训练模型。CodeGeeX采用华为MindSpore框架实现,在鹏城实验室“鹏城云脑II”中的
580pytorchnlp
MSEL实体向量-通用领域-base 实体链接旨在区分文本中的mention和大规模知识图谱中实体的对应关系,也是自然语言处理(NLP)领域的基础问题,在很多对话、检索、关系抽取等下游任务中发挥着重要
330pytorch
text-classification widgets: task: text-classification inputs: type: text validator: max_words: 25
990PyTorchnlp
通义-文本生成视频大模型-英文-通用领域-v1.0 本模型基于多阶段文本到视频生成扩散模型, 输入描述文本,返回符合文本描述的视频。仅支持英文输入。 一些文本生成视频示例如下,上方为输入文本,下方为对
460pytorchmulti-modal
OFA-图像描述(英文) News 2022年11月: 发布ModelScope 1.0版本,以下能力请使用1.0.2及以上版本。 新增OFA Tutorial。 图像描述是什么? 如果你希望为一
430pytorchmulti-modal
Pangu-Alpha 2.6B 鹏程·盘古系列模型整体介绍 基于盘古系列大模型提供大模型应用落地技术帮助用户高效的落地超大预训练模型到实际场景。 鹏程·盘古系列大模型整个框架特点如下: 鹏程·盘
2090pytorchnlp
大规模中文理解和生成联合模型PLUG PLUG (Pre-training for Language Understanding and Generation) 是一个270亿参数的大规模中文理解和生
670pytorchnlp
大规模中文理解和生成联合模型PLUG PLUG (Pre-training for Language Understanding and Generation) 是一个270亿参数的大规模中文理解和生
480pytorchnlp
基于DeBERTaV2的中文Base预训练模型介绍(文档更新中) DeBERTaV2的中文Base预训练模型是使用wikipedia数据集、wudao数据集及中文网页数据,以masked langua
320pytorchnlp
目前模型在ModelScope提供在线体验功能,暂不支持pipeline推理、下载和训练,后续迭代更新版本会开放下载,敬请期待。 通义-文本生成图像大模型-中英文-通用领域 本模型基于多阶段文本到图
720pytorchmulti-modal
当前共162911个项目
×
寻找源码
源码描述
联系方式
提交