ICASSP2023 MUG Challenge Track5 行动项抽取Baseline 赛事及背景介绍 随着数字化经济的进一步发展,越来越多的企业开始将现代信息网络作为数据资源的主要载体,并通过网
380pytorchnlp
UniTE介绍 模型描述 翻译质量评价,即对翻译文本进行质量评估,在给定源端输入、目标端参考答案、或两者均有提供的情况下,算法用于评估所生成文本的质量。本单一模型可同时支持提供源端输入(src-onl
330pytorchnlp
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
170electra
该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。 请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。 Clone wi
260electra
ICASSP2023 MUG Challenge Track4 关键词抽取Baseline 赛事及背景介绍 随着数字化经济的进一步发展,越来越多的企业开始将现代信息网络作为数据资源的主要载体,并通过网
360pytorchnlp
中文CLIP News 2022年11月: 发布ModelScope 1.0版本,以下能力请使用1.0.2及以上版本。 上线Huge模型(224分辨率) 上线创空间,更强大的demo展示:中文图文检
410pytorchmulti-modal
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
210
ICASSP2023 MUG Challenge Track3 子标题生成Baseline 赛事及背景介绍 随着数字化经济的进一步发展,越来越多的企业开始将现代信息网络作为数据资源的主要载体,并通过网
350pytorchnlp
ICASSP2023 MUG Challenge Track2 抽取式篇章摘要Baseline 赛事及背景介绍 随着数字化经济的进一步发展,越来越多的企业开始将现代信息网络作为数据资源的主要载体,并通
330pytorchnlp
ICASSP2023 MUG Challenge Track2 抽取式话题摘要Baseline 赛事及背景介绍 随着数字化经济的进一步发展,越来越多的企业开始将现代信息网络作为数据资源的主要载体,并通
310pytorchnlp
TinyMog 模型介绍 稳定调用及效果更好的API,详见视觉开放智能平台:人脸检测与五官定位。 轻量级人脸检测模型TinyMog 模型描述 本模型基于Nas搜索出来的backone + scrfd-
500pytorchcv
ICASSP2023 MUG Challenge Track1 文本话题分割Baseline 赛事及背景介绍 随着数字化经济的进一步发展,越来越多的企业开始将现代信息网络作为数据资源的主要载体,并通过
400pytorchnlp
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
190
ArcFace 模型介绍 人脸属性模型FairFace 模型描述 MogFace为当前SOTA的人脸检测方法,已在Wider Face六项榜单上霸榜一年以上,后续被CVPR2022录取(论文地址,代码
350pytorchcv
模型描述 模型简介 本模型可根据输入人脸图片快速确定人脸位置,输出其在图片中位置以及五个关键点,分别为左眼、右眼、鼻子、左嘴角、右嘴角。可用于快速确定人脸数量及其位置的场景,如密集场景人流量统计,也可
310pytorchcv
Erlangshen-RoBERTa-110M-Sentiment Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introdu
380pytorchnlp
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
250
TransformerXL模型-快速作诗 模型集成中 本模型使用了智源研究院发布的中文预训练语料WuDaoCorpus 。具体地,我们使用了WuDaoCorpus中来自百度百科+搜狗百科(133G)、
430pytorchnlp
GPT-3文本生成模型介绍(文档更新中) GPT-3模型是一个通用的预训练生成模型,使用Transformer的Decoder-only结构,可以用于解决下游各种类型的生成任务,特别是zero-sho
390pytorchnlp
该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。 请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。 Clone wi
180
当前共161944个项目
×
寻找源码
源码描述
联系方式
提交