AI

OFA预训练模型 News 2023年1月: 优化了finetune流程,支持参数更新、自定义数据及脚本分布式训练等,见finetune示例。 2022年11月: 发布ModelScope 1.0版
290pytorchmulti-modal
ArcFace 模型介绍 人脸属性模型FairFace 模型描述 MogFace为当前SOTA的人脸检测方法,已在Wider Face六项榜单上霸榜一年以上,后续被CVPR2022录取(论文地址,代码
370pytorchcv
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
260
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
200
ICASSP2023 MUG Challenge Track2 抽取式话题摘要Baseline 赛事及背景介绍 随着数字化经济的进一步发展,越来越多的企业开始将现代信息网络作为数据资源的主要载体,并通
340pytorchnlp
OFA预训练模型 News 2023年1月: 优化了finetune流程,支持参数更新、自定义数据及脚本分布式训练等,见finetune示例。 2022年11月: 发布ModelScope 1.0版
310pytorchmulti-modal
Erlangshen-RoBERTa-110M-Sentiment Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introdu
390pytorchnlp
TinyMog 模型介绍 稳定调用及效果更好的API,详见视觉开放智能平台:人脸检测与五官定位。 轻量级人脸检测模型TinyMog 模型描述 本模型基于Nas搜索出来的backone + scrfd-
550pytorchcv
模型描述 模型简介 本模型可根据输入人脸图片快速确定人脸位置,输出其在图片中位置以及五个关键点,分别为左眼、右眼、鼻子、左嘴角、右嘴角。可用于快速确定人脸数量及其位置的场景,如密集场景人流量统计,也可
330pytorchcv
OFA预训练模型 News 2023年1月: 优化了finetune流程,支持参数更新、自定义数据及脚本分布式训练等,见finetune示例。 2022年11月: 发布ModelScope 1.0版
430pytorchmulti-modal
ICASSP2023 MUG Challenge Track2 抽取式篇章摘要Baseline 赛事及背景介绍 随着数字化经济的进一步发展,越来越多的企业开始将现代信息网络作为数据资源的主要载体,并通
350pytorchnlp
ICASSP2023 MUG Challenge Track3 子标题生成Baseline 赛事及背景介绍 随着数字化经济的进一步发展,越来越多的企业开始将现代信息网络作为数据资源的主要载体,并通过网
370pytorchnlp
ICASSP2023 MUG Challenge Track1 文本话题分割Baseline 赛事及背景介绍 随着数字化经济的进一步发展,越来越多的企业开始将现代信息网络作为数据资源的主要载体,并通过
410pytorchnlp
OFA预训练模型 News 2023年1月: 优化了finetune流程,支持参数更新、自定义数据及脚本分布式训练等,见finetune示例。 2022年11月: 发布ModelScope 1.0版
380pytorchmulti-modal
该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。 请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。 Clone wi
190
TransformerXL模型-快速作诗 模型集成中 本模型使用了智源研究院发布的中文预训练语料WuDaoCorpus 。具体地,我们使用了WuDaoCorpus中来自百度百科+搜狗百科(133G)、
460pytorchnlp
GPT-3文本生成模型介绍(文档更新中) GPT-3模型是一个通用的预训练生成模型,使用Transformer的Decoder-only结构,可以用于解决下游各种类型的生成任务,特别是zero-sho
410pytorchnlp
模型描述 该模型基于 bigscience/bloom-7b1. 我们使用中文语料库将其词汇量从 250880 修剪到 46145,以减少 GPU 内存使用,现在模型总参数是6b4。 如何使用 在安
340pytorchtransformer
OFA预训练模型 News 2023年1月: 优化了finetune流程,支持参数更新、自定义数据及脚本分布式训练等,见finetune示例。 2022年11月: 发布ModelScope 1.0版
340pytorchmulti-modal
OFA预训练模型 News 2023年1月: 优化了finetune流程,支持参数更新、自定义数据及脚本分布式训练等,见finetune示例。 2022年11月: 发布ModelScope 1.0版
320pytorchmulti-modal
当前共6731个项目
×
寻找源码
源码描述
联系方式
提交