DamoFD-0.5G 模型介绍 轻量级人脸检测模型DamoFD-0.5G。 模型描述 Motivation: 目前的Nas方法主要由两个模块组成,网络生成器和精度预测器。其中网络生成器用于生成候选的
490pytorchcv
该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。 请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。 Clone wi
180
GPT3中文1.3B参数量文本生成模型 GPT-3模型是一个通用的预训练生成模型,使用Transformer的Decoder-only结构,可以用于解决下游各种类型的生成任务,特别是zero-shot
370pytorchnlp
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
200
该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。 请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。 Clone wi
240
Documen-grounded dialogue Goal-oriented document-grounded dialogue systems enable end users to inter
330pytorchnlp
Documen-grounded dialogue Goal-oriented document-grounded dialogue systems enable end users to inter
300pytorchnlp
Documen-grounded dialogue Goal-oriented document-grounded dialogue systems enable end users to inter
230pytorchnlp
基于连续语义增强的神经机器翻译模型介绍 本模型基于邻域最小风险优化策略,backbone选用先进的transformer-large模型,编码器和解码器深度分别为24和6,相关论文已发表于ACL 20
390tensorflownlp
基于连续语义增强的神经机器翻译模型介绍 本模型基于邻域最小风险优化策略,backbone选用先进的transformer-large模型,编码器和解码器深度分别为24和6,相关论文已发表于ACL 20
560tensorflownlp
基于连续语义增强的神经机器翻译模型介绍 本模型基于邻域最小风险优化策略,backbone选用先进的transformer-large模型,编码器和解码器深度分别为24和6,相关论文已发表于ACL 20
490tensorflownlp
基于连续语义增强的神经机器翻译模型介绍 本模型基于邻域最小风险优化策略,backbone选用先进的transformer-large模型,编码器和解码器深度分别为24和6,相关论文已发表于ACL 20
490tensorflownlp
MAOE介绍 What's New 2023年1月:MAOE(More thAn One Encoder)首次发布,支持 1)细粒度实体识别(体验);2)作为encoder继续fine-tuning
360pytorchnlp
Erlangshen-ZEN2-345M-Chinese Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introduction
280pytorchZEN
Erlangshen-ZEN1-224M-Chinese Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introduction
250pytorchZEN
Erlangshen-UniEX-RoBERTa-110M-Chinese Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Int
380pytorch
Randeng-MegatronT5-770M Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introduction 善于处理
320pytorch
Erlangshen-ZEN2-668M-Chinese Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Introduction
320pytorchZEN
Erlangshen-UniEX-RoBERTa-330M-Chinese Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief Int
350pytorch
Randeng-GAVAE-1.2B-Augmentation-Chinese Github: Fengshenbang-LM Docs: Fengshenbang-Docs 简介 Brief I
350pytorch
当前共161667个项目
×
寻找源码
源码描述
联系方式
提交