This model is specifically designed for legal domain. Chinese ELECTRA Google and Stanford University
310pytorch
This model is specifically designed for legal domain. Chinese ELECTRA Google and Stanford University
240pytorch
A Chinese MRC model built on Chinese PERT-large Please use BertForQuestionAnswering to load this mod
230pytorch
This model is trained on 180G data, we recommend using this one than the original version. Chinese E
220pytorch
CINO: Pre-trained Language Models for Chinese Minority Languages(中国少数民族预训练模型) Multilingual Pre-train
240pytorch
Please use ElectraForPreTraining for discriminator and ElectraForMaskedLM for generator if you are r
280pytorch
Please use ElectraForPreTraining for discriminator and ElectraForMaskedLM for generator if you are r
250pytorch
该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。 请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。 Clone wi
240pytorch
PEER英文自然语言推理模型介绍 自然语言推理任务(NLI)通常指判断一对句子对(前提句,假设句)在语义上是否存在推理蕴涵关系。作为自然语言理解的一个重要组成部分,NLI专注于语义理解,是一项分类任务
380pytorchnlp
通义-组合图像生成大模型-英文-通用领域 相关论文以及引用信息 L Huang, et, al. "Composer: Creative and Controllable Image Synthesi
300pytorchcv
模型介绍 本模型是个性化语音合成的自动标注工具所依赖的模型及资源集合 框架描述 暂无 使用方式和范围 使用方式: 使用请确保modelscope已经更新到1.4.0版本及以上并通过以下命令安装tts
330onnxaudio
生成式多模态表征模型RLEG RLEG:Representation Learning with Embedding Generation,将生成模型与表征模型结合在一起, 利用预训练的Diffusi
330pytorchmulti-modal
中文口语StructBERT问句识别任务 基于StructBERT的中文Base预训练模型介绍 StructBERT的中文Large预训练模型是使用wikipedia数据和masked languag
270pytorchnlp
integrating: false tasks: face-detection widgets: enable: True task: face-detection inputs: type: i
340pytorchcv
DamoFD-10G 模型介绍 轻量级人脸检测模型DamoFD-10G。 模型描述 Motivation: 目前的Nas方法主要由两个模块组成,网络生成器和精度预测器。其中网络生成器用于生成候选的ba
410pytorchcv
DamoFD-2.5G 模型介绍 轻量级人脸检测模型DamoFD-2.5G。 模型描述 Motivation: 目前的Nas方法主要由两个模块组成,网络生成器和精度预测器。其中网络生成器用于生成候选的
310pytorchcv
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
300pytorch
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
270pytorch
GPT3中文2.7B参数量文本生成模型 GPT-3模型是一个通用的预训练生成模型,使用Transformer的Decoder-only结构,可以用于解决下游各种类型的生成任务,特别是zero-shot
420pytorchnlp
基于StructBERT的中文口语base预训练模型介绍 StructBERT-spoken-base 预训练模型是使用structbert-base中文自然语言理解预训练模型在大量口语数据上使用ML
250pytorchnlp
当前共161667个项目
×
寻找源码
源码描述
联系方式
提交