Small Stable Diffusion V0 最近,我们发布了diffusion-deploy,以加快在GPU(~4倍速度,基于TensorRT)和CPU(~12倍速度,基于IntelOpenV
540pytorchmulti-modal
卡通系列文生图模型 输入一段文本提示词,实现特定风格卡通图像生成,返回符合文本描述且满足特定风格的结果图像。 ModelScope上提供多种风格效果的卡通生成模型: 插画风格
1720pytorchcv
Highlights UniASR法语语音识别模型,可对近场、低噪、正常语速、朗读形式的法语音频进行语音识别: ASR模型:UniASR模型,法语语音识别模型。 ITN模型:法语ITN模型,可用于语
850pytorchaudio
abnormal-object-detection模型介绍 主要是针对长尾和小目标问题解决的高性能通用目标检测模型,采用COCO数据集训练。本模型基于Resnet50-Backbone增加可形变卷积等
350pytorchcv
Mo Di Diffusion 本模型自 Stable Diffusion 1.5 微调而来,微调数据来自某著名动画工作室的电影截图。在 prompt 中加入 modern disney style
560pytorchtext2image generation
ECBSR端上图像超分模型 模型描述 输入Y通道的低分辨率图像(单通道灰度图像),返回2倍超分辨率后的高清晰Y通道图像。模型基于Edgeoriented Convolution Block (ECB)
610pytorchcv
OFA表情包文本生成器 News 2023年2月: 进一步扩大和过滤非法文本内容的,并原模型上继续迭代微调以产生更加多元化和健康的表情包文本, 并提供创空间体验不同版本效果。 2023年1月: 预处
570pytorchmulti-modal
FRIR 模型介绍 稳定调用及效果更好的API,详见视觉开放智能平台:人脸比对1:1、口罩人脸比对1:1、人脸搜索1:N、公众人物识别、明星识别。 IR人脸识别模型FRIR 模型描述 FRIR是基于残
340pytorchcv
NestedNER介绍 模型描述 本方法采用Global Pointer模型,使用nezha-cn-base作为预训练模型底座。模型训练由AdaSeq框架支持。 模型结构如下图所示: 可参考论文:G
490pytorchnlp
ECAPA-TDNN说话人模型 ECAPA-TDNN模型是基于时延神经网络构建的说话人模型,由于识别性能优异,已经被广泛使用在说话人识别领域中。该模型还可以用于说话人确认、说话人日志等任务。 模型结构
550pytorchaudio
VLPT多模态文字检测预训练模型介绍 文字检测天然涉及到图像和文本两种模态,VLPT通过设计三个图像特征和文本特征相互交互的预训练 任务,使得模型backbone具有了优秀的文字感知能力。该backb
320pytorchcv
StructBERT中文情绪分类模型介绍 情绪分类任务,通常为输入一段句子或一段话,识别该句话情绪类别的模型。 在用户评价、观点抽取、意图识别中往往起到重要作用。 模型描述 模型基于Structber
1230pytorchnlp
StructBERT中文情绪分类模型介绍 情绪分类任务,通常为输入一段句子或一段话,识别该句话情绪类别的模型。 在用户评价、观点抽取、意图识别中往往起到重要作用。 模型描述 模型基于Structber
560pytorchnlp
GPT-MoE中文67亿诗歌生成模型 概述 GPT模型能较好的处理文本生成领域的各种任务,比如文本补全,自由问答,完形填空,写作文,写摘要,写小说,写诗歌等等。最近火爆全网的人工智能产品ChatGPT
470pytorchnlp
HiTransUSE中文用户满意度估计模型介绍 用户满意度估计(User Satisfaction Estimation),又称服务满意度分析(Service Satisfaction Analysi
710pytorchnlp
GPT-MoE中文130亿广告文案生成 概述 GPT模型能较好的处理文本生成领域的各种任务,比如文本补全,自由问答,完形填空,写作文,写摘要,写小说,写诗歌等等。最近火爆全网的人工智能产品ChatGP
450pytorchnlp
方法介绍 方法描述 HiCo是一种基于对比学习的的视频自监督预训练方案。应用于视频的标准对比学习框架基于时序一致性假设,即认为来自同一个视频不同时间的片段应共享相同的视觉特征,该假设使得标准对比学习
450pytorchcv
BERT文本相似度-英文-base-学术数据集paws 该模型基于bert-base-uncased,在paws(Paraphrase Adversaries from Word Scrambling
590pytorchnlp
基于BERT的中文Base预训练模型介绍(文档更新中) BERT的中文Base预训练模型是使用wikipedia数据和masked language model任务训练的中文自然语言理解预训练模型。
620pytorchnlp
跨模态检索介绍 跨模态检索:给定一个文本和图片,给出图文相似度分数。需要模型具备多模态理解的能力,目前主流的方法大多是基于多模态预训练,最为知名的跨模态检索数据集包括:Flickr30K,COCO等。
470pytorchmulti-modal
当前共162903个项目
×
寻找源码
源码描述
联系方式
提交