AI

模型描述 少样本目标检测模型DeFRCN,提出了一种简单而有效的基于Decoupled Faster R-CNN,引入新的GDL和PCB,显著地缓解了传统Faster R-CNN在数据匮乏场景下的潜在
470pytorchcv
基于StructBERT的司法预训练模型介绍 该模型在StructBERT预训练模型的基础上使用400GB司法语料进行预训练。训练语料涵盖了裁判文书、法律法规、庭审笔录、法律问答和法律百科等司法领域文
460pytorchnlp
GPT-3文本生成模型介绍 GPT-3模型是一个通用的预训练生成模型,使用Transformer的Decoder-only结构,可以用于解决下游各种类型的生成任务,特别是zero-shot生成能力。模
360pytorchnlp
图像匹配算法介绍 任务 输入一对图片,图像匹配算法将输出图片间对应像素的位置。 模型描述 本模型基于QuadTree Attention for Vision Transformers算法,是该算法的
300pytorchcv
集成中  README  |  GitHub  |  Models  Dreambooth on Stable Diffusion 介绍 本模型基于多阶段文本到图像生成扩散模型,
480pytorchMultiModal
OFA-sudoku 解决方案 数独是什么? 数独是源自18世纪瑞士的一种数学游戏。是一种运用纸、笔进行演算的逻辑游戏。玩家需要根据9×9盘面上的已知数字,推理出所有剩余空格的数字,并满足每一行、每一
460pytorchmulti-modal
多语言文本正则化和反正则化 文本正则化(Text Normalization, TN)和反正则化(Inverse Text Normalization, ITN)是什么 文本正则化(Text Norm
520pytorchaudio
DDPM-Seg模型介绍 本模型使用预训练好的[guided diffusion]()作为特征提取器,并在有标注的训练数据很少的情况下取得了SOTA的结果。 本模型的生成效果如下所示: 模型描述 本模
490pytorchcv
视频流深度与相机位姿估计算法介绍 任务 输入一段RGB视频流,深度与相机位姿估计算法将分析场景三维结构、输出图像对应的稠密深度图以及图像之间的相对相机位姿 模型描述 本模型基于DRO: Deep Re
300pytorchcv
基础视觉模型高效调优:Structured Model Probing (SMP) Structured Model Probing (SMP) 是一种适用于基础模型的下游任务迁移的高效方法,可大幅减
390pytorchcv
基于第三方监督的词对齐工具 Third-Party Supervised Word Aligner 模型描述 词对齐任务旨在挖掘平行语料中互为翻译的词对,由于缺乏精确且足够的标注数据集,现有的工作多基
590pytorch
基于StructBERT的司法预训练模型介绍 该模型在StructBERT预训练模型的基础上使用400GB司法语料进行预训练。训练语料涵盖了裁判文书、法律法规、庭审笔录、法律问答和法律百科等司法领域文
430pytorchnlp
BERT base model (uncased) Pretrained model on English language using a masked language modeling (MLM
390pytorchaudio
Vision Middleware (ViM) 视觉中间件模型介绍 本模型为基于中游任务训练的基础模型多任务中间件模块组,其基础模型为 CLIP-ViT-B/16。 模型描述 基础模型的预训练与下游任
390pytorchcv
FRFM模型介绍 稳定调用及效果更好的API,详见视觉开放智能平台:人脸比对1:1、口罩人脸比对1:1、人脸搜索1:N、公众人物识别、明星识别。 口罩人脸识别模型FRFM。 模型描述 口罩人脸识别模型
420pytorchcv
基于连续语义增强的神经机器翻译模型介绍 本模型基于邻域最小风险优化策略,backbone选用先进的transformer-base模型,编码器和解码器深度分别为24和6,相关论文已发表于ACL 202
590tensorflownlp
GPT-MoE中文270亿作文生成模型 概述 GPT模型能较好的处理文本生成领域的各种任务,比如文本补全,自由问答,完形填空,写作文,写摘要,写小说,写诗歌等等。最近火爆全网的人工智能产品ChatGP
340pytorchnlp
KnowPrompt基于知识协同优化的调优方法 KnowPrompt用于关系抽取任务,通过学习模板词和答案词,将实体和关系的知识注入模型,并在知识约束下协同优化它们的表示 模型描述 先将知识注入提示,
370pytorchnlp
集成中  Documentation  |  Paper |  Blog   |  GitHub  
450pytorchmulti-modal
基于StructBERT的司法预训练模型介绍 该模型在StructBERT预训练模型的基础上使用400GB司法语料进行预训练。训练语料涵盖了裁判文书、法律法规、庭审笔录、法律问答和法律百科等司法领域文
310pytorchnlp
当前共6731个项目
×
寻找源码
源码描述
联系方式
提交