pytorch

模型介绍 Highlights 模型为使用开源数据aishell、wenetspeech文本训练的Ngram模型编译得到的FST模型,可以直接用来做生产部署,一键部署教程(点击此处) ModelSco
460audio
该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面
260pytorch
Model Card for Mixtral-8x7B The Mixtral-8x7B Large Language Model (LLM) is a pretrained generative S
310
SUS-Chat-34B是基于yi-34b微调的模型,性能上超越了几乎所有70b模型。它是由南方科技大学和IDEA-CCNL联合发布的34B中英双语对话模式。 该模型基于数百万个高质量的多语言教学数据
330
Starling-RM-7B-alpha Developed by: Banghua Zhu * , Evan Frick * , Tianhao Wu * , Hanlin Zhu and Ji
310
该模型为使用ModelScope Trainer 微调的模型 基础模型:GPT-3预训练生成模型-中文-1.3B 任务类型:generation 任务名称:testtextto_sql 评估结果
250pytorchnlp
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
280
该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。 请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。 Clone wi
240
畲族女孩lora基于majicMIXrealisticv6微调,采用穿着畲族服装女孩进行训练 关键字:shezu girl 推理代码: from diffusers import StableDiff
340
Model Card for Mistral-7B-Instruct-v0.2 The Mistral-7B-Instruct-v0.2 Large Language Model (LLM) is a
260finetuned
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
250
该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。 请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。 Clone wi
250
Some source code of ours is borrowed from 3DGS, k-planes,HexPlane, TiNeuVox. We sincerely appreciate
310pytorchAlibaba
Clone with HTTP git clone https://www.modelscope.cn/eavesy/lcm-lora-sdv1-5.git Latent Consistency
250
一、一个简单介绍 OpenChat 是一个创新的开源语言模型库,使用 C-RLFT 进行了微调,这是一种受离线强化学习启发的策略。 我们的模型从没有偏好标签的混合质量数据中学习,即使使用 7B 模型,
400
OneLLM: One Framework to Align All Modalities with Language [Project Page] [Paper] News 2023.12.01
430
当前模型的贡献者未提供更加详细的模型介绍。模型文件和权重,可浏览“模型文件”页面获取。 您可以通过如下git clone命令,或者ModelScope SDK来下载模型 SDK下载 #安装ModelS
220
汉族女孩lora基于majicMIXrealisticv6微调,采用穿着汉服女孩进行训练 关键字:hanzu girl 推理代码: from diffusers import StableDiffus
290
Mamba Mamba: Linear-Time Sequence Modeling with Selective State Spaces\ Albert Gu, Tri Dao\
320
Model Card for Mixtral-8x7B The Mixtral-8x7B Large Language Model (LLM) is a pretrained generative S
250
当前共5187个项目
×
寻找源码
源码描述
联系方式
提交