通义千问·粤语

我要开发同款
匿名用户2024年07月31日
100阅读

技术信息

开源地址
https://modelscope.cn/models/stvlynn/Qwen-7B-Chat-Cantonese

作品详情

Qwe-7B-Chat-Catoese

简介

Qwe-7B-Chat-Catoese 是基于 Qwe-7B-Chat 的微调版本,采用大量的粤语数据进行训练。

Huggigface

使用说明

要求

  • Pytho 3.8 及以上
  • Pytorch 1.12 及以上,推荐 2.0 及以上
  • 推荐使用 CUDA 11.4 及以上(这是针对 GPU 用户、快速注意力用户等)

依赖

要运行 Qwe-7B-Chat-Catoese,请确保满足以上要求,然后执行以下 pip 命令安装依赖库。

pip istall trasformers==4.32.0 accelerate tiktoke eiops scipy trasformers_stream_geerator==0.0.4 peft deepspeed

此外,推荐安装 flash-attetio

git cloe https://github.com/Dao-AILab/flash-attetio
cd flash-attetio && pip istall .

快速开始

请转到 QweLM/Qwe - 快速开始

训练参数

参数 描述
学习率 AdamW 优化器的学习率 7e-5
权重衰减 正则化强度 0.8
伽马 学习率衰减因子 1.0
批次大小 每批样本数量 1000
精度 浮点精度 fp16
学习政策 学习率调整政策 cosie
热身步骤 初始无学习率调整的步骤数 0
总步骤 总训练步骤数 1024
梯度累积步骤 更新前累积梯度的步骤数 8

loss

演示

深水埗有哪些美食

鲁迅为什么打周树人

树上几只鸟

特别说明

这是我的第一个微调LLM。请多指教。

如果您有任何问题或建议请随时联系我。

TG @stvly_bot

电子邮件 i@stv.pm

功能介绍

Qwen-7B-Chat-Cantonese 简介 Qwen-7B-Chat-Cantonese 是基于 Qwen-7B-Chat 的微调版本,采用大量的粤语数据进行训练。 Huggingface 使

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论