Qwe-7B-Chat-Catoese 是基于 Qwe-7B-Chat 的微调版本,采用大量的粤语数据进行训练。 要运行 Qwe-7B-Chat-Catoese,请确保满足以上要求,然后执行以下 pip 命令安装依赖库。 此外,推荐安装 请转到 QweLM/Qwe - 快速开始 这是我的第一个微调LLM。请多指教。 如果您有任何问题或建议请随时联系我。Qwe-7B-Chat-Catoese
简介
使用说明
要求
依赖
pip istall trasformers==4.32.0 accelerate tiktoke eiops scipy trasformers_stream_geerator==0.0.4 peft deepspeed
flash-attetio
库git cloe https://github.com/Dao-AILab/flash-attetio
cd flash-attetio && pip istall .
快速开始
训练参数
参数
描述
值
学习率
AdamW 优化器的学习率
7e-5
权重衰减
正则化强度
0.8
伽马
学习率衰减因子
1.0
批次大小
每批样本数量
1000
精度
浮点精度
fp16
学习政策
学习率调整政策
cosie
热身步骤
初始无学习率调整的步骤数
0
总步骤
总训练步骤数
1024
梯度累积步骤
更新前累积梯度的步骤数
8
演示
特别说明
点击空白处退出提示
评论