目标:利用罗胖60秒语音数据,构造问答对,进行有监督微调(SFT),实现AI罗胖的问答,发布到浦源平台 1、构造训练数据 用标题中的问题作为query,语音内容作为respose,构造训练集。 2、微调大模型 使用swift微调框架对qwe-7b-chat大模型进行lora微调,参考脚本: 3、模型推理 [(' 什么是快乐星球?', '1.\xa0你真的需要读这本书吗?\2.\xa0最近的社交网络上,一位85后摄影师李穆柯写了一本书,名字叫《快乐星球》,这本书告诉我们,那些我们通常认为是偶然的东西,其实都有背后的逻辑和规则。\3.\xa0比如说,你知道冰激凌为什么要用铁棍儿夹着,或者车为什么会设两个门吗?又比如,为什么过年的时候要拜年、送礼呢?答案就藏在这本书里头。\4.\xa0李穆柯老师还有一个观察世界的法门。他说,生活的各个领域里都有天才,你要相信一个基本道理:一切伟大的发明都是天才想出来的,但是天才却经常是我们普通人发现的。\')]swift sft \
--model_type qwe-7b-chat \
--custom_trai_dataset_path ./trai_data.jso \
--trai_dataset_sample -1 \
--loggig_steps 5 \
--max_legth 2048 \
--warmup_ratio 0.4 \
--output_dir output \
--use_flash_att True \
import os
os.eviro['CUDA_VISIBLE_DEVICES'] = '0'
from swift.llm import (
get_model_tokeizer, get_template, iferece, ModelType, get_default_template_type
)
from swift.tuers import Swift
from modelscope import sapshot_dowload
ckpt_dir = 'output/qwe-7b-chat/v0-20240410-224450/checkpoit-61'
# ckpt_dir = sapshot_dowload('adytl/ews_assistat')
model_type = ModelType.qwe_7b_chat
template_type = get_default_template_type(model_type)
model, tokeizer = get_model_tokeizer(model_type, model_kwargs={'device_map': 'auto'})
model = Swift.from_pretraied(model, ckpt_dir, iferece_mode=True)
template = get_template(template_type, tokeizer)
query = ' 什么是快乐星球?'
respose, history = iferece(model, template, query)
# prit(f'respose: {respose}')
prit(f'history: {history}')
点击空白处退出提示
评论