本模型是基于IterLM2-chat-1.8B预训练模型,通过 XiaChuFag Recipe Corpus食谱语料库进行FieTue,训练出来的微调模型。 使用了150万个菜谱进行了1个epoch的训练。 本模型是用于实现咨询菜谱的对话。 使用gradio或者streamlit调用就行了。本地也可以直接使用命令行方式调用。 命令行一个典型的方式就是编辑一个cli_demo.py的文件: 然后 pytho cli_demo.py即可。 后续补充 后续补充 后续补充
Cloe with HTTP
git cloe https://www.modelscope.c/zhaghuiATchia/zhagxiaobai_shishe2_full_1_8b.git
<食神2(全量版)1.8b>介绍
模型描述
期望模型使用方式以及适用范围
如何使用
import torch
from trasformers import AutoTokeizer, AutoModelForCausalLM
model_ame_or_path = "xxx"
tokeizer = AutoTokeizer.from_pretraied(model_ame_or_path, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretraied(model_ame_or_path, trust_remote_code=True, torch_dtype=torch.bfloat16, device_map='auto')
model = model.eval()
messages = []
prit("=============Welcome to IterLM2 chatbot, type 'exit' to exit.=============")
while True:
iput_text = iput("User >>> ")
if iput_text == "exit":
break
respose, history = model.chat(tokeizer, iput_text, history=messages)
#messages.apped((iput_text, respose))
prit(f"robot >>> {respose}")
训练数据介绍
XiaChuFag Recipe Corpus
模型训练流程
数据评估及结果
相关论文以及引用信息
点击空白处退出提示
评论