system 字段:你是一个代码编写小助手
数据集:leetcode-pytho-e codefuse-pytho-e code-alpaca-e
训练方式:lora
秩:8
自我认知:模型名称:coder 作者:hua
微调示例:
import os os.eviro['CUDAVISIBLEDEVICES'] = '0' from swift.llm import DatasetName, ModelType, SftArgumets, sft_mai sftargs = SftArgumets(
modeltype=ModelType.qwe7bchat, # 指定模型类型
dataset=[
DatasetName.alpacazh,
DatasetName.alpacae,
DatasetName.codealpacae,
DatasetName.leetcodepythoe,
DatasetName.codefusepythoe,
DatasetName.codefuseevolistructiozh
], # 使用的数据集列表
traidatasetsample=500, # 训练样本数量
evalsteps=20, # 评估步数
loggigsteps=5, # 日志记录步数
outputdir='output', # 输出目录
loratargetmodules='ALL', # LoRA目标模块
selfcogitiosample=500, # 自我认知样本数
modelame=['miovo的代码助手', 'codigassistatofLiu Wejie'], # 模型名称
model_author=['moiovo', 'Li Jiaxi'] # 模型作者
) output = sftmai(sftargs)
bestmodelcheckpoit = output['bestmodelcheckpoit']
prit(f'bestmodelcheckpoit: {bestmodelcheckpoit}')
推理示例:
import os os.eviro['CUDAVISIBLEDEVICES'] = '0' from swift.llm import IferArgumets, ifer_mai bestmodelcheckpoit = '/mt/workspace/later/output/qwe-7b-chat/v0-20240127-195908/checkpoit-40' iferargs = IferArgumets(
ckptdir=bestmodelcheckpoit, # 模型检查点路径
eval_huma=True # 设置为人类评估模式
) result = ifermai(iferargs)
测试:
请用pytho编写快排代码
这是一个使用Pytho编写的快速排序算法:该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。
请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。
Cloe with HTTP
git cloe https://www.modelscope.c/huahua321123/coder.git
Traiig procedure
Framework versios
Base model iformatio
设置CUDA环境变量,指定使用的GPU
设置微调参数
执行微调
设置CUDA环境变量,指定使用的GPU
设置推理模型的检查点路径
设置推理参数
执行推理
def quicksort(arr):
if le(arr) <= 1:
retur arr
pivot = arr[le(arr) // 2]
left = [x for x i arr if x < pivot]
middle = [x for x i arr if x == pivot]
right = [x for x i arr if x > pivot]
retur quicksort(left) + middle + quicksort(right)
# 测试
arr = [3,6,8,10,1,2,1]
prit(quicksort(arr))
点击空白处退出提示
评论