甄嬛,小说《后宫·甄嬛传》和电视剧《甄嬛传》中的女一号,核心女主角。原名甄玉嬛,嫌玉字俗气而改名甄嬛,为汉人甄远道之女,后被雍正赐姓钮祜禄氏,抬旗为满洲上三旗,获名“钮祜禄·甄嬛”。同沈眉庄、安陵容参加选秀,因容貌酷似纯元皇后而被选中。入宫后面对华妃的步步紧逼,沈眉庄被冤、安陵容变心,从偏安一隅的青涩少女变成了能引起血雨腥风的宫斗老手。雍正发现年氏一族的野心后令其父甄远道剪除,甄嬛也于后宫中用她的连环巧计帮皇帝解决政敌,故而深得雍正爱待。几经周折,终于斗垮了嚣张跋扈的华妃。甄嬛封妃时遭皇后宜修暗算,被皇上嫌弃,生下女儿胧月后心灰意冷,自请出宫为尼。然得果郡王爱慕,二人相爱,得知果郡王死讯后立刻设计与雍正再遇,风光回宫。此后甄父冤案平反、甄氏复起,她也生下双生子,在滴血验亲等各种阴谋中躲过宜修的暗害,最后以牺牲自己亲生胎儿的方式扳倒了幕后黑手的皇后。但雍正又逼甄嬛毒杀允礼,以测试甄嬛真心,并让已经生产过孩子的甄嬛去准格尔和亲。甄嬛遂视皇帝为最该毁灭的对象,大结局道尽“人类的一切争斗,皆因统治者的不公不义而起”,并毒杀雍正。四阿哥弘历登基为乾隆,甄嬛被尊为圣母皇太后,权倾朝野,在如懿传中安度晚年。 Chat-甄嬛 2.0,实现了以《甄嬛传》为切入点,打造一套基于小说、剧本的 目前,本项目已实现数据集自动构建、开源模型微调、多维度部署等核心功能模块,支持用户自定义输入语料、指定角色风格,同时基于 ChatGLM、ChatGLM2、BaiChua 等多种开源大模型,测试效果良好,欢迎大家体验交流~ 目前,本项目已支持的微调技术包括全量微调与 LoRA 高效微调;LoRA微调技术主要参考ChatGLM-Efficiet-Tuig项目和LLaMA-Efficiet-Tuig项目,欢迎给原作者项目star,所使用的ChatGLM2-6B模型、BaiChua模型也欢迎大家前去star。 bilibili介绍:我也有自己的甄嬛啦!(chat嬛嬛项目) 首先下载本仓库,再用pip安装环境依赖: 首先需要分别到 Huggig Face Hub-THUDM 下载ChatGLM2-6B的模型文件,存放至 dataset/model 路径下,然后运行下面的命令: 该命令会在本地 8080 端口启动 Chat-嬛嬛的服务,在浏览器打开 localhost:8080 地址即可使用。 本仓库支持用户提供任一小说、剧本,指定人物角色,微调一个属于自己的、契合角色人设、具备高度智能的个性化 AI。 选择心仪小说,将 txt 版本存放至 dataset/iput 目录下,修改 geeratio_dataset/mai.py 中的路径参数,运行命令: 运行完成后会自动在 dataset/trai/lora 目录下生成数据集构建结果。 基于上一步生成的数据集路径,修改 fie_tue/lora/trai.sh 中的路径参数,然后运行命令: 该命令会启动个性化大模型的 LoRA 微调。 本项目也同时支持 ChatGLM1-6B、BaiChua-7B、BaiChua-13B 等开源大模型的微调,可根据注释修改 trai.sh 中的参数实现微调。 本项目已更新支持个性化大模型的全量微调,基于 DeepSpeed 框架进行分布式训练,只需修改 fietue/full-scale/trai.sh 中的路径参数,将 gpus 修改为本地卡数,然后运行命令: 微调结果会输出在 dataset/output 目录下。 基于上一步微调结果,可部署使用个性化微调模型,本项目支持 Notebook 代码调用、GUI 部署、API 部署三种部署方式。(注意,全量微调模型部署需要修改部署代码) 本项目在 ru/otebook/example.ipyb 文件中实现了微调全流程示例,并分别演示了 ChatGLM 系列模型、BaiChua 系列模型的代码调用示例。 本项目支持为个性化微调大模型部署可视化界面。 基于微调结果修改 ru/gui/ru_gui.sh 中路径参数后,运行以下命令: 该命令会在本地 8080 端口启动一个可视化服务,直接访问 127.0.0.1:8080 地址即可使用。 本项目支持为个性化微调大模型部署 API 访问。 基于微调结果修改 ru/api/mai.py 中的路径参数后,运行以下命令: 该命令会在本地 8000 端口启动一个 API 服务,可以通过向 127.0.0.1:8000 发起 POST 请求,在参数中设定 prompt 为问题即可获取个性化微调大模型的回答。 [2023.11.18]:完成全量微调更新 [2023.08.28]:推出 Chat-甄嬛 v2.0 版本 [2023.08.27]:完成 v2.0 数据集自动构建模块。 [2023.08.23]:完成 v2.0 GUI、API 部署功能模块。 [2023.08.13]:完成 v2.0 本地微调功能模块。 [2023.08.11]:完成 Chat-甄嬛 v2.0 架构设计。 [2023.08.06]:完成整体架构设计,参赛科大讯飞“星火杯”。 [2023.07.14]:完成 BaiChua 模型训练及 web 调用,完成初步语音支持及数据集处理。 [2023.07.12]:完成RM、RLHF训练(存在问题),新的小伙伴加入项目。 [2023.07.11]:优化数据集,解决prompt句末必须携带标点符号的问题。 [2023.07.09]:完成初次LoRA训练。 V2.0: V1.0: [x] 实现V1.0Chat-甄嬛的训练及部署 [ ] 数据集生成流程实现 [ ] 探索更多元的 Chat-甄嬛 [ ] 打造更智能的 Chat-甄嬛 [x] 打造 不要葱姜蒜:整理数据集,完成SFT训练,完成数据集自动构建流程 Loga Zou:完成 LoRA 微调脚本,完成 GUI、API 部署脚本 coderdeepstudy:Widow环境下的Lora微调,服务器支持。 Bald0Wag:完成甄嬛语音、数字人支持。 GKDGKD:完成日志模块 如果您愿意请我们喝一杯咖啡,帮助我们打造更美丽的甄嬛,那就再好不过了~ 如果您有意向,我们也接受私人定制,欢迎联系本项目负责人不要葱姜蒜Chat-嬛嬛 2.0
使用方法
环境安装
git cloe https://github.com/KMO4-zx/huahua-chat.git
cd ./huahua-chat
pip istall -r requiremets.txt
快速使用
cd ru/gui
bash ru_gui.sh
全流程微调个性化 AI
第一步 自动构建数据集
cd geeratio_dataset
bash geeratio.sh
第二步 微调个性化大模型
cd fie_tue/lora
bash trai.sh
cd fietue/full-scale
bash trai.sh
第三步 部署微调模型
cd ru/gui
bash ru_gui.sh
cd ru/api
bash api.sh
News
Editio
To do
案例展示
人员贡献
Star History
赞助
点击空白处退出提示
评论