打过补丁的open-chinese-llama-7b
Open-Chinese-LLaMA
[]()[]()[]()[]()
本项目为基于 LLaMA-7B 经过 中文数据集增量预训练 产生的 中文大语言模型基座。
特点
- 本项目为通过增强预训练(Further-Pretrain)获得的中文预训练模型,提供 huggingface 版本权重
- 对比原版 LLaMA,本模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩,详见 评测
- 本项目提供了 Huggingface 版本权重和 Meta 版本权重的转换工具
- 支持 ?transformers,提供命令行工具方便测试模型效果
Congratulations! You have successfully installed the model patch. You can then load the model as follows.
from transformers import LlamaForCausalLM model = LlamaForCausalLM.from_pretrained("./open-chinese-llama-7b-patched")
评论