Llama3-70B-中文-聊天-AWQ-32k

我要开发同款
匿名用户2024年07月31日
22阅读
所属分类ai、llama
开源地址https://modelscope.cn/models/BUJIDAOVS/Llama3-70B-Chinese-Chat-AWQ-32k
授权协议Apache License 2.0

作品详情

Llama3-70B-Chinese-Chat-AWQ-32k

模型描述

本仓库提供了在shenzhi-wang全参数微调的Llama3-70B-Chinese-Chat基础上进行的4位AWQ量化版本。 原始模型是基于Llama3-70B模型,在中文聊天任务上进行了微调,以提升其在处理中文对话任务的能力。 此外,我们还增加了一个可选的配置文件,以支持将上下文长度从原始的8k扩展至32k。这样,模型可以处理更长的文本序列,适用于需要上下文信息更丰富的场景。

量化

我们使用了4位AWQ量化技术来降低模型的权重精度,初步试用中,模型性能保持得还不错。量化后的模型可以在资源有限的环境中运行。

上下文扩展

为了支持更长的上下文,我们增加了一个名为config-32k.json的配置文件。当您需要处理的文本长度超过原始上下文限制时,可以通过简单地替换配置文件来启用这一特性。 请注意,由于这是一个实验性的特性,使用更长上下文长度可能会影响模型的性能,建议您根据实际使用场景进行测试。 (默认使用llama3原版"config.json",具有8k上下文。若要启用32k上下文长度,请将模型文件中的"config.json"替换为"config-32k.json",效果不确定,请自行测试)

原始模型链接

https://huggingface.co/shenzhi-wang/Llama3-70B-Chinese-Chat 感谢开源社区对llama3中文化做出的贡献。

声明:本文仅代表作者观点,不代表本站立场。如果侵犯到您的合法权益,请联系我们删除侵权资源!如果遇到资源链接失效,请您通过评论或工单的方式通知管理员。未经允许,不得转载,本站所有资源文章禁止商业使用运营!
下载安装【程序员客栈】APP
实时对接需求、及时收发消息、丰富的开放项目需求、随时随地查看项目状态

评论