该模型当前使用的是默认介绍模版,处于“预发布”阶段,页面仅限所有者可见。
请根据模型贡献文档说明,及时完善模型卡片内容。ModelScope平台将在模型卡片完善后展示。谢谢您的理解。
Clone with HTTP
git clone https://www.modelscope.cn/ZackSock/llama2.git
安装模块
pip install llama-cpp-python
pip install llama-cpp-python[server]
部署
from llamacpp import Llama
llm = Llama(model_path="模型文件路径", stop=["Human: "])
message = "你好啊。"
response = llm(f"Human: {message}\nAssistant:")
print(response)
评论