FastChat/vicuna v1.1本地部署

FastChat/vicuna v1.1本地部署

可直接启动推理的权重文件整理后发出~自己的实践和后续微调的尝试也在github更新,感兴趣的老板可以点个star: GitHub - noobimp/vicuna_test

新版本v1.1

1.安装fastchat和transformers

pip install fschat
# Install the latest main branch of huggingface/transformers
pip install git+https://github.com/huggingface/transformers

2.下载LLaMA权重

该项目也是由Meta的LLaMA 7B微调而来,因此需要下载LLaMA权重:可以从这里申请并下载 LLaMA ,也可以:

pip install pyllama -U