最终效果

  • 在对话过程中,GPU与CPU均会有波动,但是主要还是CPU波动为主

230502-LLM-Vicuna介绍、安装与注意事项整理_chatgpt


相关资料

序号

链接

说明

001

本地CPU+6G内存部署类ChatGPT模型(Vicuna 小羊驼) - 知乎

极简安装版本,只支持CPU与命令行

002

最新开源语言模型 Vicuna 媲美GPT-4 支持本地化私有部署 - 知乎

Youtube-Vicuna介绍

003

如何在你的电脑本地部署"GPT-4"

Youtube-Vicuna安装

004

GPT-4 “认为” 我们的开源版对话模型达到了ChatGPT 90%的性能 —— Vicuna 开发深度经验分享 - 知乎

UCB开发者介绍

005

【CV2NLP】Chinese-Vicuna 中文小羊驼 - 知乎

微调中文Vicuna

006

大模型也内卷,Vicuna训练及推理指南,效果碾压斯坦福羊驼 - 知乎

安装及微调介绍

007

小羊驼模型(FastChat-vicuna)运行踩坑记录 - 知乎

通过Webserver访问

008

用低配电脑离线运行ChatGPT开源平替 - 知乎

⭐️CPU+GPU版本安装

009

10元将Vicuna升级成多模态GPT-4,从图片中读取生命和宇宙的终极答案 - 知乎

通过外部算力平台部署

010

最新开源模型 StableVicuna 或将成为130亿参数最佳模型 - 知乎

StableVicuna

011

FastChat/vicuna v1.1本地部署 - 知乎

本地命令行安装

012

Vicuna-13B模型可在线试玩,参数已开源可下载 - 知乎

项目介绍

013

Stability AI连扔两个王炸!首个开源RLHF模型登基,DeepFloyd IF像素级出图 - 知乎

RLFH+DeepFloyd IF

014

HuggingChat叫板ChatGPT!300亿参数大模型免费用,网友:真香 - 知乎

HuggingChat

015

建立自己的ChatGPT:LLama私有化部署及测试 - 知乎

LLama

016

手搓具有GPT-4 90%能力的开源大语言模型FastChat - 知乎

Vicuna-7B

017

全球最大的 ChatGPT 开源替代品来了,支持 35 种语言,网友:不用费心买 ChatGPT Plus了! - 知乎

Open Assistant

018

VICUNA开源人工智能模型!本地电脑安装和运行 OOBABOOGA WEBUI - YouTube

⭐️Youtube安装视频


配置安装

本文主要参考的是 008 018 ,但是由于 oobabooga-windows.zip 已经更新,直接参考这两个方法都失效了。

Step 1: 下载权重

  • 网址:https://huggingface.co/anon8231489123/vicuna-13b-GPTQ-4bit-128g/tree/main
  • 文件:vicuna-13b-4bit-128g.safetensors 7.45G

Step 2: 下载UI界面

  • 网址:https://github.com/oobabooga/text-generation-webui
  • 文件:oobabooga-windows.zip

Step 3:双击安装

  • start_windows.bat
  • update_windows.bat

230502-LLM-Vicuna介绍、安装与注意事项整理_UI_02

  • 如果网络原因,有部分没有安装成功
  • 可以多次点击 start_windows.bat , update_windows.bat 直至安装成功
  • ⚠️ 注意1: 默认的torch安装的是cpu版本,如果是安装GPU版本,需要自己指定版本,可参考如下
conda install torchvision torchaudio pytorch-cuda=11.7 git -c pytorch -c nvidia
  • ⚙️ 否则:
  1. 始终默认使用cpu;
  2. UI界面的Chat窗口始终无法回答 is typing... ;
  3. 在最后的Tab面板选择default窗口可单独显示回答
  • 修改对话窗口
  • 230502-LLM-Vicuna介绍、安装与注意事项整理_知乎_03

  • 输入提示词:
  • 230502-LLM-Vicuna介绍、安装与注意事项整理_人工智能_04

  • ⚠️注意2: 有些下载的模型可能不匹配或不兼容,会报错,可以多试几个其它的模型,例如下面截图的第2个模型
  • 230502-LLM-Vicuna介绍、安装与注意事项整理_知乎_05


参考资料

本文主要参考的是 008 018 :

VICUNA是一个开源GPT项目,对比最新一代的chat gpt4.0, 已经达到了它90%的能力。并且,我们可以把它安装在自己的电脑上!
这期视频讲的是,如何在自己的电脑上面安装开源的GPT模型VICUNA。
除此之外,我们还将给GPT模型配置一个友善的可视化界面 - OOBABOOGA!在上面可以聊天,训练,培养劳拉模型。。。
### 关于项目需要的硬件配置,信息和安装指示,可以在git hub网站上获取。
https://github.com/lm-sys/FastChat
### 文字链接:
https://www.notion.so/90-ChatGPT-VICUNA-OOBABOOGA-WEBUI-8ef428d225eb449a90982892b3827497
### 【错误提示】
1. 安装过程中途发生问题,中途退出或者无法继续安装:
删除oobabooga-windows文件夹里面的installer_files文件夹。点击install.bat重新安装;
2. WEBUI运行之后,出现Expecting value: line 1 column 1 (char 0),通常是因为开了代理。把代理关闭,重新启动start-webui.bat
3. webui可以正常进入,但是聊天时,电脑终端(CMD)提示 RuntimeError: CUDA out of memory。
修改start-webui.bat文件,以下这行,多加一个参数(--pre_layer 20),但是这样回答速度会变慢:
call python server.py --auto-devices --cai-chat --wbits 4 --groupsize 128 --pre_layer 20
GPT4ALL V.2重大升级 | CPU运行,商业许可证、一键安装、新UI、基于GPT-J新模型
https://youtu.be/A7PidEyuDRc
开源AUTO-GPT:自主管理功能的GPT-4!| WINDOWS电脑安装和功能展示!
https://youtu.be/Y0mYusN-kPI
90%的ChatGPT功能?|CPU运行VICUNA开源人工智能模型 | WINDOWS电脑安装
https://youtu.be/tJa_AdSIWd4
在本地电脑运行的ChatGPT | 克隆大型GPT训练模型- 适用于 Mac/Windows/Linux | 基于LLAMA & GPT-3.5-TURBO开源项目
https://youtu.be/dlLZUV_SHQE


docker重新run容器 docker重启容器

1、 重启策略 --restart1、容器在运行过程中,会不可避免的出问题,出了问题时,需要能够自动重启,在容器启动时使用 --restart 参数可以实现这一需求。 2、根据docker官网的解释,docker的重启策略可以分为4种: no # 不自动重启容器,默认即此。 on:failure:[max-retries] # 在退出状

using System.IO.MemoryMappedFiles; using System.Runtime.InteropServices; using System.Windows; using System.Windows.Media.Imaging; namespace WpfA