基于中文金融知识的 LLaMA 系微调模型的智能问答系统:LLaMA大模型训练微调推理等详细教学
基于中文金融知识的 LLaMA 系微调模型的智能问答系统:LLaMA大模型训练微调推理等详细教学
基于 LLaMA 系基模型经过中文金融知识指令精调/指令微调(Instruct-tuning) 的微调模型。通过中文金融公开问答数据+爬取的金融问答数据构建指令数据集,并在此基础上对 LLaMA 系模型进行了指令微调,提高了 LLaMA 在金融领域的问答效果。
基于已有数据和继续爬取的中文金融数据,将继续利用 GPT3.5/4.0 API 构建高质量的数据集,另在 中文知识图谱-金融 、CFLEB 金融数据集等数据上进一步扩充高质量指令数据集。
-
基于 Chinese-LLaMA 和中文金融数据进行指令微调的模型。
-
基于 Meta-LLaMA 和中文金融数据进行指令微调的模型。
1. 环境安装
首先安装依赖包,python环境建议3.9+
pip install -r requirements.txt
其次安装 lfs 方便本地下载 LLaMa 大模型
git lfs install
# 下载7B模型到本地
bash ./base_models/load.sh
2.模型下载
LoRA 权重可以通过 Huggingface 下载,结构如下:
Fin-Alpaca-LoRA-7B-Meta/ - adapter_config.json # LoRA权重配置文件 - adapter_model.bin # LoRA权重文件
| LoRA模型下载 | 分类 | 重构模型 | 训练数据 | 训练序列长度 | 版本 | |----------------------------------------------------------------------------------|------------|-----|----------|--------|------| |
Fin-Alpaca-LoRA-7B-Meta
| 中文金融问答微调模型 | decapoda-research/llama-7b-hf | 12M 指令数据 | 512 | V1.0 | |
Fin-Alpaca-LoRA-7B-Linly
| 中文金融问答微调模型 | Linly-AI/Chinese-LLaMA-7B | 14M 指令数据 | 512 | V1.1 |
3.Inference:单模型推理-多模型对比
目前在
./instruction_data/infer.json
中提供了一些测试用例,也可替换成其它的数据集但注意格式保持一致
运行infer脚本
#单模型推理
bash ./scripts/infer.sh
#多模型对比
bash ./scripts/comparison_test.sh
4.数据集构建
此前版本采用了 公开和爬取的中文金融领域问答数据 ,涉及到保险、理财、股票、基金、贷款、信用卡、社保等。
指令数据示例如下:
问题:办理商业汇票应遵守哪些原则和规定?