近期,Meta发布了人工智能大语言模型LLaMA,包含70亿、130亿、330亿和650亿这4种参数规模的模型。其中,最小的LLaMA 7B也经过了超1万亿个tokens的训练。

本文我们将以7B模型为例,分享LLaMA的使用方法及其效果。

1. LLaMA的上手指南

这一部分,我们将step by step,展示LLaMA的使用流程。

下载LLaMA模型文件

TARGET_FOLDER=..
torchrun --nproc_per_node 1 example.py --ckpt_dir $TARGET_FOLDER/7B --tokenizer_path $TARGET_FOLDER/tokenizer.model

对于13B模型:

TARGET_FOLDER=..
torchrun --nproc_per_node 2 example.py --ckpt_dir $TARGET_FOLDER/13B --tokenizer_path $TARGET_FOLDER/tokenizer.model

对于不同大小的LLaMA模型文件,上述命令需要调整的为TARGET_FOLDER中模型文件的名称和node参数。

2. 从LLaMA到"开源版ChatGPT”?

LLaMA推出3天后,Nebuly AI的初创AI企业在LLaMA的基础上,基于RLHF(基于人类反馈的强化学习)进行训练,打造了对标ChatGPT的ChatLLaMA。

nebullvm/apps/accelerate/chatllama at main · nebuly-ai/nebullvm · GitHub

ChatLLaMA声称训练过程比ChatGPT快15倍。同时,支持DeepSpeed ZERO,可以加快微调速度。

DeepSpeed是一个开源的深度学习训练优化库,ZeRO是一种显存优化技术,用于提高大型模型的训练效率,如提高训练速度,降低成本和提高模型可用性等。

但ChatLLaMA并不提供LLaMA的模型权重,根据其license,也不可以商用。

3. 彩蛋时刻

正如文章标题所说,本文不仅是指南哦。

我们在IDP开源的AI IDE中,增加了LLaMA和Stable Diffusion的示例文件,小伙伴们可以快速开启LLaMA体验之旅。

项目地址:

白海科技致力于帮助开发者和企业解决AI落地过程中的效率、性能、成本等问题。提供模块化架构的新一代云原生AI平台IDP,便捷轻量地满足AI开发生产全流程需求,并极大提升AI计算性能和资源利用率。基于IDP平台构建IDP LM — 一站式专属大模型构建与应用加速平台,帮助企业快速构建自有可控大模型。

注册时间: 2023-01-03

15445

广播电视节目制作经营许可证(京) 字第1234号 中国互联网协会会员