From 01e0f316e26de745b3a38166b73d338dbbc9ab47 Mon Sep 17 00:00:00 2001 From: "chaoyu@qiyuanlab.com" Date: Tue, 16 Jul 2024 16:53:02 +0800 Subject: [PATCH] quick start --- quick_start_clean/readmes/quick_start.md | 412 +++++++++++++++++++++++ 1 file changed, 412 insertions(+) create mode 100644 quick_start_clean/readmes/quick_start.md diff --git a/quick_start_clean/readmes/quick_start.md b/quick_start_clean/readmes/quick_start.md new file mode 100644 index 0000000..4aeb23f --- /dev/null +++ b/quick_start_clean/readmes/quick_start.md @@ -0,0 +1,412 @@ + + +# 九格大模型使用文档 +## 目录 + +- [九格大模型使用文档](#九格大模型使用文档) + - [目录](#目录) + - [环境配置](#环境配置) + - [数据处理流程](#数据处理流程) + - [单个数据集处理](#单个数据集处理) + - [多个数据集混合](#多个数据集混合) + - [单机训练](#单机训练) + - [多机训练](#多机训练) + - [参数详细介绍](#参数详细介绍) + - [查看训练情况](#查看训练情况) + - [常见问题](#常见问题) + + + +## 环境配置 +```shell +1. 使用python 3.8.10创建conda环境 +conda create -n fm-9g python=3.8.10 + +2. 激活环境 +conda activate fm-9g + +3. 安装Pytorch +# 需要先查看CUDA版本,根据CUDA版本挑选合适的pytorch版本 +conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.6 -c pytorch -c nvidia + +9.安装OpenDelta +# 也可以在官网上下载好安装包后进行安装 +# 官网地址为:https://github.com/thunlp/OpenDelta +pip install opendelta + +5. 安装BMTrain +pip install bmtrain==1.0.0 + +5. 安装flash-attn +pip install flash-attn==2.4.2 + +6. 安装其他依赖包 +pip install einops +pip install pytrie +pip install transformers +pip install matplotlib +pip install h5py +pip install sentencepiece + +7.安装tensorboard +pip install protobuf==3.20.0 #protobuf版本过高时无法适配tensorboard +pip install tensorboard +pip install tensorboardX +``` + +## 数据处理流程 + ### 单个数据集处理 + 预训练语料为无监督形式,不需要区分问题与答案,但需要将数据转为index后进行模型训练。我们拿到的原始数据可能是两种形式: +- 文件格式为.txt的原始文本,处理流程为:数据→jsonl格式的数据→index数据 +- 文件格式为.jsonl的文本数据,处理流程为j:数据→index数据 +1. 参考以下脚本,将txt数据处理为jsonl格式: +```python +# convert_txt2jsonl.py + +import json +import sys + +for line in sys.stdin: + if line.strip() == "": + continue + temp_json = {"input": "", "output": line.strip()}#预训练计算Loss时只计算output部分,所以input字段为空 + print(json.dumps(temp_json, ensure_ascii=False)) +``` +脚本使用方法如下,其中pretrain.txt是原始txt数据,pretrain.jsonl是输出的jsonl格式数据: +```shell +cat pretrain.txt | python convert_txt2jsonl.py > pretrain.jsonl +``` +输出的jsonl文件中,其中每一行有两个字段:input字段与output字段。例如: +```JSON +{"input":"","output":"中国的首都是北京。"} +``` +2. jsonl格式转index。脚本位于./quick_start_clean/convert_json2index.py,应用方法如下: +```shell +python convert_json2index.py \ +--path ../data_process/data \ #存放jsonl文件的目录 +--language zh \ #只能选择zh(中文)或者en(英文) +--output ../data_process/data_index \ #存放生成的index的目录,与原先存放jsonl文件的目录不能相同 +--hdfs_name index #index文件的文件名 +``` +脚本运行成功时,会有如下显示:(不需要用hadoop所以不用管hadoop: not found的警告信息) +![alt text](055bf7ce-faab-403b-a7ee-896279bee11f.png) + +转完后,在index的目录下会生成四个文件:data.jsonl(原先的jsonl数据)、index、index.h5、meta.json(记录数据集信息,包含 "language", "nlines", "nbytes", "length_distribute", "avg_token_per_line", "hdfs_path", "data_sample"字段)。 +这里有一个meta.json的例子: +```JSON +{"language": "en", "nlines": 68912, "nbytes": 41801261, "length_distribute": {"less_4k": 68911, "4k-8k": 1, "8k-16k": 0, "16k-32k": 0, "32k-64k": 0, "64k-128k": 0, "128k-256k": 0, "more_256k": 0}, "avg_token_per_line": 145.23292024611098, "hdfs_path": "/user/tc_agi/llm/index_datasets/index", "data_sample": {"input": "<用户>For a car, what scams can be plotted with 0% f...", "output": "The car deal makes money 3 ways. If you pay in one...", "source": "finance_cpm9g"}} +``` + + ### 多个数据集混合 + 我们支持多个数据集的混合读入,并设置不同数据集的比例。为此,需要准备一个数据混合的json文件,来指导训练过程中的数据读取策略,示例如下: + ```JSON + [ + { + "dataset_name": "humanevallike_clean_dedup", + "task_name": "humanevallike_clean_dedup", + "abs_weight": 0.2, + "path": "/data/0124_hq_data/humanevallike_clean_dedup", + "transforms": "0124_hq_data/general/script_cpmc.py", + "allow_repeat": true, + "nlines": 995339, + "ave_tokens_per_line": 100, + "total_tokens": 0.1 + }, + { + "dataset_name": "leetcode_pass_code_0125", + "task_name": "leetcode_pass_code_0125", + "abs_weight": 0.006, + "path": "/data/0124_hq_data/leetcode_pass_code_0125", + "transforms": "0124_hq_data/general/script_cpmc.py", + "allow_repeat": true, + "nlines": 10724, + "ave_tokens_per_line": 200, + "total_tokens": 0.002 + } +] + ``` +其中abs_weight需要自行设计;path、nlines、ave_tokens_per_line可以参考生成index时的meta.json进行填写;allow_repeat为数据集是否需要复制;total_tokens为估计的数据集token总数,以b(十亿)为单位,例如0.1代表0.1b个token,transforms为读入训练数据的脚本路径,该脚本可以参考以下代码: +```python +# script_cpmc.py +import random + +def rand(n: int, r: random.Random): + return int(r.random() * n) + +def transform(data, num_sample: int, r: random.Random): + if 'input' in data: + _input = data['input'] + else: + _input = "" + + if 'output' in data: + _output = data['output'] + else: + _output = "" + return {"input": _input, + "output": _output, + } +``` +## 单机训练 +1. 修改/apps/fm9g_2b/train_configs/2.4b.json中的训练参数,这一部分的参数设置会覆盖掉shell脚本中的相应部分。 +2. 修改FM_9G-master/FM_9G-master/apps/fm9g_2b/pretrain_dragonfly.sh中最后部分的训练参数,如下所示: +```shell +GPUS_PER_NODE=2 #该节点上需要的GPU数量 +NNODES=1 #单机训练无需修改这个参数 +RANK=0 #单机训练无需修改这个参数 +MASTER_ENDPOINT=g3006 #该节点名称 +MASTER_PORT=12345 #该节点端口,注意避免端口冲突 +``` +3. 激活自己的训练环境: +```shell +conda activate fm-9g +``` +4. 指定要用的GPU: +```shell +export CUDA_VISIBLE_DEVICES=0,1 +``` +5. 切换到fm9g_2b目录下,运行训练脚本: +```shell +cd FM_9G-master/FM_9G-master/apps/fm9g_2b +bash pretrain_dragonfly.sh +``` +## 多机训练 +需要保证机器之间能够通信,且每台机器上的训练环境、代码、数据等一致。以下教程以使用slurm调度的算力平台为例。 +常用的slurm命令包括: +``` +slurm命令 功能 +------------------------------ +sinfo 查看集群分区状态 +squeue 查看作业队列 +srun, salloc 交互式运行作业 +sbatch 提交作业 +scancel 取消作业 +scontrol 查看和修改作业参数 +sacct 查看已完成作业 +``` +注意:#slurm的多节点通信与bmtrain的环境变量有冲突,且srun不稳定,推荐采用slurm提交多个单节点任务,用torchrun的方式实现多节点通信。 +1. 参考以下代码,编写主节点启动脚本run_master.sh: +```shell +#!/bin/bash +#SBATCH --partition=long +#SBATCH --nodes=1 #需要的节点数量,即需要几台机器,不建议修改,多机训练时提交多个单节点任务即可 +#SBATCH --tasks-per-node=8 #每个节点的进程数,和每节点的GPU数量保持一致 +#SBATCH --gres=gpu:8 #每个节点上需要几块GPU +#SBATCH --cpus-per-task=8 #每个任务分配的CPU数量(建议不要修改),该节点的cpu总数为任务数乘以每个任务的cpu数,这个示例脚本中的cpu总数为8x8=64 +MASTER_ADDR=`hostname` +echo $MASTER_ADDR #可以在slurm-xxx.out中查看申请的主节点名称 + +while true;do +sleep 5s # +``` +2. 启动主节点: +```shell +sbatch --nodelist g3002 run_master.sh +``` +3. 登录主节点,激活训练环境: +```shell +ssh g3002 #登录节点 +conda activate fm-9g #激活训练环境 +export CUDA_VISIBLE_DEVICES=0,1 #指定要用的GPU +``` +4. 修改主节点训练脚本:在/apps/fm9g_2b/pretrain_dragonfly.sh的最后修改主节点名称、端口、机器数量、GPU数量,并将脚本重命名为pretrain_dragonfly_master.sh,方便区分: +```shell + GPUS_PER_NODE=2 #本节点上要用的GPU数量 + NNODES=2 #机器数量 + RANK=0 #0为主节点,1/2/3…为从节点 + MASTER_ENDPOINT=g3002 #主节点名称 + MASTER_PORT=12345 #主节点端口号,注意避免端口冲突 +``` +5. 提交主节点训练脚本: +```shell +cd FM_9G-master/FM_9G-master/apps/fm9g_2b +bash pretrain_dragonfly_master.sh +``` +6. 启动从节点、激活训练环境,指定要用的卡,方法与主节点一样。 +7. 修改从节点训练脚本:将单机多卡的训练脚本重命名为pretrain_dragonfly_slave.sh,在末尾修改主节点名称、端口、机器数量、GPU数量: +```shell + GPUS_PER_NODE=2 #本节点上要用的GPU数量 + NNODES=2 #机器数量 + RANK=0 #0为主节点,1/2/3…为从节点 + MASTER_ENDPOINT=g3002 #主节点名称 + MASTER_PORT=12345 #主节点端口号,注意避免端口冲突 +``` +8. 提交从节点训练脚本: +```shell +cd FM_9G-master/FM_9G-master/apps/fm9g_2b +bash pretrain_dragonfly_slave.sh +``` +9. 如果有三台及以上的机器,重复6-8,注意修改RANK编号 +10. 开始训练后,每个iter的loss、lr等信息将在从节点上显示 + +## 参数详细介绍 +``` python +#训练的名称,模型和log等信息会存储在该文件夹中 +args["model_unique"]="2b_0701" + +#若要resume,写resume的模型step +args["resume_ckpt"]="" + +#config位置,在configs/目录中 +args["config"]="2.4b" + +#无需更改 +args["flash"]="cuda" +args["max_length"]="4096" +args["local"]="False" +args["dataloader"]="indexed" +args["save"]="True" +args["tokenizer_path"]="./tokenizer/tokenizer.model" # /user/tc_agi/klara/baichuan2/baichuan2.tokenizer.model +args["load_grad"]="False" +args["grad_ckpt_num"]="160" +args["exp_group"]="" +args["ignore_cuda_oom"]="1" +args["tensorboard_all_tasks"]="0" +args["stop_when_end"]="0" +args["only_run_dataloader"]="0" +args["eps"]="1e-6" +args["inspect_iters"]="100" +args["strict_state_dict"]="1" +args["resume_no_optimze"]="0" +args["tp_size"]="1" +args["async_save"]="False" + +#训练batch size +args["batch_size"]="1" + +#多久存一次 +args["save_iters"]="500" + +#总的iteration +args["train_iters"]="10000" + +#在dataset_config/目录下,数据集的设置 +args["dataset_config"]="fm9g_sft" + +#dataloder 的加载线程的设置,如果配置较好,可以适量提高 +args["dataloader_num_threads"]=1 +args["dataloader_prefetch"]=1 +args["dataloader_prefetch_factor"]=1 +args["dataloader_num_workers"]=1 +args["parallel_load_datastate"]="8" + +#学习率 +args["lr"]="1e-2" + +#warmup的次数 +args["warmup_iters"]="20" + +#drop的比例 +args["drop_iters"]="0.1" + +#看是否仅load model +args["only_load_model"]="1" + +#学习率下降方法 +args["lr_scheduler"]="Cosine" + +#可以直接resume训练数据信息 +args["load_dataloader_ckpt"]="0" + +#drop比例 +args["drop_begin"]="-1" +args["drop_rate"]="0.5" +#是use checkpoint,建议使用 +args["use_checkpoint"]="0" +``` + +## 查看训练情况 +1. 用tensorboard查看各个loss曲线与学习率等变化情况: +```shell +tensorboard –-logdir /apps/fm9g_2b/data/tensorboard/2b_0701 #存放.events文件的路径 +``` +2. 出现以下报错信息时,说明protobuf版本过高,重新装一个低版本的即可: +```shell +TypeError: MessageToJson() got an unexpected keyword argument 'including_default_value_fields' +``` + +## 常见问题 +1. Conda安装pytorch时卡在solving environment:网络问题。 + 解决方法: + - 采用镜像源; + - 用pip安装。安装时需要注意pytorch版本与cuda版本的对应,建议安装1.13.1及以上的版本。 + +2. 安装flash-attn时报错:ModuleNotFoundError: No module named 'packaging'。 + 解决方法:pip install packaging即可。 + +3. flash attention 安装卡住: + 解决方法:从官方release下载对应版本(注意cuda、torch版本的对应) https://github.com/Dao-AILab/flash-attention/releases + 下载前先检查一下: + ```python + import torch + print(torch._C._GLIBCXX_USE_CXX11_ABI) + ``` + 如果打印出来的结果是False,则选择文件名中带有abiFALSE的版本,否则选带有abiTRUE的版本。随后pip install +.whl文件名 即可。 + +4. 导入flash-attn时报错:undefined symbol: _ZN3c104cuda9SetDeviceEi。 + 解决方法:建议检查flash-attn的版本与cuda、torch的版本是否对应。 + +5. 安装OpenDelta时,报错提示无法安装pandas 2.2.2版本: + ```shell + error: Couldn't find a setup script in /tmp/easy_install-bgpiop4j/pandas-2.2.2.tar.gz + ``` + 这是因为pandas 2.2.2需要python3.9及以上的版本。在python3.8的环境下,我们只需安装pandas 2.0.3版本即可。 + +6. 通过setup.py安装OpenDelta时报错: + ```shell + error: aiohttp 4.0.0a1 is installed but aiohttp!=4.0.0a0,!=4.0.0a1; extra == "http" is required by {'fsspec'} + ``` + 重新安装aiohttp即可,建议安装4.0.0以下的版本: + ```shell + pip uninstall aiohttp + pip install aiohttp==3.9.5 + ``` \ No newline at end of file