9.5 KiB
9.5 KiB
README
- 此README对各模型统一的脚本及其使用方式进行介绍
路径变量解释
变量名 | 含义 |
---|---|
working_dir | 加速库及模型库下载后放置目录 |
llm_path | 模型仓所在路径。若使用编译好的包,则路径为${working_dir}/MindIE-LLM/ ;若使用gitee下载的代码,则路径为${working_dir}/MindIE-LLM/examples/atb_models |
weight_path | 模型权重路径 |
w8a8s_weight_path | 稀疏量化权重路径 |
w8a8sc_weight_path | 切分并压缩后的稀疏量化权重路径 |
cur_dir | 运行指令或执行脚本时的路径(当前目录) |
权重
权重设置
-
${weight_path}/config.json
文件中需设置dtype
和quantize
类型来标识权重的量化类型和精度- 若
dtype
和quantize
字段不存在,需新增
- 若
-
配置
量化类型及精度 torch_dtype quantize FP16 "float16" 无 BF16 "bfloat16" 无 W8A8 "float16" "w8a8" W8A8S "float16" "w8a8s" W8A8SC "float16" "w8a8sc" W8A16 "float16" "w8a16" -
示例
- LLaMa模型的权重使用BF16精度,非量化
{ "architectures": [ "LlamaForCausalLM" ], ... "torch_dtype": "bfloat16", ... }
- LLaMa模型的权重使用FP16精度,W8A16量化
{ "architectures": [ "LlamaForCausalLM" ], ... "torch_dtype": "float16", ... "quantize": "w8a16", }
- LLaMa模型的权重使用BF16精度,非量化
权重转换
当前仅支持加载safetensor格式的权重文件 若下载的权重文件中已有safetensor格式的文件,则无需进行权重转换 若环境中仅有bin格式的权重文件,请按照如下方式进行转换 若当前环境不存在模型权重,请至hugging face官网下载
- 使用
${llm_path}/examples/convert/convert_weights.py
将bin转成safetensor格式 - 示例
cd ${llm_path} python examples/convert/convert_weights.py --model_path ${weight_path}
- 注意:必须先进入
${llm_path}
路径下执行以上命令,否则由于脚本中存在相对路径,会导致moudle not found的问题
- 注意:必须先进入
- 输出结果会保存在bin权重同目录下
NPU多卡量化
- 环境要求
- 硬件环境:910A或910B环境
- Pytorch、PTA配套在2.1版本以上
- CANN >= 8.0.RC2.B010
- accelerate >= 0.28.0
- 关闭虚拟内存:
PYTORCH_NPU_ALLOC_CONF
环境变量需设置为expandable_segments:False
(虚拟内存默认关闭)
- 调用
${llm_path}/examples/convert/model_slim/quantifier.py
脚本时,--device_type
参数需设置为npu
- 参数配置和运行指令见各模型README文件
稀疏量化权重生成
- Step 1:生成稀疏量化权重
cd ${llm_path} python -m examples.convert.model_slim.quantifier --model_path ${weight_path} --save_directory ${w8a8s_weight_path} --w_bit 4 --a_bit 8 --calib_dataset_type TeacherQualification --fraction 0.011 --co_sparse True
- 参数配置以模型README文件中的描述为准
- Step 2:量化权重切分及压缩
torchrun --nproc_per_node {TP数} -m examples.convert.model_slim.sparse_compressor --model_path ${w8a8s_weight_path} --save_directory ${w8a8sc_weight_path}
- TP数为tensor parallel并行个数
- 注意:若权重生成时以TP=4进行切分,则运行时也需以TP=4运行
- 示例
torchrun --nproc_per_node 2 -m examples.convert.model_slim.sparse_compressor --model_path /data1/weights/model_slim/llama2-7b_w8a8s --save_directory /data1/weights/model_slim/llama2-7b_w8a8sc_temp
启动脚本
- Flash Attention的启动脚本路径为
${llm_path}/examples/run_fa.py
- Page Attention的启动脚本路径为
${llm_path}/examples/run_pa.py
启动脚本相关环境变量
ASCEND_RT_VISIBLE_DEVICES
BIND_CPU
- 绑定CPU核心开关
- 设置为1进行绑核,设置为0则不绑核;默认进行绑核
- 若当前机器未设置NUMA或绑核失败,可将 BIND_CPU 设为 0
PROFILING_LEVEL
- 设置ProfilerLevel,默认为0
ATB_PROFILING_ENABLE
- 是否落性能profiling文件
- 设置为1生成profiling文件,设置为0则不生成;默认不生成profiling文件
PROFILING_FILEPATH
- (若生成profiling文件)profiling文件的路径
- 默认为
${cur_dir}/profiling
ATB_LLM_BENCHMARK_ENABLE
- 是否统计端到端和各token的性能数据
- 设置为1统计耗时,设置为0则不统计;默认不统计
ATB_LLM_BENCHMARK_FILEPATH
- 性能数据的保存路径
- 默认为
${cur_dir}/benchmark_result/benchmark.csv
ATB_LLM_LCOC_ENABLE
- 是否开启通信计算掩盖功能
- 在Prefill阶段开启通信计算掩盖会提升性能
ATB_LLM_LOGITS_SAVE_ENABLE
- 是否保存每个token的logits,每个logits会保存成一个单独的pth文件
- 设置为1保存,设置为0则不保存;默认不保存
ATB_LLM_LOGITS_SAVE_FOLDER
- logits保存路径
- 默认为
${cur_dir}
ATB_LLM_TOKEN_IDS_SAVE_ENABLE
- 是否保存每个token的id,输入和输出token会单独保存成两个文件
- 设置为1保存,设置为0则不保存;默认不保存
ATB_LLM_TOKEN_IDS_SAVE_FOLDER
- token id保存路径
- 默认为
${cur_dir}
run_fa.py脚本参数
--model_path
- 模型权重路径
--input_text
- 输入问题
- 支持字符串列表或者字符串
- 若此值为字符串,则构造推理输入时会基于batch size入参复制多份
- 若此值为列表,则构造推理输入时会忽略batch size入参,真实的batch size为此列表实际长度
--max_input_length
- 最大输入长度
- 默认512个token
- 若输入长度不足512个token,会自动使用padding补齐
--max_output_length
- 最大输出长度
-
- 默认输出20个token
--batch_size
- 推理时固定的batch数量
- 默认单batch
--is_flash_causal_lm
- 是否使用Paged Attention,默认不使用
- 示例
# 使用多卡运行Flash Attention,设置模型权重路径,设置输出长度为2048个token,精度使用BF16 torchrun --nproc_per_node 2 --master_port 20038 -m examples.run_fa --model_path ${weight_path} --max_output_length 2048 --is_bf16
run_pa.py脚本参数
--model_path
- 模型权重路径
--input_text
- 输入问题
- 支持字符串列表或者字符串
- 若此值为单元素列表或字符串,则构造推理输入时会基于batch size入参复制多份
- 若此值为多元素列表,则构造推理输入时会忽略batch size入参,真实的batch size为此列表实际长度
--input_file
- 目前仅支持jsonl格式文件,每一行必须为List[Dict]格式的按时间顺序排序对话数据
- 每个Dict字典中需要至少包含"role"和"content"两个字段
--max_position_embeddings
- 模型可接受的最长输入长度
- 默认从模型权重的config文件中读取
--max_output_length
- 最大输出长度
-
- 默认输出20个token
--max_prefill_tokens
- Prefill推理阶段,最大输入长度
- 默认4096个token
--max_batch_size
- 最大batch size,实际运行的batch size动态变化,有可能达不到设置的最大batch size
- 默认单batch
--is_flash_model
- 是否使用Paged Attention,默认使用
--is_chat_model
- store_true类型参数,若添加,则判定是chat模型
- 会从input_file(当前仅支持jsonl格式文件)中读取List[Dict]类型的对话数据
- 若未指定input_file,则会将input_text中的文本自动组成对话数据
--chat_template
- 默认值为None,且仅在is_chat_model为True时生效
- 若设置为文件名且is_chat_model为True,则从文件名指定的文件中读取jinja格式的chat模板
- 若设置为字符串且is_chat_model为True,则将该字符串解析为jinja格式的chat模板
- 示例
# 使用多卡运行Paged Attention,设置模型权重路径,设置输出长度为2048个token torchrun --nproc_per_node 2 --master_port 20038 -m examples.run_pa --model_path ${weight_path} --max_output_length 2048
特殊场景说明
- 单机多用户场景
- 300I DUO 和 800I A2 上,单机多用户场景下,由于通信算子之间采用共享内存进行通信,每个用户需要配置如下环境变量,进行共享内存的区分;
export ATB_SHARE_MEMORY_NAME_SUFFIX="user1"
- 单机多用户场景:如300I DUO上有4张卡,每张卡单独跑一个模型推理任务,需要根据不同任务设置上述环境变量来区分,如
user1
、user2
- 300I DUO 和 800I A2 上,单机多用户场景下,由于通信算子之间采用共享内存进行通信,每个用户需要配置如下环境变量,进行共享内存的区分;
- 300I DUO卡上需开启以下环境变量
export INT8_FORMAT_NZ_ENABLE=1