CPM-9G-8B/stream_infer
p04896573 6c58b3b0ee Update README.md 2024-03-14 17:40:37 +08:00
..
README.md Update README.md 2024-03-14 17:40:37 +08:00
convert.py add stream inference output function 2024-03-14 17:38:39 +08:00
deploy_llm_8b_demo.py add stream inference output function 2024-03-14 17:38:39 +08:00
request_demo.py add stream inference output function 2024-03-14 17:38:39 +08:00

README.md

demo使用方法

环境安装

docker 路径:

由于流式输出需要特定的环境依赖因此在新的env下进行推理和输出 conda activate stream_info

流程:

1 将模型进行convert处理将训练模型转换成流式输出支持的格式 python convert.py

2 模型推理: python deploy_llm_8b_demo.py (1) 设置CUDA_VISIBLE_DEVICES的数目 (2) 修改LocalLoader 中的实际使用模型的属性 (3) 在修改LocalLoader调用的时候修改流式输出模型位置及其词表

3 测试请求python request_demo.py 若不清楚请求的ip port可以在推理阶段保存的log文件error_8b.log中找到