forked from p83651209/CPM-9G-8B
20 lines
755 B
Markdown
20 lines
755 B
Markdown
方案:
|
||
全参数微调,使用不同数据集训练多个模型和推理时增强进行融合。
|
||
|
||
|
||
训练代码:
|
||
LLaMA-Factory.zip 解压后使用,可参照https://github.com/hiyouga/LLaMA-Factory配置环境,或将代码映射到docker中使用。
|
||
训练:train.sh。将train.sh放到LLaMA-Factory下使用。
|
||
推理: python inference.py(需在inference.py中修改好模型路径。) test_case.json是从题目中提取出来的测试用例。
|
||
|
||
model_wight:通过百度网盘分享的文件:
|
||
链接:https://pan.baidu.com/s/1IXai-fDvv-hCOTS_3srs8Q
|
||
提取码:6666
|
||
|
||
docker:
|
||
链接:https://pan.baidu.com/s/1IXai-fDvv-hCOTS_3srs8Q
|
||
提取码:6666
|
||
|
||
train_data:
|
||
链接:https://pan.baidu.com/s/1IXai-fDvv-hCOTS_3srs8Q
|
||
提取码:6666 |