方案: 全参数微调,使用不同数据集训练多个模型和推理时增强进行融合。 训练代码: LLaMA-Factory.zip 解压后使用,可参照https://github.com/hiyouga/LLaMA-Factory配置环境,或将代码映射到docker中使用。 训练:train.sh。将train.sh放到LLaMA-Factory下使用。 推理: python inference.py(需在inference.py中修改好模型路径。) test_case.json是从题目中提取出来的测试用例。 model_wight:通过百度网盘分享的文件: 链接:https://pan.baidu.com/s/1IXai-fDvv-hCOTS_3srs8Q 提取码:6666 docker: 链接:https://pan.baidu.com/s/1IXai-fDvv-hCOTS_3srs8Q 提取码:6666 train_data: 链接:https://pan.baidu.com/s/1IXai-fDvv-hCOTS_3srs8Q 提取码:6666