Update README.md

This commit is contained in:
p04896573 2024-08-19 11:04:47 +08:00
parent 994a95f94d
commit 0c938e73d0
1 changed files with 7 additions and 1 deletions

View File

@ -6,11 +6,17 @@
- 本次启元九格开源两个参数级别模型分别是百亿级通用基础大模型为8B80亿和端侧模型2B20亿参数具体的模型训练、推理等内容见[QUICK START](https://www.osredm.com/jiuyuan/CPM-9G-8B/tree/FM_9G/quick_start_clean/readmes/quick_start.md) - 本次启元九格开源两个参数级别模型分别是百亿级通用基础大模型为8B80亿和端侧模型2B20亿参数具体的模型训练、推理等内容见[QUICK START](https://www.osredm.com/jiuyuan/CPM-9G-8B/tree/FM_9G/quick_start_clean/readmes/quick_start.md)
- 若还在使用旧版本的九格模型训练和推理,请切换分支到[master](https://www.osredm.com/jiuyuan/CPM-9G-8B/tree/master/quick_start_clean/readmes/README_ALL.md) - 若还在使用旧版本的九格模型训练和推理,请切换分支到[master](https://www.osredm.com/jiuyuan/CPM-9G-8B/tree/master/quick_start_clean/readmes/README_ALL.md)
## 0819 Notice
- 由于新架构中多数据集验证发现2B模型进行lora训练效果不及全参数微调
- 2B模型采用全参数微调训练我们在[QUICK START](https://www.osredm.com/jiuyuan/CPM-9G-8B/tree/FM_9G/quick_start_clean/readmes/quick_start.md) 中更新了更多关于微调训练的信息
- 8B模型LORA微调在master分支进行
## 版本更新内容 ## 版本更新内容
具体的迭代信息如下: 具体的迭代信息如下:
- 训练升级了训练代码提升GPU利用率和并行化并且2B模型能兼容transformers中的tokenizer(LlamaTokenizerFast) - 训练升级了训练代码提升GPU利用率和并行化并且2B模型能兼容transformers中的tokenizer(LlamaTokenizerFast)
- 推理支持vllm进行模型推理和部署可以接入langchain、openai等部署方式同时可以将端侧模型可以支持GGUF等多种部署格式的部署 - 推理支持vllm进行模型推理和部署可以接入langchain、openai等部署方式同时可以将端侧模型可以支持GGUF等多种部署格式的部署
- LORA代码暂未实现至新版本代码框架中预计八月份完成若需要LORA训练请切换分支至master - 由于新架构中多数据集验证发现2B模型进行lora训练效果不及全参数微调因此建议2B模型全参数微调8B模型LORA微调在master分支进行
# 迈向通用智能的大模型技术系列课程 # 迈向通用智能的大模型技术系列课程