Update README.md
This commit is contained in:
parent
ef028167cd
commit
0b5b4156c3
17
README.md
17
README.md
|
@ -3,14 +3,21 @@
|
|||
启元九格大模型由启元实验室牵头,联合清华大学、哈尔滨工业大学、中国科学院计算技术研究所、北京大学、南开大学等优势单位共同研制。具有高效训练与推理和高效适配与部署的技术特点,具备文本问答、文本分类、机器翻译、文本摘要等自然语言处理能力。
|
||||
|
||||
## 更新信息
|
||||
**- 本次启元九格开源13B多模态基础大模型,具体的模型推理等内容见:[QUICK START](https://www.osredm.com/jiuyuan/CPM-9G-8B/tree/FM9G-V/quick_start_clean/readmes/quick_start.md)**
|
||||
- 本次启元九格开源两个参数级别模型,分别是百亿级通用基础大模型为8B(80亿)和端侧模型2B(20亿参数)具体的模型训练、推理等内容见:[QUICK START](https://www.osredm.com/jiuyuan/CPM-9G-8B/tree/FM_9G/quick_start_clean/readmes/quick_start.md)
|
||||
- 若还在使用旧版本的九格模型训练和推理,请切换分支到[master](https://www.osredm.com/jiuyuan/CPM-9G-8B/tree/master/quick_start_clean/readmes/README_ALL.md)
|
||||
|
||||
|
||||
## 版本更新内容
|
||||
具体的迭代信息如下:
|
||||
- 训练:升级了训练代码,提升GPU利用率和并行化,并且2B模型能兼容transformers中的tokenizer(LlamaTokenizerFast)
|
||||
- 推理:支持vllm进行模型推理和部署,可以接入langchain、openai等部署方式;同时可以支持2b模型转换成GGUF等多种部署格式的部署
|
||||
- 由于新架构中多数据集验证发现2B模型进行lora训练效果不及全参数微调,因此建议2B模型全参数微调,8B模型LORA微调在master分支进行
|
||||
具体的迭代信息如下:
|
||||
- 训练:开源了多模态基础大模型的训练代码
|
||||
- 推理:支持单图文推理
|
||||
|
||||
|
||||
<!-- ## 版本更新内容-->
|
||||
<!--具体的迭代信息如下:-->
|
||||
<!--- 训练:升级了训练代码,提升GPU利用率和并行化,并且2B模型能兼容transformers中的tokenizer(LlamaTokenizerFast)-->
|
||||
<!--- 推理:支持vllm进行模型推理和部署,可以接入langchain、openai等部署方式;同时可以支持2b模型转换成GGUF等多种部署格式的部署-->
|
||||
<!--- 由于新架构中多数据集验证发现2B模型进行lora训练效果不及全参数微调,因此建议2B模型全参数微调,8B模型LORA微调在master分支进行-->
|
||||
|
||||
## 2024.08.19 NOTICE
|
||||
- 由于新架构中多数据集验证发现2B模型进行lora训练效果不及全参数微调
|
||||
|
|
Loading…
Reference in New Issue