Update README.md
This commit is contained in:
parent
336a3c2e3e
commit
b987ee93a1
|
@ -11,7 +11,8 @@
|
|||
- 训练:升级了训练代码,提升GPU利用率和并行化,并且2B模型能兼容transformers中的tokenizer(LlamaTokenizerFast)
|
||||
- 推理:支持vllm进行模型推理和部署,可以接入langchain、openai等部署方式;同时可以将端侧模型可以支持GGUF等多种部署格式的部署
|
||||
- LORA代码暂未实现至新版本代码框架中,预计八月份完成,若需要LORA训练,请切换分支至master
|
||||
|
||||
|
||||
|
||||
# 迈向通用智能的大模型技术系列课程
|
||||
系列课程全方位介绍人工智能和大模型技术的基础知识和前沿课题,理论学习和实践应用相结合。课程既有“人工智能与大模型通论”和“神经网络与预训练模型”等基础知识,也有“九格大模型生态体系”和“领域大模型实战”等实战主题,基本内容包括大模型训练、微调、知识增强、伦理安全、多模态、具身智能、自主智能体等话题,高级选题包括多语言处理、面向科学研究的大模型应用、高效计算技术、评测与数据科学等话题。课程旨在通过一系列精心设计的单元为学习者提供大型通用人工智能的学习之旅。
|
||||
|
||||
|
|
Loading…
Reference in New Issue