增加q4_k_m量化模型

This commit is contained in:
wyq 2025-03-06 14:39:31 +08:00
parent 27f1c75665
commit a975a66d10
1 changed files with 1 additions and 1 deletions

View File

@ -10,7 +10,7 @@
### 🔥 **最新发布2025.02.25**[**FM9G**](https://www.osredm.com/jiuyuan/CPM-9G-8B/tree/FM_9G/quick_start_clean/readmes/quick_start.md)
- **模型**[**4B 模型**](https://qy-obs-6d58.obs.cn-north-4.myhuaweicloud.com/9G4B.tar)将上下文长度扩展至32k支持长文推理并采用了GQA结构以降低KV cache的显存需求。
- **训练**:训练代码将即将开源。
- **推理**推理代码可以直接复用2.4B模型。增加了[2.4B模型](https://qy-obs-6d58.obs.cn-north-4.myhuaweicloud.com/gguf/fm9g-2b-q4_k_m.gguf)和[4B模型](https://qy-obs-6d58.obs.cn-north-4.myhuaweicloud.com/gguf/fm9g-4b-q4_k_m.gguf)的q4_k_m量化版gguf模型。
- **推理**推理代码可以直接复用2.4B模型。增加了[2.4B模型](https://qy-obs-6d58.obs.cn-north-4.myhuaweicloud.com/gguf/fm9g-2b-q4_k_m.gguf)和[4B模型](https://qy-obs-6d58.obs.cn-north-4.myhuaweicloud.com/gguf/fm9g-4b-q4_k_m.gguf)的q4_k_m量化版gguf模型。
> 🚨 **FM9G 4B模型** 是一款专为长上下文处理设计的模型支持32k+的文本窗口,并通过搭载[MapReduce](https://github.com/thunlp/LLMxMapReduce/tree/main)能力能够处理超过100k的上下文。该模型还支持工具调用和代码解释具备卓越的数学推理能力和中英文指令执行能力能够高效处理复杂任务。