Go to file
hopeace 1a1ba68c5d 演示视频 2024-10-20 09:21:25 +08:00
CPM-9G-8B 修复了一些bug 2024-09-03 21:30:11 +08:00
config 添加运行说明 2024-10-19 13:34:03 +08:00
corpus_process 更新数据集 2024-09-01 22:26:46 +08:00
data 添加运行说明 2024-10-19 13:34:03 +08:00
models/fm9g_lora_sft_repo 添加运行说明 2024-10-19 13:34:03 +08:00
temp/LLaMA-Factory 添加运行说明 2024-10-19 13:34:03 +08:00
演示 演示视频 2024-10-20 09:21:25 +08:00
README.md 演示视频 2024-10-20 09:21:25 +08:00
创意应用策划书-航天科工集团第三研究院.doc 策划书大纲 2024-10-12 09:30:42 +08:00
基于启元“九格”大模型的健康饮食助手 (1).pptx PPT 2024-10-19 15:53:25 +08:00
演示步骤.md 演示视频 2024-10-20 09:21:25 +08:00

README.md

LLMs of 9g From CASIC

作者:袁建硕、吴海琛、王玮栋

时间2024.08.31

下载项目

git clone https://osredm.com/pia7vn6wp/repo_304.git
cd repo_304

前端

1. 启动镜像

docker run -d -p 3000:8080 -e OPENAI_API_KEY=EMPTY -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

后端

如果在端侧运行

1. 启动镜像,需将"-v /data/zksc/repo_304:/workspace"中的"/data/zksc/repo_304"替换为本项目所在的主机目录

docker run -d -p 8080:8000 -v /data/zksc/repo_304:/workspace --name 9g --privileged --cap-add ALL --restart always --workdir /workspace 9g_finetuning/lora:v3 sleep infinity

2. 进入镜像
docker exec -it 9g /bin/bash

3. 启动后端
CUDA_VISIBLE_DEVICES=0 llamafactory-cli api config/inference/fm9g_lora_sft_repo.yaml

现在访问"http://服务器ip:3000"访问大模型

管理员配置

http://128.128.0.1:8080/v1

EMPTY

参赛作品评测总分值为100分评测项包括

●策划书逻辑完整性20分

●应用构思的创新性20分

●应用方案可行性设计20分

●应用产品的商业价值/社会价值10分

●应用Demo演示/体验30分