Qwen2.5项目地址
Github:QwenLM/Qwen2.5: Qwen2.5 is the large language model series developed by Qwen team, Alibaba Cloud.
Ollama部署
直接部署
下载安装包并上传到服务器
下载地址
https://ollama.com/download/ollama-linux-amd64.tgz
或者直接下载
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
安装
下载安装脚本,脚本地址
https://ollama.com/install.sh
修改install.sh文件
找到
curl --fail --show-error --location --progress-bar \
"https://ollama.com/download/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \
$SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"
修改为
$SUDO tar -xzf /path/to/local/ollama-linux-${ARCH}.tgz -C "$OLLAMA_INSTALL_DIR"
其中/path/to/local修改为前面上传文件所在的文件夹
进入所在目录,运行脚本
sh install.sh
注意如果是在windows下修改的install.sh脚本在上传,运行可能会出错,这时在ubuntu中修改脚本
设置局域网登录
在下面文件中的service中添加
sudo gedit /etc/systemd/system/ollama.service
User = root
Group = root
Environment="OLLAMA_MODELS=/home/cqu/.ollama/models"
Environment="OLLAMA_HOST=0.0.0.0:11434"
检查是否部署成功
ollama --version
更改模型安装位置
更改用户组和权限
sudo chown -R root:root /home/cqu/.ollama/models
sudo chmod -R 777 /home/cqu/.ollama/models
移动文件
sudo mv /usr/share/ollama/.ollama/models/* /home/cqu/.ollama/models
# 刷新配置
sudo systemctl daemon-reload
# 重启ollama
sudo systemctl restart ollama.service
# 查看一下重启后的ollama运行状态
sudo systemctl status ollama
参考
在ubuntu系统中下载ollama并且修改ollama中模型的保存路径_ollama 修改模型路径-CSDN博客
Docker部署(部署成功后不能下载模型)
参考链接
ollama/ollama - Docker 镜像 |Docker 中心
安装 NVIDIA Container Toolkit 软件包
配置存储库
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \
| sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list \
| sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \
| sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
安装
sudo apt-get install -y nvidia-container-toolkit
配置 Docker 以使用 Nvidia 驱动程序
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker
启动容器
sudo docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
sudo docker run -d --gpus=2 -v /home/cqu/Docker/Ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
查看是否部署成功
输入ip:11434
下载Qwen2.5模型
模型地址
https://ollama.com/library
docker进入容器(直接部署不需要进行这一步)
sudo docker exec -it ollama /bin/bash
下载模型
ollama run qwen2.5:7b
ollama run qwen2.5:14b
ollama run qwen2.5:32b
ollama run qwen2.5:72b
Ui界面
open webui
部署参考
Docker一键快速私有化部署(Ollama+Openwebui) +AI大模型(gemma,llama2,qwen)20240417更新_ollama docker部署-CSDN博客
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
oneapi
sudo docker run --name one-api -d --restart always -p 3001:3000 -e TZ=Asia/Shanghai -v /home/cqu/Docker/Oneapi:/data justsong/one-api
sudo docker run --name one-api -d --restart always -p 3001:3000 -e TZ=Asia/Shanghai -v /home/cqu/Docker/Oneapi:/data ghcr.io/songquanpeng/one-api
部署参考
oneapi配置参考