ollama部署 #
deepseek部署R1 #
- 本地部署纯属玩具
docker pull ollama/ollama
ollama run deepseek-r1:1.5b
通义千问2.5 coder #
- 写代码专用
ollama run qwen2.5-coder:0.5b
docker安装 #
- 精简版的只能使用CPU,但是只有70m的镜像
docker pull alpine/ollama
alias ollama="docker exec -it ollama sh"
ollama:
container_name: ollama
hostname: ollama.service
image: alpine/ollama
tty: true
ports:
- "11434:11434"
volumes:
- /home/ollama/.ollama/:/root/.ollama/
environment:
- OLLAMA_KEEP_ALIVE=-1
# ollama run qwen2.5-coder:0.5b
Linux安装 #
- 官方脚本(会检测驱动)
- 实际下载地址(https://github.com/ollama/ollama/releases/latest/download/ollama-linux-amd64.tgz)
curl -fsSL https://ollama.com/install.sh | sh
- 后台启动
nohup ollama serve &
- 下载安装即可,默认服务自动打开
- https://ollama.com/download/OllamaSetup.exe
远程使用 #
- 桌面端及移动端口: https://chatboxai.app/zh
- 浏览器插件: https://github.com/n4ze3m/page-assist/releases
服务器上使用shell获取json结果 #
- chmod +x deepseek
- deepseek “请问要提出什么问题”
#!/bin/bash
nohup curl 127.1:11434/api/generate -d '{"model":"deepseek-r1:1.5b","stream":false,"prompt":"'$1'"}' -o `date +%m%d-%H%M`${1}.txt &