Ollama

ollama部署 #

deepseek部署R1 #

  • 本地部署纯属玩具
docker pull ollama/ollama
ollama run deepseek-r1:1.5b

通义千问2.5 coder #

  • 写代码专用
ollama run qwen2.5-coder:0.5b

docker安装 #

  • 精简版的只能使用CPU,但是只有70m的镜像
docker pull alpine/ollama
alias ollama="docker exec -it ollama sh"
  ollama:
    container_name: ollama
    hostname: ollama.service
    image: alpine/ollama
    tty: true
    ports:
      - "11434:11434"
    volumes:
      - /home/ollama/.ollama/:/root/.ollama/
    environment:
      - OLLAMA_KEEP_ALIVE=-1
# ollama run qwen2.5-coder:0.5b

Linux安装 #

curl -fsSL https://ollama.com/install.sh | sh
  • 后台启动
nohup ollama serve &

远程使用 #

服务器上使用shell获取json结果 #

  • chmod +x deepseek
  • deepseek “请问要提出什么问题”
#!/bin/bash

nohup curl 127.1:11434/api/generate -d '{"model":"deepseek-r1:1.5b","stream":false,"prompt":"'$1'"}' -o `date +%m%d-%H%M`${1}.txt &