[ai]使用Ollama本地部署Deepseek模型

安装Ollama

下载

修改环境变量

ollama 部署和配置

# api 服务监听地址 允许外网访问
OLLAMA_HOST=0.0.0.0:1234
# 允许跨域访问
OLLAMA_ORIGINS=*

启动Ollama

ollama serve

下载模型

模型名称 Ollama Library
比如我希望安装 deepseek-r1 1.5b 版本(这是dp最小的模型了,设备要求较低)

ollama run deepseek-r1:1.5b

安装webui

  • 安装脚本
    
    cd %~dp0\ollama-webui
    call npm config set registry http://mirrors.cloud.tencent.com/npm/
    call npm install
    call npm install -g vite
 * 修改ollama-webui\src\lib\constants.ts

export const OLLAMA_API_BASE_URL = `http://你的域名:11434/api`;;

*  运行webui
```bat
cd %~dp0\ollama-webui
call npm run dev