1. 安装 Ollama
2. 在 Ollama 中部署模型
3. 在 LobeChat 中配置 Ollama
方式一: 在服务端配置(全客户端生效)
在运行 LobeChat 时,使用如下参数配置:
ENABLED_OLLAMA
: 是否启用 Ollama ,配置为 1
;OLLAMA_PROXY_URL
: 指定 Ollama 地址,根据实际情况设置,默认为 http://127.0.0.1:11434
;OLLAMA_MODEL_LIST
: 使用的 Ollama 模型列表,使用 + 增加模型,使用 - 减少模型,默认为 -;配置后重启 LobeChat 生效。
方式二: 在客户端配置(单客户端生效)
进入 LobeChat 的 应用设置 - 语言模型 页面,在 Ollama 模块中配置相关参数即可。