【大模型】解决最新的Dify1.3.1版本 无法基于Ollama成功添加模型
本地搭建参考链接,但是版本不是最新的1.3.1 DeepSeek + Dify :零成本搭建企业级本地私有化知识库保姆级教程
windows环境下部署。
查看模型添加,提示成功,但实际模型接口返回值为空,即看不到已添加的模型。
解决方法如下:在.env文件下添加ollama相关配置才解决问题。
实测,ip只需要用host.docker.internal就可以访问到本机的ollama了,用本机ip反而有问题。
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 Ollama 的 API 地址(根据部署环境调整 IP)
OLLAMA_API_BASE_URL=http://host.docker.internal:11434# PLUGIN_WORKING_PATH=/app/storage/cwd
PROVIDER_OLLAMA_API_BASE_URL=http://host.docker.internal:11434
PLUGIN_WORKING_PATH=/app/cwd # 原文件有,需修改#修改 docker-compose.yml 中 plugin_daemon 服务的配置,避免安装超时中断
PLUGIN_PYTHON_ENV_INIT_TIMEOUT=640
PLUGIN_MAX_EXECUTION_TIMEOUT=2400
# PIP_MIRROR_URL=https://pypi.tuna.tsinghua.edu.cn/simple
PIP_MIRROR_URL=https://mirrors.aliyun.com/pypi/simple # 加速依赖安装
修改配置后,终止docker,然后使用执行 docker compose up -d 重启服务
如需修改DIFY默认端口号,通过docker-compose部署的dify服务默认端口号位80,自定义修改端口号
- 修改.env文件中EXPOSE_NGINX_PORT端口号位30000
- down掉docker-compose
docker-compose down
- 启动dify所有服务
docker compose up -d
4.浏览器打开ip:30000即可