langchain4j接入ollama本地大模型
代码仓库
https://github.com/qdlshiwo/langchain4j_demos
Ollama介绍
Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。
Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。
相关链接
Ollama 官方地址:https://ollama.com/
Github 开源地址:https://github.com/ollama/ollama
Ollama 官方文档:https://github.com/ollama/ollama/tree/main/docs
官网下有点慢,附上百度网盘链接
链接:https://pan.baidu.com/s/1T5qfykaPTC_sXRZjL9IN_w
提取码:z6i5
安装
- 下载完成之后直接点击“安装”,完成之后查看ollama 相关命令
- 根据需要安装指定的大模型,这里安装deepseek-r1:1.5b,命令如下:
ollama run deepseek-r1:1.5b
引入依赖
关于springboot如何集成langchain4j可以看上一篇文章:https://blog.csdn.net/qq_41459187/article/details/147718688,这里接着往pom文件添加依赖。
<!--接入ollama--><dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-ollama</artifactId><version>${langchain4j.version}</version></dependency>
新增测试用例
因为是本地搭建的模型,所以不需要API-Keys,直接调用即可,ollama默认端口为:11434
@Testvoid testOllamaChat() {ChatLanguageModel model = OllamaChatModel.builder().baseUrl("http://localhost:11434").modelName("deepseek-r1:1.5b").build();String answer = model.chat("你好你是谁?");log.info(answer);}
运行结果如图