当前位置: 首页 > java >正文

Spring+LangChain4j小智医疗项目

这里写目录标题

  • LangChain4j入门
  • 配置
  • 测试
  • Ollama
  • 阿里云百炼平台
  • AIService
  • 聊天记忆
    • 隔离聊天
  • MongoDB
  • 持久化存储
  • Prompt
  • *创建小智医疗助手
  • Function Calling(Tools)
    • 实战小智医疗智能体
  • RAG
  • Token分词器
  • 向量存储
  • 流式输出
  • 总结

LangChain4j入门

LangChain4j 是一个用于构建基于大型语言模型(LLM)应用的 Java 框架,它简化了与 OpenAI、Hugging Face 等 LLM 服务的集成,并提供了工具链来构建复杂的 LLM 应用。

配置

<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-open-ai-spring-boot-starter</artifactId><version>1.0.0-beta3</version>
</dependency>

在yml配置api_key,base_ur,model_name必需项
一般将APIKEY保存在系统环境变量中,用System.getenv()获取

测试

	@Autowiredprivate OpenAiChatModel openAiChatModel;@Testpublic void testChat() {String question = "java的特性";String ans = openAiChatModel.chat(question);System.out.println(ans);}

Ollama

Ollama是一个允许开发者在本地计算环境中运行模型的工具。

  1. 选择模型:
    在这里插入图片描述
  2. 输入命令行 ollama run deepseek-r1:1.5b
  3. 本地项目配置
<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-ollama</artifactId><version>1.0.0-beta3</version>
</dependency>

阿里云百炼平台

在线集成了阿里的通义系列大模型和第三方大模型,涵盖文本、
图像、音视频等不同模态。
依赖

<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-community-dashscope-spring-boot-starter</artifactId>
</dependency>

在官网申请API-Key

langchain4j:community:dashscope:chat-model:api-key: sk-66xxxxxxxmodel-name: qwen-max

AIService

<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-spring-boot-starter</artifactId>
</dependency>

AIService用于格式化输入,解析输出,记忆聊天等功能。

  1. 创建接口
package com.atguigu.java.ai.langchain4j.assistant;
public interface Assistant {String chat(String userMessage);
}
  1. 创建类测试
@Autowired
private QwenChatModel qwenChatModel;
@Test
public void testChat() {//创建AIServiceAssistant assistant = AiServices.create(Assistant.class, qwenChatModel);//调用service的接口String answer = assistant.chat("Hello");System.out.println(answer);
}

更方便的方式是使用@AIService注解,然后通过@Autowired使用

package com.atguigu.java.ai.langchain4j.assistant;@AiService(wiringMode = EXPLICIT, chatModel =
"qwenChatModel")
public interface Assistant {String chat(String userMessage);
}

聊天记忆

我们来测试每次聊天是否有记忆

@Autowired
private  Assistant assistant;
@Test
public void testAssistant() {String question1 = "我是赵铁柱";String question2 = "我是谁?";String ans1 = assistant.chat(question1);String ans2 = assistant.chat(question2);System.out.println(ans1);System.out.println(ans2);
}

目前是没记忆的,需要使用chatMemory

  1. 注解
@AiService(wiringMode = EXPLICIT,chatMemory = "chatMemory" chatMemoryProvider="chatMemoryProvider")
  1. 配置类
package com.atguigu.java.ai.langchain4j.config;
@Configuration
public class MemoryChatAssistantConfig {@BeanChatMemory chatMemory() {//设置聊天记忆记录的message数量return MessageWindowChatMemory.withMaxMessages(10);}
}
  1. 注入测试
@Autowired
private MemoryChatAssistant memoryChatAssistant;
@Test
public void testChatMemory4() {String answer1 = memoryChatAssistant.chat("我是环环");System.out.println(answer1);String answer2 = memoryChatAssistant.chat("我是谁");System.out.println(answer2);
}

隔离聊天

  1. 在AIService中添加chatMemoryProvider
@AiService(wiringMode = WiringMode.EXPLICIT,chatModel = "qwenChatModel",chatMemory = "chatMemory"chatMemoryProvider="chatMemoryProvider")
public interface SeparateChatAssistant {/*** 处理用户消息并维护独立的对话上下文* @param memoryId 对话内存 ID(区分不同用户)* @param userMessage 用户输入的消息* @return AI 回复*/String chat(@MemoryId int memoryId, @UserMessage String userMessage);
}
  1. 配置chatMemoryProvider类

MongoDB

  1. 引入依赖
<dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-data-mongodb</artifactId>
</dependency>
  1. 配置项:spring.data.mongodb.uri = mongodb://localhost:27017/chat_memory_db
  2. 实现Entity
@Data
@AllArgsConstructor
@NoArgsConstructor
@Document("chat_message")
public class ChatMessages {@Id //对应数据库的id字段private ObjectId messageId; //MongoDB自动生成id为ObjectId类型private String content;}
  1. 使用MongoTemplate测试
@Autowired
private MongoTemplate mongoTemplate;@Test
public void testInsert(){ChatMessages chatMessages = new ChatMessages();chatMessages.setContent("哈哈哈哈");
//        数据库自动生成idmongoTemplate.insert(chatMessages);
}

接下来可以在IDEA中连接数据库在线查看。

操作代码具体代码
插入insert(object)
查找findbyId(‘id’,Class)、findAll(Class)
更新upsert(query,update,Class)Query query = Query.query(Criteria.where(“id”).is(id)); Update update = new Update().set(“age”, newAge);
删除remove(query,Class)

持久化存储

  1. 配置chatMemoryProvider
    @AiService(chatMemoryProvider = "chatMemoryProvider")和实体类
  2. 配置MongoChatMemoryStore,重写getMessages等三大方法
@Component
public class MongoChatMemoryStore implements ChatMemoryStore {@Autowiredprivate MongoTemplate mongoTemplate;@Overridepublic List<ChatMessage> getMessages(Object memoryId) {Query query = new Query(Criteria.where("memoryId").is(memoryId));ChatMessages chatMessages = mongoTemplate.findOne(query,ChatMessages.class);// 将String转成反序列化 转出List<ChatMessage>if (chatMessages==null){return new ArrayList<ChatMessage>();}List<ChatMessage> chatMessage = ChatMessageDeserializer.messagesFromJson(chatMessages.getContent());System.out.println("反序列化:"+chatMessage);return chatMessage;}@Overridepublic void updateMessages(Object memoryId, List<ChatMessage> list) {// 查询条件Criteria criteria = Criteria.where("memoryId").is(memoryId);Query query = new Query(criteria);Update update = new Update();// 插入更新消息列表update.set("content", ChatMessageSerializer.messagesToJson(list));mongoTemplate.upsert(query,update,ChatMessages.class);}@Overridepublic void deleteMessages(Object memoryId) {// 查询条件Criteria criteria = Criteria.where("memoryId").is(memoryId);// 构建查询对象Query query = new Query(criteria);mongoTemplate.remove(query,ChatMessages.class);}
}
  1. 测试
 @Autowiredprivate  Assistant assistant;@Testpublic void testAssistant() {String question1 = "我是赵铁柱";String question2 = "我是谁?";String ans1 = assistant.chat(1,question1);String ans2 = assistant.chat(1,question2);String ans3 = assistant.chat(2,question2);}

Prompt

@SystemMessage 设定角色,塑造AI助手的专业身份,明确助手的能力范围

  1. 配置@SystemMessage
@SystemMessage("你是我的好朋友,请用东北话回答问题。")//系统消息提示词
String chat(@MemoryId int memoryId, @UserMessage String userMessage);
  1. 配置用户输入@UserMessage
@UserMessage("你是我的好朋友,请用东北话回答问题。")//系统消息提示词
String chat(@UserMessage String userMessage);
  1. 配置@V传递参数
@UserMessage("你是我的好朋友,请用上海话回答问题,并且添加一些表情符号。{{message}}")
String chat(@V("message") String userMessage);

*创建小智医疗助手

  1. 创建XiaoZhiAssistant
  2. 提示词模版:xiaozhi-prompt-template.txt
  3. 配置chatMemoryProvider持久化和记忆回话隔离
  4. 创建实体类
  5. 创建Controller方法

在这里插入图片描述

Function Calling(Tools)

大语言模型的缺陷是数学能力不擅长

  1. @Tool注解提供数学工具
@Component
public class CalculatorTools {@Tooldouble sum(double a, double b) {System.out.println("调用加法运算");return a + b;}@Tooldouble squareRoot(double x) {System.out.println("调用平方根运算");return Math.sqrt(x);}
}
  1. 在@AiService配置tools ="calculatorTools"

根据工具的不同,即使没有任何描述,大语言模型可能也能很好地理解它,例如add(a, b) 。

实战小智医疗智能体

  1. 实现业务,在tools中提示大模型预约流程和结果
    加载Mysql等
@Component
public class AppointmentTool {@Autowiredprivate AppointmentService appointmentService;@Tool(name="预约挂号",value="根据参数,先查询是否当天是否预约过,如果没有预约过,则进行预约,返回预约结果")public String appointment(Appointment appointment) {// 先查询是否当天是否预约过if (appointmentService.isAppointment(appointment)) {return "您今天已经预约过了,请勿重复预约";}// 进行预约boolean result = appointmentService.appointment(appointment);if (result) {return "预约成功";} else {return "预约失败";}}}

在这里插入图片描述

RAG

LLM的知识仅限于它所训练的数据。如果你想让LLM了解特定领域的知识或转专有数据,需要微调。
RAG通过​​检索外部知识库​​(如文档、数据库),将检索到的相关信息作为上下文输入给生成模型,辅助生成更准确的回答。

1. 全文搜索
2. **向量搜索**(向量余弦相似度,独立的向量数据库)
3. 混合搜索

RAG的过程

  1. 索引阶段
    xx
  2. 检索阶段
    xxx
  3. 文档加载器,文档解析器,文档分割器
//文档加载器,文档解析器,文档分割器
PathMatcher pathMatcher = FileSystems.getDefault().getPathMatcher("glob:*.txt");
List<Document> documents = FileSystemDocumentLoader.loadDocuments(folder, pathMatcher,new TextDocumentParser());
//

Token分词器

在这里插入图片描述

向量存储

之前我们使用的是InMemoryEmbeddingStore作为向量存储,但是不建议在生产中使用基于内存的向量存储。因此这里我们使用Pinecone作为向量数据库。

<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-pinecone</artifactId>
</dependency>
#集成阿里通义千问-通用文本向量-v3,注入EmbeddingModel
langchain4j.community.dashscope.embedding-model.api-key=${DASH_SCOPE_API_KEY}
langchain4j.community.dashscope.embedding-model.model-name=text-embedding-v3
  1. 配置EmbeddingStoreConfig
  2. //相似度匹配embeddingSearch
  3. 上传知识库到Pinecone
  4. 在AssistantConfig中添加contentRetrieverXiaozhiPincone
  5. AiService注解加contentRetriever=“contentRetrieverXiaozhiPincone”

流式输出

大模型的流式输出是指大模型在生成文本或其他类型的数据时,不是等到整个生成过程完成后再一次性返回所有内容,而是生成一部分就立即发送一部分给用户或下游系统,以逐步、逐块的方式返回结果。

<!--流式输出-->
<dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-webflux</artifactId>
</dependency>
<dependency><groupId>dev.langchain4j</groupId><artifactId>langchain4j-reactor</artifactId>
</dependency>

1.配置

#集成阿里通义千问-流式输出
langchain4j.community.dashscope.streaming-chat-model.api-key=${DASH_SCOPE_API_KEY}
langchain4j.community.dashscope.streaming-chat-model.model-name=qwen-plus
  1. AIService添加
    streamingChatModel = "qwenStreamingChatModel"
  2. 修改chat方法返回类型为Flux,也别忘了修改Controller中的返回类型

总结

整个框架流程如下
在这里插入图片描述

完结撒花!
在这里插入图片描述

http://www.xdnf.cn/news/6335.html

相关文章:

  • ultalytics代码中模型接收多层输入的处理
  • [训练和优化] 3. 模型优化
  • 学习小组实验1
  • 和为target问题汇总
  • Spark SQL 之 Analyzer
  • Ubuntu Linux bash的相关默认配置文件内容 .profile .bashrc, /etc/profile, /etc/bash.bashrc等
  • 2025年5月-信息系统项目管理师高级-软考高项-成本计算题
  • 为什么doris是实时的?
  • 一个基于 Spring Boot 的实现,用于代理百度 AI 的 OCR 接口
  • 06Spring—AOP @Around环绕通知的进阶思考
  • 【愚公系列】《Manus极简入门》040-科技与组织升级顾问:“项目掌舵人”
  • 第35周Zookkeeper+Dubbo JDK不同版本介绍
  • 75.xilinx复数乘法器IP核调试
  • 麒麟系统下Tomcat部署Java Web程序(WAR包)及全链路问题排查指南
  • R语言的专业网站top5推荐
  • recvfrom和sendto函数中地址参数的作用
  • Redis学习打卡-Day2-缓存更新策略、主动更新策略、缓存穿透、缓存雪崩、缓存击穿
  • Cocos Creator 3.8.5 构建依赖环境配置文档
  • 从零开始创建一个 Next.js 项目并实现一个 TodoList 示例
  • 计算机网络八股
  • Reactor模型详解与C++实现
  • 云原生数据库排障新挑战:AI驱动与分布式架构深度解析
  • 什么是抖动以及如何使用抖动缓冲区来减少抖动?
  • 深度解析IP静态的工作原理,IP静态的应用场景又哪些?
  • 实现可靠的 WebSocket 连接:心跳与自动重连的最佳实践
  • [c语言日寄]数据结构:栈
  • CSS AI 通义灵码 VSCode插件安装与功能详解
  • SSM项目集成redis、Linux服务器安装redis
  • 在vs code 中无法运行npm并报无法将“npm”项识别为 cmdlet、函数、脚本文件或可运行程序的名称。请检查
  • 【Java ee】关于抓包软件Fiddler Classic的安装与使用