当前位置: 首页 > news >正文

第七章.干货干货!!!Langchain4j开发智能体-文生图文生视频

前言

可能我们都用过三方的大模型如:文心一言,通义千问等的文生图/语音/视频的功能,当我们输入需求大模型就可以根据我们的需求生成对应的图片或者视频。那么在你的项目中可能也会有这样的需求,我们一起来看看如何实现它。

百炼大模型平台

这里我使用百炼大模型平台现成的模型来实现文生图等功能,如果你还没有百炼平台的apikey,请先去这个地址创建 https://bailian.console.aliyun.com/?apiKey=1#/api-key 。
在这里插入图片描述
在百炼平台上有对应的文生图/视频/语音对应的模型通义万向:选择一个模型-api参考-点击进去我们可以看到他的使用方式
在这里插入图片描述
在往底部滑动我们可以看到各种语言的使用方式,找到java实例
在这里插入图片描述
有了代码示例后我们就根据该实例来接入自己的智能体了。

接入百炼文生图

这里我使用的是 WanxImageModel 万象模型去构建,需要指定模型名字和李的apkey。如下

    /*** 文生图*/@RequestMapping(value="/chat/image", produces = TEXT_EVENT_STREAM_VALUE)public String chatImage(@RequestParam("message") String message) {setEncoder();WanxImageModel wanxImageModel = WanxImageModel.builder().modelName("wanx2.1-t2i-plus").apiKey("sk-你的key").build();Response<Image> response = wanxImageModel.generate(message);return response.content().url().toString();}

其实 WanxImageModel 还可以设置很多的参数,比如:图片风格,图片像素等等,你可以根据官网文档自己去设置。测试效果如下
在这里插入图片描述
大模型会把生成好的图片地址返回给我们,下载下来
在这里插入图片描述

文生视频/音频的代码我也贴一下,实现方式都一样,具体细节请参考官网

/*** 文生语音*/@RequestMapping(value="/chat/audio", produces = TEXT_EVENT_STREAM_VALUE)public String chatAudio(@RequestParam("message") String message) {String model = "cosyvoice-v1";String voice = "longxiaochun";SpeechSynthesisParam param = SpeechSynthesisParam.builder()// 若没有将API Key配置到环境变量中,需将下面这行代码注释放开,并将your-api-key替换为自己的API Key.apiKey("sk-你的key").model(model).voice(voice).build();// 同步模式:禁用回调(第二个参数为null)SpeechSynthesizer synthesizer = new SpeechSynthesizer(param, null);// 阻塞直至音频返回ByteBuffer audio = synthesizer.call(message);// 将音频数据保存到本地文件“output.mp3”中File file = new File("output.mp3");System.out.println("[Metric] requestId: "+ synthesizer.getLastRequestId()+ ", first package delay ms: "+ synthesizer.getFirstPackageDelay());try (FileOutputStream fos = new FileOutputStream(file)) {fos.write(audio.array());} catch (IOException e) {throw new RuntimeException(e);}return "ok";}/*** 文生视频*/@RequestMapping(value="/chat/video", produces = TEXT_EVENT_STREAM_VALUE)public String chatVideo(@RequestParam("message") String message) {VideoSynthesis vs = new VideoSynthesis();VideoSynthesisParam param = VideoSynthesisParam.builder().apiKey("sk-你的key").model("wanx2.1-t2v-turbo").prompt(message).size("1280*720").build();VideoSynthesisResult result = null;try {result = vs.call(param);} catch (NoApiKeyException e) {throw new RuntimeException(e);} catch (InputRequiredException e) {throw new RuntimeException(e);}return JsonUtils.toJson(result);}

总结

好吧文章到这结束,本文介绍了如何通过百炼大模型实现文生图/文生视频等,其实学到这里你时候已经有想法搭建自己的大模型平台了呢?实现一套用户系统,开发一套UI界面,对接自己的大模型或者三方大模型实现对话,搜索,文生图等各种功能。 喜欢的话请三链哦,你的鼓励是我最大的动力,下一章我们学习如何使用SpringAI开发MCPServer 和 MCPClient。

http://www.xdnf.cn/news/144613.html

相关文章:

  • QT窗口相关控件及其属性
  • 大模型——快速部署和使用 Deep Research Web UI
  • linux安装单节点Elasticsearch(es),安装可视化工具kibana
  • 如何创建极狐GitLab 私密议题?
  • 【MySQL】(8) 联合查询
  • 常见网络安全攻击类型深度剖析(二):SQL注入攻击——原理、漏洞利用演示与代码加固方法
  • MySQL 存储过程:解锁数据库编程的高效密码
  • 抓包工具Wireshark的应用解析
  • 期货有哪些种类?什么是股指、利率和外汇期货?
  • 日本企业突破机器人感知技术:人形机器人获嗅觉能力
  • 华硕NUC产品闪耀第31届中国国际广播电视信息网络展览会
  • websheet 之 HTML使用入门
  • 本地化部署实践1-ollama
  • DeepSeek本地部署手册
  • 基于随机变量的自适应螺旋飞行麻雀搜索算法(ASFSSA)优化BP神经网络,附完整完整代码
  • Linux多线程技术
  • 神经符号混合与跨模态对齐:Manus AI如何重构多语言手写识别的技术边界
  • 重置 Git 项目并清除提交历史
  • SecondScreen:智能调整屏幕比例,优化投屏体验
  • 腾讯一面面经:总结一下
  • el-upload 上传逻辑和ui解耦,上传七牛
  • pandas读取MySQL中的数据
  • 【力扣题目分享】栈专题(C++)
  • VScode远程连接服务器(免密登录)
  • 纯CSS吃豆人(JS仅控制进度)
  • YOLOv12 改进有效系列目录 - 包含卷积、主干、检测头、注意力机制、Neck上百种创新机制 - 针对多尺度、小目标、遮挡、复杂环境、噪声等问题!
  • Android 14 系统统一修改app启动时图标大小和圆角
  • 大模型在直肠癌预测及治疗方案制定中的应用研究
  • PyTorch深度学习框架60天进阶学习计划 - 第51天:扩散模型原理(二)
  • 用户案例--慧眼科技