当前位置: 首页 > news >正文

05-mcp-server案例分享-用豆包大模型 1.6 手搓文生图视频 MCP-server发布到PyPI官网

1前言

上期给大家介绍过mcp-server案例分享-用豆包大模型 1.6 手搓文生图视频 MCP-server。当时部署的方式使用了一个私有云SSE的部署。当时缺少一个本地部署的方式,有的小伙伴给我留言能不能有一个本地话部署方式了。今天就给大家带来一个本地化部署的方案。

话不多说下面介绍一下具体如何打包和操作的。

2.打包发布Python库到PyPI

基于上期文章我们已经有了代码mcp_ai_server.py

# doubao_mcp_server.py
import time
import base64
import requests
import asyncio
from typing import Any, Dict, Optional, Union
from openai import OpenAI
from mcp.server.fastmcp import FastMCP# 创建MCP服务器实例
mcp = FastMCP("AI Generation Server")# 全局配置
API_KEY = None
BASE_URL = "https://ark.cn-beijing.volces.com/api/v3"def initialize_client():"""初始化OpenAI客户端"""if not API_KEY:raise ValueError("API key is required")return OpenAI(api_key=API_KEY, base_url=BASE_URL)@mcp.tool()
def set_api_key(api_key: str) -> str:"""设置豆包API密钥"""global API_KEYAPI_KEY = api_keyreturn "API密钥设置成功"@mcp.tool()
def text_to_image(prompt: str, size: str = "1024x1024", model: str = "doubao-seedream-3-0-t2i-250415"
) -> Dict[str, Any]:"""文生图功能 - 根据文本描述生成图片Args:prompt: 图片描述提示词size: 图片尺寸,格式为"宽x高",如"1024x1024"model: 使用的模型名称Returns:包含图片URL或错误信息的字典"""try:client = initialize_client()params = {"model": model,"prompt": prompt,"size": size,"response_format": "url","n": 1,}response = client.images.generate(**params)if response.data and len(response.data) > 0:return {"success": True,"image_url": response.data[0].url,"message": "图片生成成功"}else:return {"success": False,"error": "未返回图片数据"}except Exception as e:return {"success": False,"error": f"生成图片时出错: {str(e)}"}@mcp.tool()
def image_to_video(prompt: str,image_base64: str,duration: str = "5",ratio: str = "16:9",model: str = "doubao-seedance-1-0-lite-i2v-250428"
) -> Dict[str, Any]:"""图生视频功能 - 根据图片和文本描述生成视频Args:prompt: 视频描述提示词image_base64: 图片的base64编码字符串duration: 视频时长(秒)ratio: 视频比例,如"16:9"model: 使用的模型名称Returns:包含视频URL或错误信息的字典"""try:# 构造图片数据URLimage_data_url = f"data:image/jpeg;base64,{image_base64}"# 自动添加参数到提示词if ratio and "--ratio" not in prompt:prompt += f" --ratio adaptive"if duration and "--duration" not in prompt and "--dur" not in prompt:prompt += f" --duration {duration}"headers = {"Content-Type": "application/json","Authorization": f"Bearer {API_KEY}"}# 构造请求内容content = [{"type": "text", "text": prompt},{"type": "image_url", "image_url": {"url": image_data_url}}]request_data = {"model": model,"content": content}# 创建视频生成任务response = requests.post(f"{BASE_URL}/contents/generations/tasks",headers=headers,json=request_data)if response.status_code != 200:return {"success": False,"error": f"创建视频生成任务失败,状态码: {response.status_code}, 信息: {response.text}"}task_id = response.json().get("id")if not task_id:return {"success": False,"error": "未获取到任务ID"}# 轮询等待任务完成max_retries = 60for retry in range(max_retries):time.sleep(5)task_resp = requests.get(f"{BASE_URL}/contents/generations/tasks/{task_id}",headers=headers)if task_resp.status_code != 200:return {"success": False,"error": f"查询任务失败,状态码: {task_resp.status_code}"}task_data = task_resp.json()status = task_data.get("status")if status == "succeeded":video_url = task_data.get("content", {}).get("video_url")return {"success": True,"video_url": video_url,"message": "视频生成成功","task_id": task_id}elif status in ("failed", "canceled"):return {"success": False,"error": f"任务{status}"}return {"success": False,"error": "视频生成超时"}except Exception as e:return {"success": False,"error": f"生成视频时出错: {str(e)}"}@mcp.tool()
def text_to_video(prompt: str,duration: str = "5",ratio: str = "16:9",model: str = "doubao-seedance-1-0-lite-t2v-250428"
) -> Dict[str, Any]:"""文生视频功能 - 根据文本描述生成视频Args:prompt: 视频描述提示词duration: 视频时长(秒)ratio: 视频比例,如"16:9"model: 使用的模型名称Returns:包含视频URL或错误信息的字典"""try:# 自动添加参数到提示词if ratio and "--ratio" not in prompt:prompt += f" --ratio {ratio}"if duration and "--duration" not in prompt and "--dur" not in prompt:prompt += f" --duration {duration}"headers = {"Content-Type": "application/json","Authorization": f"Bearer {API_KEY}"}request_data = {"model": model,"content": [{"type": "text", "text": prompt}]}# 创建视频生成任务response = requests.post(f"{BASE_URL}/contents/generations/tasks",headers=headers,json=request_data)if response.status_code != 200:return {"success": False,"error": f"创建视频生成任务失败,状态码: {response.status_code}, 信息: {response.text}"}task_id = response.json().get("id")if not task_id:return {"success": False,"error": "未获取到任务ID"}# 轮询等待任务完成max_retries = 60for retry in range(max_retries):time.sleep(5)task_resp = requests.get(f"{BASE_URL}/contents/generations/tasks/{task_id}",headers=headers)if task_resp.status_code != 200:return {"success": False,"error": f"查询任务失败,状态码: {task_resp.status_code}"}task_data = task_resp.json()status = task_data.get("status")if status == "succeeded":video_url = task_data.get("content", {}).get("video_url")return {"success": True,"video_url": video_url,"message": "视频生成成功","task_id": task_id}elif status in ("failed", "canceled"):return {"success": False,"error": f"任务{status}"}return {"success": False,"error": "视频生成超时"}except Exception as e:return {"success": False,"error": f"生成视频时出错: {str(e)}"}@mcp.tool()
def encode_image_to_base64(image_path: str) -> Dict[str, Any]:"""将本地图片文件编码为base64字符串Args:image_path: 图片文件路径Returns:包含base64编码字符串或错误信息的字典"""try:with open(image_path, 'rb') as image_file:encoded_string = base64.b64encode(image_file.read()).decode('utf-8')return {"success": True,"base64_string": encoded_string,"message": "图片编码成功"}except Exception as e:return {"success": False,"error": f"编码图片失败: {str(e)}"}@mcp.resource("config://models")
def get_available_models() -> str:"""获取可用的AI模型列表"""models = {"text_to_image": ["doubao-seedream-3-0-t2i-250415"],"image_to_video": ["doubao-seedance-1-0-lite-i2v-250428"],"text_to_video": ["doubao-seedance-1-0-lite-t2v-250428"]}return f"可用模型列表: {models}"@mcp.resource("config://settings")
def get_server_settings() -> str:"""获取服务器配置信息"""settings = {"base_url": BASE_URL,"api_key_set": bool(API_KEY),"supported_image_sizes": ["512x512", "768x768", "1024x1024", "1024x1792", "1792x1024"],"supported_video_ratios": ["16:9", "9:16", "1:1"],"max_video_duration": "10s"}return f"服务器配置: {settings}"def main():"""主函数入口点"""mcp.run(transport="stdio")if __name__ == "__main__":main()

包代码开发

将您MCP server本地脚本打包,需要在doubao_mcp_server目录新建一个文件__init__.py

init.py

from .doubao_mcp_server import main__all__ = ["main"]

本地测试

打包后测试可以将这个mcp server作为模块来运行,而不是直接通过脚本运行。

# 以模块运行
uv run -m mcp_ai_server

或者也可以在MCP 客户端比如Cherry Studio上配置config测试

{"mcpServers": {"r-FY6A48OrPGz5fknShHt": {"name": "doubao-mcp-server","type": "stdio","description": "","isActive": true,"registryUrl": "https://pypi.tuna.tsinghua.edu.cn/simple","command": "uv","args": ["--directory","F:\\work\\code\\AIcode\\doubao_mcp_server","run","doubao-mcp-server.py"]}}

Cherry Studio上 界面配置

image-20250615113705259

点击保存验证一下,查看下工具列表

image-20250615113848740

看到这个说明可以在客户端使用这个MCP-Server了。

作为一个包发布到PyPI

编写pyproject.toml

您需要确保在您的项目根目录,存在一个完整的pyproject.toml文件(在前面的步骤中应该已经自动生成)。这个文件的内容包括:

  • 包的元信息:名字、版本、描述、作者
  • 依赖项
  • 构建系统配置
  • MCP入口

pyproject.toml文件:

[project]
name = “doubao-mcp-server”
version = “0.1.0”
description = “主要实现的是火山引擎的提供的豆包文生图、文生视频、图生视频MCP-Server”
authors = [
{name = “wwzhouhui”,email = “75271002@qq.com”}
]
readme = “README.md”
requires-python = “>=3.13”
dependencies = [
“mcp[cli]>=1.9.4”, # 添加requests依赖
“requests>=2.31.0”,
“openai>=1.86.0”,
]

[project.scripts]
doubao-mcp-server = “doubao_mcp_server:main”

[build-system]
requires = [“hatchling”]
build-backend = “hatchling.build”

Python包创建一个README.md

这个地方我们省略

编译打包

构建你Python包,这个地方我稍微讲一下

cd  F:\work\code\AIcode\doubao_mcp_server
uv build

image-20250615115940544

image-20250615120014779

检查打包文件

在dist/目录下看见.whl和.tar.gz的两个文件

image-20250615120057036

准备PyPI账户

我需要登录PyPI官网:https://pypi.org/account/login/ 注册一个账号(如果之前没有的话)

关于PyPI注册比较麻烦,这里不做详细展开。主要是注册之后还需要微软的Authenticator 手机上安装,然后通过双重身份验证完成登录

image-20250615122125953

image-20250615122157980

完整双重身份验证后,我们就可以实现打包文件上传了。

image-20250615122337017

pypi api token创建

双重身份验证通过后,我们点击“add api token” 创建一个api

image-20250615122644450

image-20250615122725171

image-20250615122807168

复制上面的token用记事本保存好。

上传您的Python包

我们在命令行窗口输入如下命令

uv publish --token  pypi-xxxxxx 

image-20250615123128330

我们去pypi 查看我们上传的包

image-20250615123327343

打开view 我们就查看刚刚上传的详细的依赖包

image-20250615153449187

MCP客户端测试

一旦发布完成, 用户就可以通过uvx安装和使用您的 MCP server。uvx会创建一个临时环境,安装依赖并执行这个包,非常的简洁优雅。

接下来我们使用trae 来下载安装我们刚才上传的pypi依赖包

我们在trae 添加如下mcp-server配置

{"mcpServers": {"doubao-mcp-server": {"command": "uvx","args": ["doubao-mcp-server"],"env": {"DOUBAO_API_KEY": "your-api-key-here"}}}
}

配置完成后

image-20250615153553068

我们测试一下

image-20250615155831976

image-20250615155855206

image-20250615155932459

有点丑,不过确实已经弄个调用生产图片了。

3.部署到魔搭MCP广场

我们也可以把这个MCP部署到魔搭社区的MCP广场上给大家使用。

  • 进入魔搭MCP广场

    MCP广场地址:modelscope.cn/mcp

    img

  • 基础信息填写

    创建类型:选择“GitHub快速创建”

    英文名称:英文MCP Server名字,

    中文名称:中文MCP Server名字,

    来源地址:代码我们已经上传github地址:https://github.com/wwwzhouhui/doubao_mcp_server

    所有者:默认已填好

    托管类型:选择“可托管部署”

    image-20250615172025838

完成部署

image-20250615174149106

上面填写APIkey 就可以体验了。按照下面填写APIkey

image-20250615175744287

生成SSE URL 地址(上面地址有效期时间24个小时,也可以设置长期有效)

{"mcpServers": {"DoubaoMCPServer-MCP_Agent_Challenge": {"type": "sse","url": "https://mcp.api-inference.modelscope.net/aee3086059a34e/sse"}}
}

接下来我们也可以在魔搭的应用广场上体验了。我们点击“试用” 就可以在魔搭社区免费体验了。

image-20250615180327469

摩搭社区MCP应用广场测试

进入应用广场 输入下面的提示词

文生图

给我画一个 小白兔吃萝卜

image-20250615180612926

image-20250615180819895

这样我们在魔搭社区里面也可以使用我我们刚才部署打包的MCP-server了。

文生视频

提示词:给我生成一个小白兔吃萝卜的视频

image-20250615182331935

4.总结

今天主要带大家了解并实现了基于豆包大模型 1.6 发布的文生图、文生视频、图生视频功能的 MCP-Server 本地化部署与发布方案。通过将 MCP Server 脚本打包为 Python 库并发布至 PyPI,我们成功实现了可跨平台调用的 AI 生成服务。借助火山引擎提供的文生图、文生视频、图生视频模型 API,我们构建了一个功能完整的 MCP-Server,支持通过文本描述生成高质量图片和视频内容。

通过本文的方案,开发者可以轻松搭建自己的文生图、文生视频、图生视频服务,为应用程序添加强大的 AI 生成能力。感兴趣的小伙伴可以按照本文步骤去尝试搭建自己的 MCP-Server。今天的分享就到这里结束了,我们下一篇文章见。

http://www.xdnf.cn/news/1046863.html

相关文章:

  • Python中shutil.rmtree()的目录删除能力详解
  • kicad运行时出错,_Pnext->_Myproxy = nullptr;访问内存出错
  • Spring Boot Web开发
  • 《拖延心理学》:深度剖析与应对指南​
  • 深入解析解释器模式:语言解析的优雅实现
  • Leetcode 刷题记录 16 —— 栈
  • 【git】 `git rm --cached *.pt` 删除了缓存,但这些大文件的历史记录仍然存在于Git历史
  • 《棒球百科》棒球怎么玩·棒球9号位
  • 岐黄慧问六月最终项目完成情况
  • 用于汽车毫米波雷达的四维高分辨率点云图像
  • 微软Bing正式推出AI视频生成工具:Bing Video Creator,由Sora技术驱动,限时免费体验!
  • 机器学习实验报告5-K-means 算法
  • ansible变量
  • 如何修改PyCharm的界面颜色(超详细)
  • vue2和vue3的底层逻辑原理、区别、用法以及应用优缺点
  • 大模型训练与推理显卡全指南:从硬件选型到性能优化
  • 软考 系统架构设计师系列知识点之杂项集萃(90)
  • AOP +ThreadLocal实现对接口监控
  • linux设置信号量系统参数
  • 【Dify系列】【Dify 核心功能】【应用类型】【三】【Agent】
  • Python 面向对象编程基础-类的创建与__init__实例化
  • [Java 基础]正则表达式
  • 第10章:Neo4j与其他技术集成
  • 图数据库neo4j部分用法浅讲
  • 基于SpringBoot和Leaflet的电影票房时序展示-以《哪吒2》为例
  • 6,TCP客户端
  • 【系统设计【3】】系统设计面试框架:从理论到实践的完整指南
  • 2013-2023年 地级市-财政透明度数据-社科经管实证数据
  • 使用Netlify进行简单部署
  • UE5 仿 鸣潮人物渲染