在 OCI 生成式 AI 上搭一个「指定地区拉面店 MCP Server」——从 0 到 1 实战记录
在 OCI 生成式 AI 上搭一个「指定地区拉面店 MCP Server」——从 0 到 1 实战记录
- 1. 项目缘起
- 2. 运行环境
- 3. 15 分钟极速搭环境
- 3.1 安装 uv 并初始化项目
- 3.2 依赖一次到位
- 4. MCP Server 代码(ramen.py)
- 5. MCP Client 代码(client.py)
- 6. 跑起来!
- 典型输出节选
- 7. 小结
参考文章:OCI生成AIサービスで指定した地域のラーメン屋情報を教えてくれるMCPサーバを作ってみた
1. 项目缘起
顺手把最近很火的 MCP(Model Context Protocol) 拿来练手,做了一个「你报地名、我给拉面店」的小服务,跑在 Oracle Cloud Infrastructure(OCI)最新发布的 cohere.command-a-03-2025 大模型上。
一句话需求:
用户说「帮我找つくば的拉面店」,Agent 自动返回店铺列表。
2. 运行环境
组件 | 说明 |
---|---|
计算 | OCI Compute – Oracle Linux 8(1 OCPU / 16 GB) |
Python | 3.11(uv 管理) |
LLM | cohere.command-a-03-2025(东京/大阪区域均可) |
数据 | ホットペッパーグルメ Web サービス API |
3. 15 分钟极速搭环境
3.1 安装 uv 并初始化项目
curl -LsSf https://astral.sh/uv/install.sh | sh
uv init ramen && cd ramen
uv venv && source .venv/bin/activate
3.2 依赖一次到位
uv add "mcp[cli]" httpx langchain_community langchain_mcp_adapters langgraph oci
还需要本地安装/配置 oci-cli。
4. MCP Server 代码(ramen.py)
核心思路:
- 根据用户给出的城市名 → 查 小エリアコード
- 拿小エリアコード → 查拉面店列表
import os, httpx
from dotenv import load_dotenv
from typing import Annotated
from mcp.server.fastmcp import FastMCPload_dotenv()
API_KEY = os.environ["API_KEY"]
API_BASE = "http://webservice.recruit.co.jp/hotpepper"
USER_AGENT = "ramen-app/1.0"mcp = FastMCP("ramen")@mcp.tool()
async def get_small_area_code(area_name: Annotated[str, "市区町村名 例: 京都市"]
) -> str:url = f"{API_BASE}/small_area/v1/?key={API_KEY}&format=json"async with httpx.AsyncClient() as c:r = await c.get(url, headers={"User-Agent": USER_AGENT}, timeout=30)r.raise_for_status()for a in r.json()["results"]["small_area"]:if area_name in a["name"]:return a["code"]return ""@mcp.tool()
async def get_gourmet_info(small_area_code: Annotated[str, "小エリアコード 例: X587"]
) -> str:url = (f"{API_BASE}/gourmet/v1/?key={API_KEY}&small_area={small_area_code}"f"&genre=G013&format=json")async with httpx.AsyncClient() as c:r = await c.get(url, headers={"User-Agent": USER_AGENT}, timeout=30)r.raise_for_status()shops = "\n".join([f"店名: {s['name']} {s['name_kana']}\n特徴: {s['catch']}\n"for s in r.json()["results"]["shop"]])return shopsif __name__ == "__main__":mcp.run(transport="stdio")
5. MCP Client 代码(client.py)
让 LangGraph ReAct Agent 自动调用上面两个工具。
import asyncio, oci
from langchain_community.chat_models import ChatOCIGenAI
from langchain_mcp_adapters.client import MultiServerMCPClient
from langgraph.prebuilt import create_react_agentconfig = oci.config.from_file("~/.oci/config", "DEFAULT")
llm = ChatOCIGenAI(model_id="cohere.command-a-03-2025",service_endpoint="https://inference.generativeai.ap-osaka-1.oci.oraclecloud.com",compartment_id="your-compartment-id",model_kwargs={"temperature": 0.7, "max_tokens": 500}
)async def main():async with MultiServerMCPClient({"ramen": {"command": "python","args": ["/home/opc/ramen/ramen.py"],"transport": "stdio",}}) as client:tools = await client.get_tools()agent = create_react_agent(llm, tools)ans = await agent.ainvoke({"messages": "つくばのラーメン屋を教えて下さい。"})for m in ans["messages"]:print(f"\n--- {type(m).__name__} ---\n{m.content}")if __name__ == "__main__":asyncio.run(main())
6. 跑起来!
$ uv run client.py
典型输出节选
--- HumanMessage ---
content='つくばのラーメン屋を教えて下さい。'--- AIMessage ---
tool_calls=[{'name': 'get_small_area_code', 'args': {'area_name': 'つくば'}, ...}]--- ToolMessage ---
content='X587'--- AIMessage ---
tool_calls=[{'name': 'get_gourmet_info', 'args': {'small_area_code': 'X587'}, ...}]--- AIMessage ---
content='以下のラーメン屋がつくばにあります。
- 山岡家 つくば中央店
- 天下一品 つくば店
- 丸源ラーメン つくば店
- 龍郎
- 活龍'
7. 小结
- MCP Server 不到 100 行即可完成,可插拔 地接入任何兼容 MCP 的 Agent 框架。