OpenAI宣布:核心API支持MCP,助力智能体开发
今天凌晨,OpenAI全资收购io的消息成为头条。同时,OpenAI还宣布其核心API——Responses API支持MCP服务。过去,开发智能体需通过函数调用与外部服务交互,过程复杂且延迟高。而今,Responses API支持MCP后,开发者只需将模型指向MCP服务,无需为每个函数调用手动连接特定服务,简化了开发流程。
响应API支持MCP服务
- 简化智能体开发流程:传统方法中,开发智能体涉及与外部服务交互,过程复杂且延迟高。现在,通过Responses API对MCP的支持,开发者只需将模型指向一个或多个MCP服务,无需为每个函数调用手动连接特定服务,从而简化了开发流程。
- 降低开发复杂度与增强功能性:开发者只需几行代码即可将智能体连接到强大的外部工具和服务。例如,9行代码就能将智能体链接到电商平台Shopify,13行代码可将智能体连接到云通信平台Twilio。
- 提升安全性和性能:MCP支持集中管理工具,通过allowed_tools参数精确控制智能体能够访问的工具,避免不必要的工具调用、上下文膨胀以及缩短响应时间。同时,通过精确的权限控制确保智能体的安全性,防止智能体滥用工具,保护外部服务的安全性。
- 优化工具调用效率:MCP支持动态工具列表的导入和缓存机制。智能体首次连接到一个MCP服务器时,会从服务器导入工具列表,并将其缓存到模型上下文中,后续调用中可直接使用缓存的工具列表,减少延迟并提高响应速度。
响应API其他新增功能
- 图像生成功能:开发者现在可以在Responses API中直接访问OpenAI的最新图像生成模型(如gpt-image-1),并将其作为工具使用。该工具支持实时流传输,允许开发者在图像生成过程中查看预览,并支持多轮编辑,使开发者能够逐步精细调整图像。
- 代码解释器工具:Code Interpreter工具现在可以在Responses API中使用,支持数据分析、解决复杂的数学和编码问题,甚至帮助模型深入理解和操作图像。例如,在处理数学问题时,模型可以利用Code Interpreter运行代码来得出答案,从而显著提升性能。
- 文件搜索工具增强:文件搜索工具得到了增强,允许开发者根据用户查询将文档中的相关内容块提取到模型的上下文中。此外,该工具还支持跨多个向量存储执行搜索,并允许使用数组进行属性过滤。
- 后台模式:对于需要较长时间处理的任务,开发者可以使用后台模式异步启动这些任务,而无需担心超时或其他连接问题。开发者可以通过轮询这些任务来检查是否完成,或者在需要时开始流式传输事件。
- 推理摘要功能:Responses API现在可以生成模型内部思维链的简洁自然语言摘要,这使得开发者更容易调试、审计和构建更好的最终用户体验。
- 加密推理项:符合零数据保留(ZDR)条件的客户可以在API请求之间重复使用推理项,而无需将任何推理项存储在OpenAI的服务器上。这不仅提高了智能性,还减少了标记使用量,降低了成本和延迟。