Google Cloud Next 发布 BYO MCP:企业 Agent 协议之争有了阶段性答案

Google Cloud Next 发布 BYO MCP:企业 Agent 协议之争有了阶段性答案

Google 在 Cloud Next 大会上的一个功能发布,终结了一场大多数企业甚至没意识到自己在参与的争论:AI Agent 该用什么协议接入外部工具。

发生了什么

Google 宣布 Cloud 平台支持 “Bring Your Own MCP”(BYO MCP),企业可以把自己部署的 MCP Server 直接接入 Google 的 AI 模型和服务。这意味着:

  • Gemini 模型可以通过 MCP 调用企业内部的数据库、API 和业务系统
  • 企业不需要为 Google AI 单独开发适配层,已有的 MCP Server 可以直接复用
  • Google 从”只支持自家协议”转向”拥抱行业标准”

背景:六个月前的三协议混战

半年前,AI Agent 的工具接入领域有三个主要竞争者:

协议发起方定位
MCPAnthropic开放的 Agent 工具协议
Function CallingOpenAIGPT 模型的专用函数调用机制
各厂商自定义协议各类 AI 平台封闭生态内使用

当时的局面是:如果你要用 Anthropic 的模型,走 MCP;用 OpenAI 的模型,走 Function Calling;用其他平台,可能又是另一套。企业如果要同时用多个模型提供商,就要维护多套工具接入代码。

Google 的 BYO MCP 声明,实质上是对 MCP 作为行业标准的认可。

对企业意味着什么

1. 减少重复开发

不再需要为每个 AI 模型提供商写一套工具接入代码。一套 MCP Server,可以服务于 Claude、Gemini 以及所有支持 MCP 的模型。

2. 保留供应商选择权

当工具接入层标准化后,企业在模型层切换供应商的成本大幅降低。今天用 Gemini + 自有 MCP,明天换 Claude + 同一个 MCP,接入代码不需要改。

3. 内部系统的 AI 化门槛降低

很多企业有内部系统(ERP、HR、财务)需要 AI Agent 调用。BYO MCP 意味着只需要为这些系统开发一次 MCP Server,就可以被多个 AI 平台使用。

快速上手

如果你想在 Google Cloud 上尝试 BYO MCP:

# 1. 部署你的 MCP Server(以文件系统为例)
npx @modelcontextprotocol/server-filesystem /allowed/path

# 2. 在 Google Cloud AI Platform 中注册 MCP Server
# 通过 Google Cloud Console 或 API 配置
# 指定 MCP Server 的端点和认证方式

# 3. 在 Gemini 应用中调用
# 模型会通过 MCP 发现并调用你注册的工具

具体配置步骤请参考 Google Cloud 官方文档中关于 BYO MCP 的说明。

需要注意的点

  • 安全边界:BYO MCP 意味着企业自行管理 MCP Server 的安全策略。Google 提供接入框架,但工具调用的权限控制由用户负责
  • 性能开销:MCP 是一个协议层,相比原生 API 调用会有一定的序列化/反序列化开销,对延迟敏感的场景需要评估
  • 版本兼容:MCP 协议本身还在演进中,需要关注版本升级对已有 Server 的影响

格局判断

Google 加入 MCP 生态,加上此前 Anthropic 的持续推动,MCP 作为 AI Agent 工具接入标准的位置已经相当稳固。对于企业 AI 团队来说,现在是学习和部署 MCP 的好窗口期——标准正在收敛,但工具生态还在快速扩张。

后续值得关注的是:OpenAI 是否会正式拥抱 MCP、更多 SaaS 厂商是否会发布官方 MCP Server、以及 MCP 在企业级安全审计方面的成熟度。


主要来源:

  • Google Cloud Next 大会官方发布
  • Google Cloud AI Platform 文档
  • MCP 协议官方规范