跳转到主要内容

在ConsoleX AI中添加和使用MCP服务

ConsoleX AI提供对于MCP工具的全面支持,包括基于SSE和Stdio的MCP服务器。

Quentin avatar
作者:Quentin
超过一个月前更新

通过Model Context Protocol (MCP协议),AI模型能够访问外部工具和数据源,从而实现更加强大的功能。ConsoleX AI提供对于MCP工具的全面支持,包括基于SSE和Stdio的MCP服务器。

如何在ConsoleX中集成和使用MCP服务器

在ConsoleX AI中添加和使用MCP服务非常简单,只需要按照以下步骤操作:

  1. 登录ConsoleX AI,进入"工具"面板,切换至"MCP server"标签页,输入MCP服务器的JSON描述,点击"添加"按钮完成MCP服务器的集成。

  2. 在自动使用工具模式中,将常用的MCP服务器添加到自动调用列表中,或者在手动添加工具模式中,将MCP服务器添加到当前对话中。

  3. 在发起新对话时,AI模型会根据对话的上下文场景,自主决定是否需要调用相应的MCP工具。

如何配置基于SSE的MCP服务器

在ConsoleX AI中通过配置添加基于SSE的MCP服务器非常简单,只需要输入以下形式的配置即可:

{ 
"url": "<your_sse_mcp_server_endpoint>"
}

还可以添加额外的参数,所有其他参数都将通过header中的属性传递给服务器。例如,可以添加header验证或者传递其他的配置参数。

{ 
"url": "<your_sse_mcp_server_endpoint>",
"Authorization": "Bearer <your_auth_token>",
"timezone": "Europe/Berlin"
}

SSE服务器需要自行从Header中提取参数进行鉴权或在功能逻辑中使用。

ConsoleX提供了一些托管的SSE server端点,可以更加方便的添加,只需复制和粘贴并更改其中的一些参数即可。

如何描述基于Stdio的MCP服务器

ConsoleX是云端服务,因此不能通过Stdio方式直接调用本地资源,但是可以通过MCP bridge来实现中转,实现Stdio传输协议的MCP服务器调用。

具体的步骤如下:

  1. 需要在本地电脑上安装并运行MCP connect,并设置auth_token

  2. 通过Tunnel隧道使你的MCP bridge URL可以公开访问,MCP bridge内置ngrok的支持,但是你也可以使用Cloudflare Zero Trust等其他方式实现

  3. 在ConsoleX的“设置”中输入全局MCP代理URL和auth_token,然后就可以像本地MCP客户端一样,在ConsoleX上添加基于Stdio的MCP服务器配置

除了设置全局的proxy endpoint和auth token之外,还可以单独为每个MCP服务器设置单独的bridge_url和auth_token,单独设置的bridge_url和auth_token会覆盖全局的配置。

例如:

{
"bridge_url": "<your_mcp_bridge_url>",
"auth_token": "<your_auth_token>",
"command": "uvx",
"args": ["mcp-server-fetch"]
}

常见问题

Q: 哪些模型支持MCP服务器?

A: MCP协议是Anthropic发起的,因此Claude 3.5模型系列能够对于MCP服务器的调用提供更好的支持。不过,MCP服务器的工具部分对于其他任何支持工具调用的大模型都是可用的。

Q: 在ConsoleX中使用MCP服务器有哪些限制?

A: 在ConsoleX中不能直接添加基于Stdio的MCP服务器,但是可以通过MCP bridge来实现Stdio传输协议的MCP调用。

Q: 我无法成功添加本地基于Stdio的MCP服务器,该怎么办?

A: 首先请确保MCP connect已经成功安装和运行,并且MCP connect的端点可以公开通过。可以通过健康检查端点进行确认。

如果MCP connect的端点可以公开通过,但是无法成功添加或调用MCP服务器,请在终端中检查MCP connect的输出日志并进一步查找原因。

这是否解答了您的问题?