通过Model Context Protocol (MCP协议),AI模型能够访问外部工具和数据源,从而实现更加强大的功能。ConsoleX AI提供对于MCP工具的全面支持,包括基于SSE和Stdio的MCP服务器。
如何在ConsoleX中集成和使用MCP服务器
在ConsoleX AI中添加和使用MCP服务非常简单,只需要按照以下步骤操作:
登录ConsoleX AI,进入"工具"面板,切换至"MCP server"标签页,输入MCP服务器的JSON描述,点击"添加"按钮完成MCP服务器的集成。
在自动使用工具模式中,将常用的MCP服务器添加到自动调用列表中,或者在手动添加工具模式中,将MCP服务器添加到当前对话中。
在发起新对话时,AI模型会根据对话的上下文场景,自主决定是否需要调用相应的MCP工具。
如何配置基于SSE的MCP服务器
在ConsoleX AI中通过配置添加基于SSE的MCP服务器非常简单,只需要输入以下形式的配置即可:
{
"url": "<your_sse_mcp_server_endpoint>"
}
还可以添加额外的参数,所有其他参数都将通过header中的属性传递给服务器。例如,可以添加header验证或者传递其他的配置参数。
{
"url": "<your_sse_mcp_server_endpoint>",
"Authorization": "Bearer <your_auth_token>",
"timezone": "Europe/Berlin"
}
SSE服务器需要自行从Header中提取参数进行鉴权或在功能逻辑中使用。
ConsoleX提供了一些托管的SSE server端点,可以更加方便的添加,只需复制和粘贴并更改其中的一些参数即可。
如何描述基于Stdio的MCP服务器
ConsoleX是云端服务,因此不能通过Stdio方式直接调用本地资源,但是可以通过MCP bridge来实现中转,实现Stdio传输协议的MCP服务器调用。
具体的步骤如下:
需要在本地电脑上安装并运行MCP connect,并设置auth_token
通过Tunnel隧道使你的MCP bridge URL可以公开访问,MCP bridge内置ngrok的支持,但是你也可以使用Cloudflare Zero Trust等其他方式实现
在ConsoleX的“设置”中输入全局MCP代理URL和auth_token,然后就可以像本地MCP客户端一样,在ConsoleX上添加基于Stdio的MCP服务器配置
除了设置全局的proxy endpoint和auth token之外,还可以单独为每个MCP服务器设置单独的bridge_url和auth_token,单独设置的bridge_url和auth_token会覆盖全局的配置。
例如:
{
"bridge_url": "<your_mcp_bridge_url>",
"auth_token": "<your_auth_token>",
"command": "uvx",
"args": ["mcp-server-fetch"]
}
常见问题
Q: 哪些模型支持MCP服务器?
A: MCP协议是Anthropic发起的,因此Claude 3.5模型系列能够对于MCP服务器的调用提供更好的支持。不过,MCP服务器的工具部分对于其他任何支持工具调用的大模型都是可用的。
Q: 在ConsoleX中使用MCP服务器有哪些限制?
A: 在ConsoleX中不能直接添加基于Stdio的MCP服务器,但是可以通过MCP bridge来实现Stdio传输协议的MCP调用。
Q: 我无法成功添加本地基于Stdio的MCP服务器,该怎么办?
A: 首先请确保MCP connect已经成功安装和运行,并且MCP connect的端点可以公开通过。可以通过健康检查端点进行确认。
如果MCP connect的端点可以公开通过,但是无法成功添加或调用MCP服务器,请在终端中检查MCP connect的输出日志并进一步查找原因。