Glean工具MCP服务器
Glean工具MCP服务器
本项目是 Model Context Protocol (MCP) 协议的一个服务器端实现,专注于为大语言模型 (LLM) 应用集成 Glean 强大的企业搜索和对话AI能力。通过标准化的MCP接口,LLM客户端可以安全、便捷地调用Glean的功能,获取企业内部知识和智能助手服务,从而构建更强大的AI应用。
主要功能点:
- 企业内容搜索: 通过 'search' 工具,LLM可以利用Glean强大的搜索能力,在企业内部海量数据中快速找到相关文档、信息,为LLM提供精准的上下文知识。
- 智能对话助手: 通过 'chat' 工具,LLM可以与Glean的AI助手进行对话交互,获取更复杂的问答、信息摘要、内容生成等能力,提升LLM的应用场景和用户体验。
- MCP协议兼容: 完全遵循 MCP 协议规范,确保与任何兼容 MCP 协议的 LLM 客户端无缝对接。
- 标准Stdio通信: 采用标准输入输出 (stdio) 作为通信协议,易于集成到各种LLM客户端和工具链中。
- 工具自发现: LLM客户端可以自动发现服务器提供的 'search' 和 'chat' 工具及其详细参数,无需手动配置。
- 基于JSON Schema的参数验证: 所有工具的输入参数都通过 JSON Schema 进行定义和验证,确保数据格式的正确性。
- 详细的错误处理: 针对 Glean API 的各种错误类型(如认证失败、权限不足、请求超时、速率限制等)进行细致处理,并返回清晰的错误信息。
安装步骤:
-
安装 Node.js: 确保你的开发环境已安装 Node.js v18 或更高版本。你可以从 Node.js官网 下载安装。
-
安装 npm 包: 使用 npm, pnpm 或 yarn 其中一种包管理器安装 '@gleanwork/mcp-server' 包:
npm install @gleanwork/mcp-server或者
pnpm install @gleanwork/mcp-server或者
yarn add @gleanwork/mcp-server -
配置 Glean API 凭据: 你需要拥有 Glean API 的访问凭据才能使用此服务器。请联系 Glean 管理员获取 'GLEAN_SUBDOMAIN' 和 'GLEAN_API_TOKEN'。
-
设置环境变量: 将 Glean API 凭据设置为环境变量。在终端中执行以下命令(请替换为你的实际凭据):
export GLEAN_SUBDOMAIN=your_subdomain export GLEAN_API_TOKEN=your_api_token如果你的 Glean API Token 是全局 Token 并且需要模拟用户身份,可以设置 'GLEAN_ACT_AS' 环境变量:
export [email protected]
服务器配置 (server_config.json):
以下 JSON 配置信息用于 MCP 客户端连接 Glean 工具 MCP 服务器。请将以下内容保存为 'server_config.json' 文件,并配置到你的 MCP 客户端中。
{ "serverName": "GleanMCP", // MCP 服务器的名称,可以自定义 "command": "node", // 启动服务器的命令,这里使用 node "args": [ // 启动服务器命令的参数 "build/index.js" // 指定服务器入口文件路径 ], "transport": "stdio", // MCP 客户端与服务器的通信方式,这里使用 stdio "protocol": "json-rpc" // MCP 客户端与服务器通信的协议,固定为 json-rpc }
基本使用方法:
-
启动 MCP 服务器: 在安装了 '@gleanwork/mcp-server' 包的项目根目录下,执行以下命令启动服务器:
node build/index.js服务器成功启动后,会在控制台输出 'Glean MCP Server running on stdio' 信息。
-
配置 MCP 客户端: 在你的 MCP 客户端中,加载上面提供的 'server_config.json' 配置文件。
-
通过 MCP 客户端调用工具: 现在你可以使用 MCP 客户端向 Glean 工具 MCP 服务器发送请求,调用 'search' 或 'chat' 工具,并利用 Glean 的企业搜索和对话能力来增强你的 LLM 应用了。 具体的工具调用方式和参数,请参考 MCP 协议和 Glean API 文档。
例如,在 MCP 客户端中,你可以调用 'search' 工具来进行企业内容搜索,或者调用 'chat' 工具与 Glean AI 助手进行对话。 服务器会将 Glean API 的结果按照 MCP 协议规范返回给客户端,LLM 应用就可以根据这些上下文信息进行后续处理。