使用说明
项目简介
本项目是一个基于 Model Context Protocol (MCP) 的服务器实现,旨在将强大的 Wolfram Alpha 计算引擎集成到聊天应用和大型语言模型 (LLM) 工作流中。通过此 MCP 服务器,LLM 客户端可以调用 Wolfram Alpha 的工具,执行复杂的数学计算、科学数据查询和知识检索,从而增强 LLM 的能力边界。
主要功能点
- Wolfram Alpha 集成: 提供对 Wolfram Alpha API 的访问,支持自然语言查询,获取数学、科学、工程等领域的计算结果和结构化知识。
- LLM 辅助解释: 结合 Gemini (通过 LangChain) 或其他 LLM 对 Wolfram Alpha 的结果进行解释和总结,使返回内容更易于理解和应用(Gemini 功能为可选)。
- 模块化设计: 采用模块化架构,方便扩展和添加其他 API 或功能模块。
- 多客户端支持: 支持多客户端连接,可以同时为多个 LLM 应用提供服务。
安装步骤
-
克隆仓库
git clone https://github.com/ricocf/mcp-wolframalpha.git cd mcp-wolframalpha -
配置环境变量
- 在项目根目录下创建 '.env' 文件,并根据示例配置 Wolfram Alpha API 密钥:
WOLFRAM_API_KEY=your_wolframalpha_appid- (可选) 如果需要使用 Gemini 进行结果解释,请配置 Gemini API 密钥:
如果不需要 Gemini 功能,可以跳过 Gemini API 密钥的配置。GeminiAPI=your_google_gemini_api_key
- 在项目根目录下创建 '.env' 文件,并根据示例配置 Wolfram Alpha API 密钥:
-
安装依赖
pip install -r requirements.txt
服务器配置
为了让 MCP 客户端(例如 VSCode MCP Server)连接到此 Wolfram Alpha MCP 服务器,您需要提供服务器的启动配置。以下是一个 '.vscode/mcp.json' 配置示例,客户端需要根据此配置启动服务器进程:
{ "serverName": "WolframAlphaServer", "command": "python", "args": ["main.py"] }
配置参数说明:
- 'serverName': 服务器名称,可以自定义,例如 "WolframAlphaServer"。
- 'command': 启动服务器的命令,这里使用 'python' 解释器。
- 'args': 启动命令的参数列表,'["main.py"]' 表示执行项目根目录下的 'main.py' 文件来启动服务器。
注意: MCP 客户端需要能够找到并执行 'python' 命令,并且项目依赖已正确安装。客户端在启动服务器时,会在项目根目录下执行 'python main.py' 命令。
基本使用方法
-
启动 MCP 服务器 在项目根目录下,打开终端并运行以下命令启动 Wolfram Alpha MCP 服务器:
python main.py服务器成功启动后,将等待 MCP 客户端的连接和请求。
-
配置和连接 MCP 客户端 使用支持 MCP 协议的客户端(例如 VSCode MCP Server),按照客户端的使用说明配置 MCP 服务器连接。关键是提供正确的服务器启动配置信息 (如上面的 '.vscode/mcp.json' 示例) ,客户端会根据配置启动 'main.py',并建立与 MCP 服务器的连接。
-
通过客户端调用 Wolfram Alpha 工具 在 MCP 客户端中,可以使用注册的工具 'query_wolfram'。客户端发送包含自然语言查询的请求到 'query_wolfram' 工具,服务器会将查询发送给 Wolfram Alpha API,获取结果并返回给客户端。 如果配置了 Gemini API 密钥,服务器可能会使用 Gemini 对 Wolfram Alpha 的结果进行解释。
例如,客户端可以发送如下 JSON-RPC 请求调用 'query_wolfram' 工具:
{ "jsonrpc": "2.0", "method": "call_tool", "params": { "tool_name": "query_wolfram", "tool_arguments": { "query": "What is the capital of France?" } }, "id": 1 }服务器会处理这个请求,调用 Wolfram Alpha API 查询 "What is the capital of France?",并将结果以 JSON-RPC 响应的形式返回给客户端。
通过以上步骤,您可以成功部署和使用 Wolfram Alpha MCP 服务器,为您的 LLM 应用提供强大的外部知识和计算能力。
信息
分类
AI与计算