项目简介
WolframAlpha LLM MCP Server 是一个基于 Model Context Protocol (MCP) 的服务器,它允许大型语言模型 (LLM) 客户端通过标准化的 MCP 协议,调用 WolframAlpha 的 LLM API 接口。借助此服务器,LLM 可以利用 WolframAlpha 强大的计算能力和广泛的知识库,处理复杂的数学问题、查询科学事实、获取历史地理信息等。此服务器提供结构化的、针对 LLM 优化的响应,并支持简化答案和详细答案,从而增强 LLM 在知识密集型任务中的表现。
主要功能点
- 自然语言查询 WolframAlpha LLM API: 允许用户使用自然语言提问,利用 WolframAlpha 的 LLM API 获取答案。
- 解答复杂数学问题: 能够处理和解答各种复杂的数学问题,包括微积分、代数、几何等。
- 查询科学、物理、历史、地理等领域的事实: 可以查询涵盖科学、物理、历史、地理等广泛领域的知识和事实信息。
- 结构化响应,优化 LLM 使用: 返回结构化的 JSON 响应,方便 LLM 理解和利用信息。
- 支持简化和详细答案: 提供 'get_simple_answer' 工具获取简洁答案,以及 'ask_llm' 工具获取包含详细分节信息的完整答案。
- API 密钥验证: 提供 'validate_key' 工具,用于验证 WolframAlpha API 密钥的有效性。
可用工具 (Tools):
- 'ask_llm': 向 WolframAlpha 提出问题,并获取针对 LLM 优化的结构化响应,包含多种格式的详细信息。
- 'get_simple_answer': 获取 WolframAlpha 提供的简化答案,侧重于最相关的信息,更适合 LLM 上下文理解。
- 'validate_key': 验证您提供的 WolframAlpha API 密钥是否有效。
安装步骤
-
克隆仓库:
git clone https://github.com/Garoth/wolframalpha-llm-mcp.git cd wolframalpha-llm-mcp -
安装依赖:
npm install
服务器配置
为了让 MCP 客户端(例如 VSCode Cline 插件)能够连接到 WolframAlpha LLM MCP Server,您需要在 MCP 客户端的设置中配置服务器信息。以下是一个配置示例,您需要根据您的实际情况进行调整。
在 MCP 客户端的设置文件(通常是 JSON 格式)中,添加或修改 'mcpServers' 配置项,例如:
{ "mcpServers": { "wolframalpha": { "command": "node", "args": ["/path/to/wolframalpha-llm-mcp/build/index.js"], "env": { "WOLFRAM_LLM_APP_ID": "YOUR_WOLFRAMALPHA_API_KEY" }, "disabled": false, "autoApprove": [ "ask_llm", "get_simple_answer", "validate_key" ] } } }
配置参数说明:
- '"wolframalpha"': 服务器名称,您可以自定义,用于在 MCP 客户端中标识此服务器。
- '"command": "node"': 启动服务器的命令,这里使用 Node.js 运行时环境。
- '"args": ["/path/to/wolframalpha-llm-mcp/build/index.js"]': 启动命令的参数,指向服务器入口文件 'index.js' 的路径。 请将 '/path/to/wolframalpha-llm-mcp' 替换为您克隆的 'wolframalpha-llm-mcp' 仓库在您本地文件系统中的实际路径。 构建后的 'index.js' 文件位于 'build' 目录下。
- '"env": { "WOLFRAM_LLM_APP_ID": "YOUR_WOLFRAMALPHA_API_KEY" }': 设置环境变量。 请将 '"YOUR_WOLFRAMALPHA_API_KEY"' 替换为您从 WolframAlpha 开发者平台 获取的 API 密钥。 这是访问 WolframAlpha LLM API 的凭证。
- '"disabled": false': 设置为 'false' 表示启用此服务器。
- '"autoApprove": ["ask_llm", "get_simple_answer", "validate_key"]': 自动批准的工具列表。当 LLM 客户端请求调用这些工具时,无需用户手动批准即可自动执行。
获取 WolframAlpha API 密钥:
- 访问 WolframAlpha 开发者平台 并注册或登录。
- 创建一个新的 App 并获取您的 API 密钥 (App ID)。
基本使用方法
- 确保 WolframAlpha LLM MCP Server 已经成功配置并在运行。通常,当 MCP 客户端尝试连接到服务器时,服务器会自动启动(如果配置正确)。
- 在 MCP 客户端中,您可以选择配置的 "wolframalpha" 服务器。
- 使用 LLM 客户端提供的界面或命令,调用 'ask_llm' 或 'get_simple_answer' 工具,并提供自然语言查询作为输入参数 'query'。
- 服务器会将查询发送到 WolframAlpha LLM API,获取响应并按照 MCP 协议返回给 LLM 客户端。
- LLM 客户端可以解析和利用返回的结构化信息,增强其自身的知识和能力。
例如,在支持 MCP 协议的 LLM 应用中,您可以使用类似以下的请求来调用 'ask_llm' 工具:
{ "jsonrpc": "2.0", "method": "callTool", "params": { "name": "ask_llm", "arguments": { "query": "What is the capital of France?" } }, "id": "123" }
服务器会返回包含 WolframAlpha 答案的 JSON-RPC 响应。
信息
分类
AI与计算