项目简介

WolframAlpha LLM MCP Server 是一个基于 Model Context Protocol (MCP) 的服务器,它允许大型语言模型 (LLM) 客户端通过标准化的 MCP 协议,调用 WolframAlpha 的 LLM API 接口。借助此服务器,LLM 可以利用 WolframAlpha 强大的计算能力和广泛的知识库,处理复杂的数学问题、查询科学事实、获取历史地理信息等。此服务器提供结构化的、针对 LLM 优化的响应,并支持简化答案和详细答案,从而增强 LLM 在知识密集型任务中的表现。

主要功能点

  • 自然语言查询 WolframAlpha LLM API: 允许用户使用自然语言提问,利用 WolframAlpha 的 LLM API 获取答案。
  • 解答复杂数学问题: 能够处理和解答各种复杂的数学问题,包括微积分、代数、几何等。
  • 查询科学、物理、历史、地理等领域的事实: 可以查询涵盖科学、物理、历史、地理等广泛领域的知识和事实信息。
  • 结构化响应,优化 LLM 使用: 返回结构化的 JSON 响应,方便 LLM 理解和利用信息。
  • 支持简化和详细答案: 提供 'get_simple_answer' 工具获取简洁答案,以及 'ask_llm' 工具获取包含详细分节信息的完整答案。
  • API 密钥验证: 提供 'validate_key' 工具,用于验证 WolframAlpha API 密钥的有效性。

可用工具 (Tools):

  • 'ask_llm': 向 WolframAlpha 提出问题,并获取针对 LLM 优化的结构化响应,包含多种格式的详细信息。
  • 'get_simple_answer': 获取 WolframAlpha 提供的简化答案,侧重于最相关的信息,更适合 LLM 上下文理解。
  • 'validate_key': 验证您提供的 WolframAlpha API 密钥是否有效。

安装步骤

  1. 克隆仓库:

    git clone https://github.com/Garoth/wolframalpha-llm-mcp.git
    cd wolframalpha-llm-mcp
  2. 安装依赖:

    npm install

服务器配置

为了让 MCP 客户端(例如 VSCode Cline 插件)能够连接到 WolframAlpha LLM MCP Server,您需要在 MCP 客户端的设置中配置服务器信息。以下是一个配置示例,您需要根据您的实际情况进行调整。

在 MCP 客户端的设置文件(通常是 JSON 格式)中,添加或修改 'mcpServers' 配置项,例如:

{
  "mcpServers": {
    "wolframalpha": {
      "command": "node",
      "args": ["/path/to/wolframalpha-llm-mcp/build/index.js"],
      "env": {
        "WOLFRAM_LLM_APP_ID": "YOUR_WOLFRAMALPHA_API_KEY"
      },
      "disabled": false,
      "autoApprove": [
        "ask_llm",
        "get_simple_answer",
        "validate_key"
      ]
    }
  }
}

配置参数说明:

  • '"wolframalpha"': 服务器名称,您可以自定义,用于在 MCP 客户端中标识此服务器。
  • '"command": "node"': 启动服务器的命令,这里使用 Node.js 运行时环境。
  • '"args": ["/path/to/wolframalpha-llm-mcp/build/index.js"]': 启动命令的参数,指向服务器入口文件 'index.js' 的路径。 请将 '/path/to/wolframalpha-llm-mcp' 替换为您克隆的 'wolframalpha-llm-mcp' 仓库在您本地文件系统中的实际路径。 构建后的 'index.js' 文件位于 'build' 目录下。
  • '"env": { "WOLFRAM_LLM_APP_ID": "YOUR_WOLFRAMALPHA_API_KEY" }': 设置环境变量。 请将 '"YOUR_WOLFRAMALPHA_API_KEY"' 替换为您从 WolframAlpha 开发者平台 获取的 API 密钥。 这是访问 WolframAlpha LLM API 的凭证。
  • '"disabled": false': 设置为 'false' 表示启用此服务器。
  • '"autoApprove": ["ask_llm", "get_simple_answer", "validate_key"]': 自动批准的工具列表。当 LLM 客户端请求调用这些工具时,无需用户手动批准即可自动执行。

获取 WolframAlpha API 密钥:

  1. 访问 WolframAlpha 开发者平台 并注册或登录。
  2. 创建一个新的 App 并获取您的 API 密钥 (App ID)。

基本使用方法

  1. 确保 WolframAlpha LLM MCP Server 已经成功配置并在运行。通常,当 MCP 客户端尝试连接到服务器时,服务器会自动启动(如果配置正确)。
  2. 在 MCP 客户端中,您可以选择配置的 "wolframalpha" 服务器。
  3. 使用 LLM 客户端提供的界面或命令,调用 'ask_llm' 或 'get_simple_answer' 工具,并提供自然语言查询作为输入参数 'query'。
  4. 服务器会将查询发送到 WolframAlpha LLM API,获取响应并按照 MCP 协议返回给 LLM 客户端。
  5. LLM 客户端可以解析和利用返回的结构化信息,增强其自身的知识和能力。

例如,在支持 MCP 协议的 LLM 应用中,您可以使用类似以下的请求来调用 'ask_llm' 工具:

{
  "jsonrpc": "2.0",
  "method": "callTool",
  "params": {
    "name": "ask_llm",
    "arguments": {
      "query": "What is the capital of France?"
    }
  },
  "id": "123"
}

服务器会返回包含 WolframAlpha 答案的 JSON-RPC 响应。

信息

分类

AI与计算