使用说明

项目简介

本项目是一个基于 Model Context Protocol (MCP) 的服务器实现,旨在将强大的 Wolfram Alpha 计算引擎集成到聊天应用和大型语言模型 (LLM) 工作流中。通过此 MCP 服务器,LLM 客户端可以调用 Wolfram Alpha 的工具,执行复杂的数学计算、科学数据查询和知识检索,从而增强 LLM 的能力边界。

主要功能点

  • Wolfram Alpha 集成: 提供对 Wolfram Alpha API 的访问,支持自然语言查询,获取数学、科学、工程等领域的计算结果和结构化知识。
  • LLM 辅助解释: 结合 Gemini (通过 LangChain) 或其他 LLM 对 Wolfram Alpha 的结果进行解释和总结,使返回内容更易于理解和应用(Gemini 功能为可选)。
  • 模块化设计: 采用模块化架构,方便扩展和添加其他 API 或功能模块。
  • 多客户端支持: 支持多客户端连接,可以同时为多个 LLM 应用提供服务。

安装步骤

  1. 克隆仓库

    git clone https://github.com/ricocf/mcp-wolframalpha.git
    cd mcp-wolframalpha
  2. 配置环境变量

    • 在项目根目录下创建 '.env' 文件,并根据示例配置 Wolfram Alpha API 密钥:
      WOLFRAM_API_KEY=your_wolframalpha_appid
      • (可选) 如果需要使用 Gemini 进行结果解释,请配置 Gemini API 密钥:
      GeminiAPI=your_google_gemini_api_key
      如果不需要 Gemini 功能,可以跳过 Gemini API 密钥的配置。
  3. 安装依赖

    pip install -r requirements.txt

服务器配置

为了让 MCP 客户端(例如 VSCode MCP Server)连接到此 Wolfram Alpha MCP 服务器,您需要提供服务器的启动配置。以下是一个 '.vscode/mcp.json' 配置示例,客户端需要根据此配置启动服务器进程:

{
  "serverName": "WolframAlphaServer",
  "command": "python",
  "args": ["main.py"]
}

配置参数说明:

  • 'serverName': 服务器名称,可以自定义,例如 "WolframAlphaServer"。
  • 'command': 启动服务器的命令,这里使用 'python' 解释器。
  • 'args': 启动命令的参数列表,'["main.py"]' 表示执行项目根目录下的 'main.py' 文件来启动服务器。

注意: MCP 客户端需要能够找到并执行 'python' 命令,并且项目依赖已正确安装。客户端在启动服务器时,会在项目根目录下执行 'python main.py' 命令。

基本使用方法

  1. 启动 MCP 服务器 在项目根目录下,打开终端并运行以下命令启动 Wolfram Alpha MCP 服务器:

    python main.py

    服务器成功启动后,将等待 MCP 客户端的连接和请求。

  2. 配置和连接 MCP 客户端 使用支持 MCP 协议的客户端(例如 VSCode MCP Server),按照客户端的使用说明配置 MCP 服务器连接。关键是提供正确的服务器启动配置信息 (如上面的 '.vscode/mcp.json' 示例) ,客户端会根据配置启动 'main.py',并建立与 MCP 服务器的连接。

  3. 通过客户端调用 Wolfram Alpha 工具 在 MCP 客户端中,可以使用注册的工具 'query_wolfram'。客户端发送包含自然语言查询的请求到 'query_wolfram' 工具,服务器会将查询发送给 Wolfram Alpha API,获取结果并返回给客户端。 如果配置了 Gemini API 密钥,服务器可能会使用 Gemini 对 Wolfram Alpha 的结果进行解释。

    例如,客户端可以发送如下 JSON-RPC 请求调用 'query_wolfram' 工具:

    {
      "jsonrpc": "2.0",
      "method": "call_tool",
      "params": {
        "tool_name": "query_wolfram",
        "tool_arguments": {
          "query": "What is the capital of France?"
        }
      },
      "id": 1
    }

    服务器会处理这个请求,调用 Wolfram Alpha API 查询 "What is the capital of France?",并将结果以 JSON-RPC 响应的形式返回给客户端。

通过以上步骤,您可以成功部署和使用 Wolfram Alpha MCP 服务器,为您的 LLM 应用提供强大的外部知识和计算能力。

信息

分类

AI与计算