使用说明

项目简介

CopilotKit Memory MCP Experiment 是一个基于 Model Context Protocol (MCP) 的实验性服务器实现,专注于为AI驱动的集成开发环境 (IDE) 提供增强的上下文服务。该项目通过集成内存管理和Brave搜索工具,旨在提升AI助手在IDE环境中的智能化水平,使其能够更好地理解用户的工作上下文,并提供更精准的帮助。

主要功能点

  • 内存集成: 提供持久化内存系统,允许AI助手跨会话保持上下文信息,记住用户的偏好和历史交互。
  • Brave 搜索工具: 集成 Brave 搜索引擎,使AI助手能够访问最新的网络信息,为用户提供实时的、上下文相关的搜索结果。
  • 工具化架构: 采用模块化工具设计,方便扩展和集成新的功能,例如文档处理、代码分析等(仓库中包含LangChain工具的初步集成,但可能未完全启用)。
  • MCP 协议支持: 遵循 Model Context Protocol 标准,确保与支持MCP协议的AI客户端(如 Windsurf, Cursor 等IDE)的兼容性和互操作性。
  • 易于部署和使用: 使用 FastAPI 框架开发,易于安装、配置和运行。

安装步骤

  1. 克隆仓库

    git clone https://github.com/mahawi1992/copilotkit-mem-mcp-exp.git
    cd copilotkit-mem-mcp-exp
  2. 安装依赖 确保你的Python环境中安装了 pip,然后运行以下命令安装项目依赖:

    pip install -r requirements.txt
  3. 配置环境变量 复制 '.env.example' 文件并重命名为 '.env',然后编辑 '.env' 文件,填入你的 Brave 搜索引擎 API 密钥 (BRAVE_API_KEY) 和 OpenAI API 密钥 (OPENAI_API_KEY,如果需要使用LangChain功能):

    cp .env.example .env
    # 编辑 .env 文件,填入API密钥

服务器配置

为了让MCP客户端(例如 Windsurf 或 Cursor IDE)连接到该MCP服务器,你需要配置客户端的服务器连接信息。以下是一个示例 JSON 格式的配置,你需要根据你的实际情况进行调整。

{
  "serverName": "CopilotKit Memory MCP Server",  // 服务器名称,可以自定义
  "command": "python",                            // 启动服务器的命令,通常是 python 或 python3
  "args": ["unified_server.py"],                   // 启动命令的参数,指向服务器主文件 unified_server.py
  "host": "127.0.0.1",                           // 服务器监听地址,本地运行时通常为 127.0.0.1
  "port": 8003,                                 // 服务器端口,unified_server.py 默认端口为 8003
  "protocol": "http"                             // 通信协议,通常为 HTTP
}

基本使用方法

  1. 启动服务器 在仓库根目录下,运行以下命令启动 MCP 服务器:

    python unified_server.py

    服务器默认会在 'http://127.0.0.1:8003' 启动。

  2. 在 AI IDE 中配置 MCP 服务器 打开你的 AI IDE (如 Windsurf, Cursor),在设置或插件配置中找到 MCP 服务器配置项,填入上面提供的 JSON 配置信息。

  3. 使用 AI 助手 配置完成后,AI IDE 的 AI 助手应该能够自动连接到 MCP 服务器。你可以通过自然语言指令,在 IDE 中使用集成的工具,例如:

    • 使用 Brave 搜索工具进行网络搜索。
    • 使用内存工具存储和检索代码片段、笔记等信息。

    具体的工具使用方式取决于 AI IDE 的集成方式,通常可以通过自然语言与 AI 助手交互来触发工具。

注意:该项目特别为 AI IDE 环境设计,可能在标准聊天界面等其他环境中功能受限。

信息

分类

开发者工具