使用说明
项目简介
CopilotKit Memory MCP Experiment 是一个基于 Model Context Protocol (MCP) 的实验性服务器实现,专注于为AI驱动的集成开发环境 (IDE) 提供增强的上下文服务。该项目通过集成内存管理和Brave搜索工具,旨在提升AI助手在IDE环境中的智能化水平,使其能够更好地理解用户的工作上下文,并提供更精准的帮助。
主要功能点
- 内存集成: 提供持久化内存系统,允许AI助手跨会话保持上下文信息,记住用户的偏好和历史交互。
- Brave 搜索工具: 集成 Brave 搜索引擎,使AI助手能够访问最新的网络信息,为用户提供实时的、上下文相关的搜索结果。
- 工具化架构: 采用模块化工具设计,方便扩展和集成新的功能,例如文档处理、代码分析等(仓库中包含LangChain工具的初步集成,但可能未完全启用)。
- MCP 协议支持: 遵循 Model Context Protocol 标准,确保与支持MCP协议的AI客户端(如 Windsurf, Cursor 等IDE)的兼容性和互操作性。
- 易于部署和使用: 使用 FastAPI 框架开发,易于安装、配置和运行。
安装步骤
-
克隆仓库
git clone https://github.com/mahawi1992/copilotkit-mem-mcp-exp.git cd copilotkit-mem-mcp-exp -
安装依赖 确保你的Python环境中安装了 pip,然后运行以下命令安装项目依赖:
pip install -r requirements.txt -
配置环境变量 复制 '.env.example' 文件并重命名为 '.env',然后编辑 '.env' 文件,填入你的 Brave 搜索引擎 API 密钥 (BRAVE_API_KEY) 和 OpenAI API 密钥 (OPENAI_API_KEY,如果需要使用LangChain功能):
cp .env.example .env # 编辑 .env 文件,填入API密钥
服务器配置
为了让MCP客户端(例如 Windsurf 或 Cursor IDE)连接到该MCP服务器,你需要配置客户端的服务器连接信息。以下是一个示例 JSON 格式的配置,你需要根据你的实际情况进行调整。
{ "serverName": "CopilotKit Memory MCP Server", // 服务器名称,可以自定义 "command": "python", // 启动服务器的命令,通常是 python 或 python3 "args": ["unified_server.py"], // 启动命令的参数,指向服务器主文件 unified_server.py "host": "127.0.0.1", // 服务器监听地址,本地运行时通常为 127.0.0.1 "port": 8003, // 服务器端口,unified_server.py 默认端口为 8003 "protocol": "http" // 通信协议,通常为 HTTP }
基本使用方法
-
启动服务器 在仓库根目录下,运行以下命令启动 MCP 服务器:
python unified_server.py服务器默认会在 'http://127.0.0.1:8003' 启动。
-
在 AI IDE 中配置 MCP 服务器 打开你的 AI IDE (如 Windsurf, Cursor),在设置或插件配置中找到 MCP 服务器配置项,填入上面提供的 JSON 配置信息。
-
使用 AI 助手 配置完成后,AI IDE 的 AI 助手应该能够自动连接到 MCP 服务器。你可以通过自然语言指令,在 IDE 中使用集成的工具,例如:
- 使用 Brave 搜索工具进行网络搜索。
- 使用内存工具存储和检索代码片段、笔记等信息。
具体的工具使用方式取决于 AI IDE 的集成方式,通常可以通过自然语言与 AI 助手交互来触发工具。
注意:该项目特别为 AI IDE 环境设计,可能在标准聊天界面等其他环境中功能受限。
信息
分类
开发者工具