AI-Investment-Advisor MCP Server
使用说明内容(Markdown格式)
-
项目简介
- AI-Investment-Advisor MCP Server 是在该仓库中实现的 MCP 服务器端组件之一,负责以标准化的 MCP 协议向 LLM 客户端提供资源数据、可执行工具以及可定制的提示模版等上下文信息,并通过 JSON-RPC 与客户端进行交互,支撑会话管理与能力协商。
-
主要功能点
- 托管与管理资源(Resources):提供数据访问能力,供 LLM 客户端查询与使用。
- 注册与执行工具(Tools):允许 LLM 调用外部功能,扩展上下文能力。
- 定义与渲染 Prompt 模板(Prompts):支持可定制的 LLM 交互模板,提升对话质量与可控性。
- JSON-RPC 通信:服务器端实现标准的请求/响应模型,方便客户端发起读取资源、调用工具、获取 Prompt 等操作。
- 会话管理与能力声明:实现会话生命周期、能力对齐,以及对外暴露的功能能力(Resources、Tools、Prompts)。
- 多传输协议支持:设计初始即可支持如 STDIO、Server-Sent Events、WebSocket 等传输方式,以适应不同客户端的接入场景。
- 安全与扩展性:具备基本的鉴权/日志和可扩展架构,便于后续接入安全控件与监控体系。
-
安装与运行
- 克隆仓库并进入项目目录。
- 安装所需依赖(通常通过项目的依赖管理工具完成,例如 pip/poetry)。
- 启动依赖服务(如 PostgreSQL、Redis 等),仓库中提供一键启动脚本 start.sh 以便本地快速启动环境。
- 启动 MCP 服务器本身(通常通过运行主应用,例如使用 uvicorn 启动 FastAPI/ASGI 应用,具体命令以项目实际入口为准)。
- 访问 API 服务端点监听的端口,即可与 MCP 客户端建立对接。
-
服务器配置(MCP 客户端使用,不在服务端代码中实现,供客户端在连接 MCP 服务器时配置)
- server name: AI-Investment-Advisor-MCP
- command: uvicorn
- args: ["services.mcp_server.src.app:app", "--host", "0.0.0.0", "--port", "8000"]
- 注释:上述配置用于 MCP 客户端在连接服务器时指定要启动的服务程序、入口应用及网络参数。实际若部署在容器/云端,参数可按环境变量和容器编排工具进行调整。客户端无需实现服务器端逻辑,只需使用该配置连接到 MCP 服务器。
-
基本使用方法
- 启动后通过 JSON-RPC 形式向服务器发起请求,例如请求资源读取、工具调用或获取 Prompt,服务器返回标准的 JSON-RPC 响应。
- 服务器具备会话管理功能,客户端可以通过会话上下文持续在同一上下文中交互。
- 支持多种传输协议,确保在本地开发、容器化部署或远程调用场景中都能稳定工作。