项目简介
AgenticMCP 最初是一个强大的命令行工具,用于通过 LLM 代理执行各种任务。随着 Model Context Protocol (MCP) 的发展,AgenticMCP 的核心功能被重构并封装,使其能够作为一个标准 MCP 服务器运行。
该服务器的主要目标是通过 JSON-RPC 协议,以标准化的方式向外部 LLM 客户端(例如支持 MCP 的智能体框架)提供上下文信息和功能。它将本地文件系统操作、命令行执行以及预设的多种 AI 角色能力封装为 LLM 可调用的工具。
主要功能点
- 本地文件系统工具: 提供安全受控的文件系统访问能力,包括读取文件 ('read_file')、写入文件 ('write_file')、创建目录 ('create_directory')、删除文件 ('delete_file')、删除目录 ('delete_directory')、列举目录内容 ('list_directory') 等。文件操作限定在服务器启动时指定的基准目录下。
- 命令行执行工具: 允许 LLM 通过工具调用执行系统命令行命令。为了安全,只允许执行预设的、安全的命令列表。
- 角色化 AI 工具: 封装了多种预设的 AI 角色(如 'coder', 'qa', 'analyst', 'project_manager', 'summarizer', 'rewriter', 'cpo', 'ui_ux', 'custom')。客户端可以通过调用这些工具,向服务器发送任务和上下文,服务器内部使用配置的 LLM Provider(如 OpenAI, Anthropic, Google, Grok)扮演指定角色,处理任务并返回结构化结果。
- MCP 协议支持: 完全遵循 Model Context Protocol (MCP),通过 JSON-RPC 协议处理客户端请求(如 'listTools', 'callTool' 等)。
- 多种传输协议: 支持通过标准输入输出 (Stdio) 或 HTTP 协议与客户端通信。
- 安全凭据管理: 集成安全机制用于存储 LLM Provider 的 API Key 等敏感凭据。
安装步骤
要安装并运行 AgenticMCP MCP 服务器,请确保您的系统已安装 Node.js (推荐 v18 或更高版本)。
- 通过 npm 全局安装 AgenticMCP CLI:
npm install -g agenticmcp - 安装完成后,您就可以在命令行中使用 'agenticmcp' 命令了。
服务器配置(为 MCP 客户端准备)
AgenticMCP MCP 服务器是为 MCP 客户端(如智能体框架)提供服务的。MCP 客户端需要知道如何连接到服务器。以下是 MCP 客户端可能需要配置的 AgenticMCP MCP 服务器启动信息示例(JSON 格式),其中包含了服务器名称、启动命令及常用参数的说明:
{ "name": "AgenticMCP MCP Server", "command": "agenticmcp", "args": ["serve-mcp"], "config": { "provider": "openai", // 可选: 指定用于执行AI角色工具的LLM提供商别名,默认为配置文件中的 defaultProvider 或 'openai' "baseDir": ".", // 可选: 指定服务器进行文件操作的基准目录,默认为当前工作目录 "transport": "stdio", // 可选: 指定传输协议 ('stdio' 或 'http'),默认为 'stdio' "port": 3456, // 如果 transport 为 'http',需要指定监听端口 "name": "My Custom MCP", // 可选: 设置 MCP 服务器的名称 "version": "1.0.0", // 可选: 设置 MCP 服务器的版本 "description": "Custom Server Description", // 可选: 设置 MCP 服务器的描述 "toolPrefix": "mytool_" // 可选: 设置添加到服务器暴露工具名称前的自定义前缀 } }
请注意:客户端通常只需要知道 'command' 和 'args' 来启动服务器进程并建立连接。'config' 部分的参数是 AgenticMCP CLI 自己的 '--option' 参数,不是 MCP 协议的标准配置,但客户端可能需要将其作为启动参数传递给 'agenticmcp serve-mcp' 命令。
基本使用方法
直接在命令行中运行 'agenticmcp serve-mcp' 命令即可启动服务器:
agenticmcp serve-mcp
这会启动一个默认使用 Stdio 传输协议的 MCP 服务器。您可以通过添加选项来改变其行为:
# 使用 HTTP 传输协议,监听端口 3456 agenticmcp serve-mcp --transport http --port 3456 # 指定文件操作的基准目录 agenticmcp serve-mcp --baseDir /path/to/your/project # 指定用于执行AI角色工具的 LLM 提供商 (需要先配置该提供商) agenticmcp serve-mcp --provider anthropic # 结合多种选项 agenticmcp serve-mcp --transport http --port 8080 --baseDir ./my-workspace --provider google
启动服务器后,支持 MCP 的 LLM 客户端即可连接并开始调用服务器提供的工具。
信息
分类
AI与计算