使用说明
项目简介
Text2MCP 服务端是一个基于 Model Context Protocol (MCP) 构建的特殊后端服务。它本身并不直接提供业务功能,而是作为一套强大的工具集,帮助用户利用大型语言模型(LLM)自动化地进行MCP服务的开发和管理。通过连接到 Text2MCP 服务端,用户可以发送请求,要求它根据自然语言描述生成新的MCP服务代码,运行这些服务,安装所需的依赖,甚至配置用于代码生成的LLM连接信息。它将服务生成、部署和管理的过程暴露为可由MCP客户端调用的标准化工具。
主要功能点
- 代码生成: 接收自然语言描述,利用配置好的LLM(如OpenAI)生成符合MCP规范的Python服务代码。
- 服务运行: 能够启动并管理由 Text2MCP 或其他方式生成的MCP服务脚本。
- 依赖安装: 支持安装服务所需的Python包依赖,可以使用uv或pip。
- LLM配置: 允许通过MCP客户端动态配置用于代码生成的LLM的API密钥、模型和基础URL等信息。
安装步骤
Text2MCP 服务端是 'text2mcp' 工具包的一部分,可以通过 pip 命令轻松安装:
pip install text2mcp
服务器配置
Text2MCP 服务端自身通过一个命令启动。MCP 客户端需要知道如何连接到这个服务。以下是 MCP 客户端配置 Text2MCP 服务端所需的关键信息(请根据您的实际运行环境调整 host 和 port):
// 这是一个示例 JSON 结构,说明需要配置哪些信息 { "server_name": "text2mcp_server", // Text2MCP服务端在MCP网络中的名称 "description": "Text2MCP Management Server", // 服务的简要描述 "command": "text2mcp", // 用于启动Text2MCP服务端的命令行主程序 "args": ["server", "--host", "127.0.0.1", "--port", "8000"], // 启动命令所需的参数列表,这里指定了监听的地址和端口 "connection_details": { "transport": "sse", // 使用 SSE (Server-Sent Events) 作为传输协议 "url": "http://127.0.0.1:8000/sse", // MCP客户端连接的 SSE URL "post_messages_url": "http://127.0.0.1:8000/messages/" // 用于客户端发送消息的 POST URL } }
要启动 Text2MCP 服务端,请使用以下命令:
text2mcp server --host 0.0.0.0 --port 8000
默认情况下,它将在 '0.0.0.0:8000' 监听。请根据您的需要调整 '--host' 和 '--port' 参数,并在MCP客户端配置中填写相应的 'url' 和 'post_messages_url'。
基本使用方法
- 确保您已经按照上述步骤成功安装并启动了 Text2MCP 服务端。
- 使用任何兼容 Model Context Protocol (MCP) 的客户端连接到 Text2MCP 服务端(根据上面“服务器配置”部分提供的信息进行配置)。
- 连接成功后,您可以通过客户端界面或编程接口,调用 Text2MCP 服务端暴露的工具。例如:
- 调用“生成服务”工具,输入一个自然语言描述(如“创建一个天气查询服务”),服务端将返回生成的代码文件路径。
- 调用“运行服务”工具,指定要运行的脚本文件路径,服务端将尝试启动该服务并返回结果。
- 调用“安装包”工具,指定一个包名或 requirements 文件,服务端将执行安装操作。
- 调用“配置OpenAI”工具,设置您的LLM API密钥等信息。
通过这种方式,Text2MCP 服务端将代码生成、服务运行和依赖管理的能力封装为标准的MCP工具,使您能够通过MCP客户端进行更高级、自动化的LLM应用开发工作流程。
信息
分类
AI与计算