使用 Python 快速构建符合 Model Context Protocol (MCP) 标准的 AI 后端服务,提供工具和资源能力。
一个轻量级的本地MCP服务器实现,通过WebSocket和JSON-RPC协议,为LLM客户端提供文本处理和聊天能力。
使用 Python 快速构建符合 Model Context Protocol (MCP) 标准的 AI 后端服务,提供工具和资源能力。
一个轻量级的本地MCP服务器实现,通过WebSocket和JSON-RPC协议,为LLM客户端提供文本处理和聊天能力。