标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器实现,承载并以标准化方式向 LLM 客户端提供上下文与功能。服务器托管资源(Resources)、注册与执行工具(Tools),并定义/渲染提示模版(Prompts),通过 JSON-RPC 与客户端通信,支持会话管理、能力声明,以及多种传输协议(如 STDIO、SSE、WebSocket),为多工作区的 LLM 应用提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol (MCP) 的后端服务,向大型语言模型提供 MediaWiki 的资源访问、工具执行和提示模板渲染等上下文服务。服务器支持多种传输模式(标准输入输出、HTTP),并实现会话管理、权限控制、可观测性和安全保护,帮助 LLM 客户端以标准化方式查询 wiki 内容、执行外部工具以及获取/渲染 Prompt 模板。