基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源、工具、Prompt 模板等上下文能力的托管与管理,并通过 JSON-RPC 风格的 MCP 协议对接 LLM 客户端。实现了对 MCP 请求/响应的处理、传输协议支持(SSE/HTTP proxy、STDIO 启动模式等)、以及与网关、权限、鉴权和模块化插件体系的协同运行,定位于为 LLM 应用提供安全、可扩展的上下文服务框架。
一个基于Go语言实现的Model Context Protocol (MCP) 服务器,内置OpenTelemetry支持,提供LLM应用所需的上下文服务和工具调用能力。
为Next.js应用提供AI驱动的调试能力,通过OpenTelemetry收集遥测数据,并作为MCP服务器向LLM(如Cursor)提供调试上下文和工具。
演示如何使用MCP协议构建提供天气预报资源的服务器,并集成OpenTelemetry进行链路追踪。
Logfire MCP服务器允许LLM访问和分析您的OpenTelemetry遥测数据,包括追踪和指标,以便进行异常分析、自定义查询等操作。