返回首页

"上下文优化" 标签

4 个结果

标签搜索结果

AI与计算

Snipara MCP 服务器

基于 Model Context Protocol (MCP) 的自托管后端服务,向 LLM 客户端以标准化方式提供资源、可执行工具以及可渲染的提示模板;通过 JSON-RPC 与 SSE 等传输实现对话上下文管理、工具调用和上下文模板渲染,支持会话管理、限流与多租户场景。实现了 MCP 的核心端到端能力,可与 Claude Code、Cursor、Windsurf 等 MCP 客户端无缝对接。

AI与计算

MCP Tool Search 代理服务器

基于 Model Context Protocol (MCP) 的后端代理服务器,将多个后端 MCP 服务器的工具定义聚合在一个入口,提供四个核心代理工具以降低上下文中工具定义的令牌开销,并支持跨服务器的工具查询、工具模式获取与执行等能力。

开发者工具

Switchboard MCP 服务器

基于 Model Context Protocol 的后端服务端实现,聚合并暴露多家集成(如 GitHub、Datadog、Linear、Sentry、Slack、Metabase、PostgreSQL、ClickHouse、RWX 等)的工具(Tools),通过统一的 MCP 端点向 LLM 客户端提供资源、工具执行和提示模板渲染能力,并支持 Web UI 配置与会话管理。

AI与计算

Claude Context Optimization MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供上下文优化与工具执行能力,供 LLM 客户端通过标准化的 JSON-RPC 接口读取资源、注册并执行工具、以及渲染和获取优化后的 Prompt,基于 stdio 传输模式实现 MCP 的核心通信。