← 返回首页

"LLM 上下文服务"标签的搜索结果

找到 24 个结果

ralph-starter MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,提供资源、工具和提示模板等上下文能力,面向 LLM 客户端以标准化的 JSON-RPC 形式进行交互,支持多传输协议并实现会话管理与能力声明。

Wrangler MCP 服务器

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源管理、工具执行与提示模版渲染等上下文服务,支持会话管理与多传输协议。

Supermodel MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端提供代码仓库的资源访问、工具执行和提示渲染能力,采用 JSON-RPC 进行通信,支持预计算图缓存、无缓存回退以及标准输入/输出传输。

agnix MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,向大模型客户端以标准化方式提供资源、工具与提示模板等上下文能力;通过 JSON-RPC 与客户端通信,支持多传输协议(stdio、SSE、WebSocket),并实现会话管理、能力声明以及对 MCP 请求/响应的处理。

CompText MCP 服务器

基于 Model Context Protocol (MCP) 的服务端实现,作为 CompText Codex 的后端上下文服务,向 MCP 客户端暴露工具清单、执行工具调用、以及初始化能力声明等接口。通过将 Codex 中注册的命令工具对外暴露,MCP 客户端能够读取资源、调用工具、以及获取提示/模板等相关能力信息,并在会话中实现上下文管理与跨模块协作。目前实现提供工具列出、工具执行和初始化响应等核心能力,属于可直接在应用中集成的 MCP 服务器端组件。

Google Workspace MCP Server

基于 Model Context Protocol 的后端服务器实现,向大型语言模型客户端提供 Google Workspace 的资源、工具和 Prompt 模板,支持多服务整合、认证管理与可扩展的上下文服务。

Appwrite MCP Server (mcp-for-api)

一个基于 Model Context Protocol 的服务器实现,向大语言模型提供 Appwrite API 的资源、工具与提示模板,并通过 JSON-RPC 进行通信,作为 MCP 后端服务。

Mackerel MCP服务器

基于 Model Context Protocol 的 MCP 服务器,提供资源、工具与提示模板的后端服务,通过 JSON-RPC 与 MCP 客户端通信,内置对 Mackerel API 的多工具封装,支持多传输通道(如标准输入输出、SSE、WebSocket)以向大语言模型客户端提供可扩展的上下文服务。

Context 本地离线文档上下文服务

基于 Model Context Protocol (MCP) 的本地 MCP 服务器实现,提供离线文档资源管理、工具执行接口以及提示模板渲染,供大模型客户端在本地环境中进行高效、私有的上下文查询与交互。

MCP Agent Mail 服务端(Rust 实现)

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具、提示模板的托管与执行,并通过 JSON-RPC 形式对接 LLM 客户端,支持多传输方式(如标准输入输出/HTTP),为 LLM 应用提供安全、可扩展的上下文服务。

CTX MCP 服务端实现

基于模型上下文协议(MCP)的后端服务器实现,提供资源、工具与提示模板的托管、注册与渲染,支持基于 JSON-RPC 的通信、会话管理以及多种传输协议(如 STDIO、HTTP、SSE)以供 LLM 客户端调用。

inkeep-mcp

基于 Model Context Protocol 的 MCP 服务器实现,提供文档源注册、资源查询与工具执行等能力,通过标准化的 JSON-RPC(以 stdio 为传输)与客户端通信,为 LLM 应用提供文档上下文服务与查询能力。

Verkada 模型上下文协议服务器端实现

基于模型上下文协议(MCP)的 Verkada API 后端服务器,提供资源管理、工具注册与执行,以及提示模板渲染等能力,通过 JSON-RPC 与大语言模型客户端进行通信,具备本地部署与扩展能力,并内置对 Verkada API 的工具集和请求处理框架。

Path402 MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为对话型LLM客户端的后端服务,托管并管理资源(Resources)、注册与执行工具(Tools)、定义并渲染 Prompt 模板(Prompts),通过 JSON-RPC 与客户端通信,支持 stdio 与 HTTP 等传输方式,提供会话管理和能力声明的上下文服务框架。

ASON MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供 compress_json、decompress_ason、get_compression_stats、configure_compressor 等工具,以 JSON/ASON 数据压缩、解压、分析并支持可配置的全局参数管理

mdemg MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,为 LLM 客户端提供统一的上下文服务,核心功能包括托管与管理 Resources(资源)、注册和执行 Tools(工具),以及通过 Cursor 等传输途径与客户端进行 JSON-RPC 通信,便于将内存、检索、推理等能力暴露给 AI 编码代理。当前仓库中实现了一个可运行的 MCP 服务器端,具备工具注册、服务暴露和标准传输接口的完整能力。

mcp-server-git

基于 Model Context Protocol(MCP)的后端服务,用于Git仓库资源的托管、工具注册/执行以及Prompt模板渲染,供LLM客户端通过JSON-RPC进行上下文服务交互。支持会话管理、能力声明,以及多传输协议(如 StdIO、SSE、WebSocket)等扩展能力,并提供Lean MCP接口以降低上下文消耗,便于在不同场景下与LLM进行高效交互与功能扩展。

MCP Gateway

基于 Model Context Protocol (MCP) 的后端网关,提供资源与工具注册/执行、Prompt 渲染与上下文服务,并通过 JSON-RPC 与 MCP 客户端进行安全、可扩展的通信。

v1.npm MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,向大型语言模型客户端提供 npm 包的上下文、健康数据与可用工具,通过 JSON-RPC 形式处置资源、工具、提示模板等能力,并支持 MCP 客户端的连接与调用。

Helicone MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,作为 MCP 服务器向 LLM 客户端暴露 Helicone 的数据资源与工具,并通过 JSON-RPC 进行通信;当前实现注册了若干工具(如 query_requests、query_sessions、use_ai_gateway),实现了通过标准输入/输出的传输(Stdio)运行方式,以供 LLM 客户端调用与交互。

Moltbook MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,托管并管理资源(Resources)、注册并执行工具(Tools)、定义与渲染 Prompt 模板(Prompts),通过标准的 JSON-RPC 方式向 LLM 客户端提供上下文信息与功能,并支持组件化扩展与会话分析。<br/>该仓库实现了完整的 MCP 服务端框架及多组件插件,能够在 Node.js 环境中运行并对外提供 MCP 接口。<br/>注:项目使用 stdin/stdout 作为传输通道(Stdio Server Transport),并提供了丰富的组件体系以实现资源、工具、提示模板等能力。

AI Developer Guide MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,为 LLM 客户端提供资源、工具和 Prompts 的统一访问与渲染能力,支持通过标准化的 JSON-RPC 进行通信,并可通过 STDIO 等传输通道接入。

MCP-Go 服务器

基于 Go 语言实现的 Model Context Protocol (MCP) 服务器,提供资源管理、工具注册和 Prompt 模板等核心功能,用于构建 LLM 应用的上下文服务后端。

gomcp

gomcp 是一个使用 Go 语言编写的 Model Context Protocol (MCP) 服务器的非官方实现,旨在为 LLM 应用提供工具和 Prompt 服务。