← 返回首页

"LLM 集成"标签的搜索结果

找到 118 个结果

TabOrg MCP Server

基于 Model Context Protocol (MCP) 的本地服务器实现,提供对浏览器标签、分组、窗口等资源的访问、工具的注册与执行,以及提示模板的定义与渲染,供外部大语言模型(LLM)客户端通过 JSON-RPC 进行上下文查询、操作与交互。

MIDL MCP 服务器(Bitcoin 与 L2-MIDL 集成)

基于 Model Context Protocol (MCP) 的后端服务,实现资源托管、工具执行以及提示模板渲染,供大语言模型在 MIDL 区块链生态中安全、可扩展地获取上下文信息并执行相关操作。

Dela-MCP 服务器实现

基于 Model Context Protocol 的后端服务实现,提供资源管理、工具注册与执行、以及可渲染的提示模板等能力,通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理、能力声明及多种传输形式,便于在编辑器、IDE 等环境中以标准化方式获取上下文信息与功能。该仓库实现了完整的 MCP 服务器端逻辑,包含任务发现、任务执行、结果与日志通知等核心能力。

Sequence Banking MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型(LLM)客户端提供 Sequence 银行业务的上下文资源、可执行工具以及可渲染的提示模板,支持通过多种传输协议与客户端进行 JSON-RPC 交互,實现账户查询与远程规则触发等功能。

Rosetta KIC MCP 服务器

基于 MCP 的后端服务,向 LLM 客户端提供循环肽分析工具、资源和提示模板,并通过 JSON-RPC 协议进行通信。

AgentMux MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的统一管理,并通过 JSON-RPC 与 LLM 客户端进行交互,支撑多传输协议的上下文服务与安全扩展能力。

SDMX MCP Gateway

基于 Model Context Protocol (MCP) 的 SDMX 后端服务器实现,提供渐进式数据发现、资源与工具管理、可渲染的结构关系图,以及多端传输支持,旨在为大语言模型客户端提供安全、可扩展的统计数据上下文服务。

CodeAgent MCP 服务器套件

基于 Model Context Protocol (MCP) 的多模块后端服务器集合,向 LLM 客户端以标准化方式提供资源、工具和提示模板的访问、执行与渲染能力,支持跨多个 MCP 服务的协同工作与会话管理。

Manim-MCP 服务端

基于 Model Context Protocol (MCP) 的 Manim 渲染后端服务器,提供资源托管、工具执行和 Prompts/模板的标准化接口,供 LLM 客户端通过 JSON-RPC 与后端进行资源读取、工具调用以及渲染作业管理等交互。

Flowise MCP Server

基于 Model Context Protocol (MCP) 的服务端实现,提供 Flowise 实例的资源、工具、提示模板等管理能力,并通过 MCP 客户端进行标准化的 JSON-RPC 交互,支持向量检索、文档存储、会话管理等后端上下文服务。

Google Cloud DevOps MCP 服务器

基于 Model Context Protocol (MCP) 构建的后端服务器,向大语言模型(LLM)客户端提供标准化的上下文服务,包括资源(Resources)的管理、工具(Tools)的注册与执行,以及提示模板(Prompts)的定义与渲染;通过 JSON-RPC 与客户端通信,支持会话管理与多传输协议(如 STDIO、SSE、WebSocket)的扩展能力。

Consult LLM MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供 consulta_llm 工具、资源上下文和提示模板,支持 JSON-RPC 请求/响应,当前实现通过 STDIO 传输进行通信,具备资源管理、工具注册与执行、以及提示渲染等核心能力。

Gasoline AI DevTools 服务器

基于 Model Context Protocol(MCP)的后端服务器,向大模型客户端提供资源管理、工具注册/执行和提示渲染等能力,并通过 JSON-RPC 与客户端通信,支持多种传输模式与会话管理。

Grove MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器,为大型语言模型(LLM)客户端提供标准化的上下文、工具调用和提示渲染能力,支持资源管理、工具注册与执行,以及提示模板渲染等功能,默认通过标准输入/输出(JSON-RPC over STDIO)进行通信。

YouTube Data MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大型语言模型客户端以标准化方式提供 Lean 的 YouTube 数据资源、可注册与执行的工具,以及可渲染的 Prompt 模板,支持 JSON-RPC 形式通信、会话管理与 MongoDB 缓存等能力。

Universal Database MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供对多种数据库的资源管理、查询执行与数据导出能力,通过 JSON-RPC 与 LLM 客户端进行通信,并支持多种传输协议(如 STDIO),为大语言模型应用提供可扩展的数据库上下文服务。

Hatch MCP 服务器端

基于 Hatch CLI 的 MCP(模型上下文协议)后端实现,提供资源与数据访问、工具注册与执行、以及 Prompts 渲染等能力。服务器通过 JSON-RPC 与 AI 客户端通信,注册多种工具并暴露给客户端,支持通过标准输入/输出(stdio)等传输方式进行交互,适合作为 LLM 助手的上下文与功能服务端。该实现包含完整的服务器端逻辑、工具注册、认证、以及与 Hatch API 的交互。

HUMMBL MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具和提示模板,支持会话管理、能力声明以及多传输协议接入,具备资源管理、工具注册、流程模板渲染等完整功能。该实现包含服务端核心组件、工具/资源注册、数据框架、以及与 Claude Desktop 等客户端对接所需的 stdio 传输入口。

loko MCP 服务器端实现

基于 Model Context Protocol 的 MCP 服务器实现,提供资源管理、工具注册与执行,以及提示模板的渲染,采用 JSON-RPC 通过标准输入输出与 LLM 客户端通信,支持插件化工具、会话管理与多种传输接口。

ASO MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,为语言模型客户端提供 Google Play Store 的应用发现、详情、评价、关键词建议以及元数据校验等能力,具备代理轮换、会话管理和多工具接口,当前实现为可运行的原型。

da-mcp

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型(如 Claude、ChatGPT)提供 DA(Document Authoring)资源、工具调用和提示模板等上下文能力,通过 JSON-RPC 与 MCP 客户端通信,并支持云端部署(Cloudflare Workers)、流式传输与简单的令牌鉴权。

Nucleus MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,将 LLM 客户端对资源、工具、Prompt 等的标准化请求通过 JSON-RPC 转发给 nucleus-tool-proxy,并返回相应的 JSON-RPC 响应,支持审批、会话标识等能力。

EDGAR 财务数据 MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,提供从 SEC EDGAR 提取的 filings、财务数据与指标的工具接口,并通过 JSON-RPC 与大语言模型客户端进行通信。

Intelligent Intake and Triage MCP Server

基于 Model Context Protocol (MCP) 的服务器端实现,作为后端上下文服务提供者,面向 LLM 客户端提供资源管理、工具执行和提示模板定义等功能,并通过 JSON-RPC/MCP 协议进行通信。实现了资源、工具、提示、多模态信息处理、会话管理以及通过配置驱动的行业路由与风险等级评估等能力。

TestCollab MCP Server

基于 Model Context Protocol(MCP)的后端实现,向大语言模型客户端提供测试管理的上下文、资源、工具及提示模板渲染,并通过 JSON-RPC 的 MCP 协议与客户端进行通信与协作。

OpenNote MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对用户文档资源的语义检索、文档元数据与内容访问等能力,并通过 JSON-RPC/流式 HTTP 与 LLM 客户端进行交互,适配多用户场景和嵌入向量服务的后端数据服务。

MCP 本地开发框架与服务端实现

基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源、工具与端点的管理能力,并通过 MCP 客户端与大模型进行上下文信息与功能调用的标准化交互,支持多种传输方式(如 STDIO、Web 以及 Docker 场景下的服务化部署)。

db-reader-mcp

基于 Model Context Protocol (MCP) 的只读数据库后端服务器,向大模型客户端提供一致的上下文信息与功能服务。它通过标准化的 JSON-RPC/MCP 机制向客户端暴露资源、工具与提示模板等能力,支持多数据库、HTTP 传输与安全控制,适用于生产环境的可扩展上下文服务。

StoreConfig MCP Server

基于 Model Context Protocol (MCP) 的后端实现,作为 StoreConfig 的 MCP 服务器,向 LLM 客户端提供 JSON 结构化的资源、工具和上下文内容,支持通过 JSON-RPC 的请求/响应方式进行资源查询、工具执行、以及对配置模板的交互渲染,帮助 AI 辅助的配置管理场景。

mollie-mcp

基于 Model Context Protocol (MCP) 的 Mollie API 服务端,向大型语言模型(LLM)客户端以标准化方式提供 Mollie 支付信息、查询工具与 prompts,通过 JSON-RPC 与客户端通信并通过标准传输(如 Stdio)实现扩展性与会话管理。

Dash2Insight-MCP

基于 Model Context Protocol 的 MCP 服务器实现,能够从 Grafana Dashboard 提取指标和变量信息,并通过 Prometheus API 提供即时与时间范围查询等能力,向 LLM 客户端以标准化的 JSON-RPC 形式提供资源、工具与 Prompts。

rcaptcha MCP 服务端技能(Two-Call Flow)

基于 Model Context Protocol (MCP) 的服务端实现,提供 rcaptcha_get_challenge 与 rcaptcha_submit 两个工具,方便大模型代理在两步挑战中证明自己是 AI,从而获取访问令牌。

Datum MCP 服务器实现

基于 Model Context Protocol 的后端服务实现,提供资源托管、工具执行、以及提示模板渲染等能力,支持通过 JSON-RPC 与大语言模型客户端进行资源读取、外部功能调用、以及上下文管理等交互。服务器端提供 STDIO 传输的 JSON-RPC 服务,并可选搭建 HTTP 调试接口,适合将本地上下文服务嵌入到 AI 助手工作流中,便于对接 Kubernetes 资源、CRD、以及服务器端的 dry-run 验证等功能。

Paperpipe PaperQA Retrieval MCP Server

基于 Model Context Protocol (MCP) 的后端服务实现,专门暴露 PaperQA2 检索能力给 LLM 客户端。通过 MCP 框架提供 JSON-RPC 风格的请求/响应接口,支持检索上下文片段、列出可用索引及查询索引状态等功能,适用于嵌入式上下文服务场景。

Altmetric MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,向大语言模型客户端暴露工具(Tools)与外部数据源访问能力,通过 JSON-RPC 风格的请求/响应进行交互,并支持 STDIO 传输以便与本地或嵌入式 LLM 集成。

Confluence MCP 服务器

基于模型上下文协议(MCP)的后端服务,提供 Confluence 页面搜索与文本读取等功能,并通过 MCP 标准向大型语言模型(LLM)客户端暴露工具与资源,以便在对话系统中获取上下文数据与外部能力。

Miroir MCP 服务器

基于模型上下文协议(MCP)的后端服务器,实现资源/工具/提示模板的托管与对外能力暴露,支持 JSON-RPC 请求、SSE 实时传输和会话管理,为 LLM 客户端提供标准化的上下文服务。

Voice MCP Demo

基于 MCP 的语音输入输出后端服务,提供 listen、listen_fixed、speak 等工具,供 Claude Code 等 MCP 客户端进行语音对话和上下文管理。

Kubani Registry MCP Server

基于 Model Context Protocol(MCP)实现的服务器端,提供对 Kubani Registry 的资源、端点、模型、部署等元数据的标准化访问和工具调用入口,供大语言模型客户端进行上下文获取、功能调用与数据渲染等协作操作。

BNSQL MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,提供对 Binary Ninja 数据库的 SQL 查询、自然语言查询与外部工具调用能力,并通过 MCP/SSE 与 LLM 客户端进行标准化通信,作为上下文与功能服务入口。

hono-mcp-server

基于 Model Context Protocol (MCP) 的后端服务器,将 Hono API 端点暴露为 MCP 工具,核心实现包括资源托管、工具注册/执行、提示模板渲染,并通过 JSON-RPC 与客户端通信,支持多种传输协议(如 Stdio、SSE、WebSocket),为 LLM 客户端提供安全、可扩展的上下文服务。

PPTAgent MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供 PPTAgent 的资源、工具和模板的统一对外接口,支持通过 MCP 客户端以 JSON-RPC 调用实现资源管理、工具执行与 Prompt 渲染等功能,用于为 LLM 客户端提供上下文信息和可执行能力。

Lights-Out Discovery MCP Server

基于 Model Context Protocol 的 MCP 服务器实现,提供资源发现、工具注册与执行、以及通过 JSON-RPC 与 LLM 客户端交互的能力,用于向 LLM 应用提供上下文信息与外部功能。该服务器以 MCP 规范为核心,托管并管理资源、注册工具、渲染提示模板等,支持标准的请求/响应流程。

Agent Mux MCP服务器实现

基于 tmux 的代理池实现,附带一个用于 LLM 客户端的 MCP 服务器,提供资源管理、工具注册与执行、以及提示模板等能力,通过 JSON-RPC 与客户端通信,支持通过标准输入输出进行交互的服务器模式。

GenAI MCP 服务器示例套件(EKS 实现)

基于 Model Context Protocol 的 MCP 服务器实现集合,提供收入/就业验证、地址验证、图像处理和简单计算等服务端示例,并演示与 MCP 客户端的集成与调用方式。

CyberChef MCP 服务器

基于模型上下文协议(MCP)的后端服务器,将 CyberChef 的海量数据处理操作和工具暴露给对话式AI客户端,支持资源管理、工具注册与执行,以及可定制的提示模板渲染,且通过 JSON-RPC 与客户端通信,覆盖多种传输方式(STDIO、HTTP、SSE、WebSocket),帮助生成式AI在执行数据处理任务时获得稳定、可扩展的上下文服务。

f5xc-api-mcp

基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具注册与提示模板渲染等能力,供 LLM 客户端以标准化方式获取上下文信息和外部功能访问。

Workflowy Local MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端服务器,提供 Workflowy 数据的资源托管、工具执行和提示模板渲染,供大语言模型客户端以 JSON-RPC 的方式读取和操作本地数据。

tescmd MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端以标准化 JSON-RPC 形式暴露资源、工具和提示,提供会话管理、能力声明、工具注册与执行,以及对多种传输协议的支持,构建可扩展的上下文服务框架。

AudioReader MCP Server

基于 Model Context Protocol (MCP) 的 AudioReader 后端实现,暴露工具给 LLM 客户端以读取资源、调用工具、获取并渲染 Prompts 等,便于与 Claude/OpenAI 等对接进行上下文服务和功能调用。

Google Workspace MCP 服务器

基于 Model Context Protocol (MCP) 的服务器端实现,提供对 Google Workspace(Gmail、Drive、Docs、Sheets、Calendar、Chat、People 等等)的资源管理、工具调用与 Prompt 渲染等能力,供 LLM 客户端以统一的 JSON-RPC 方式查询和执行。

Stitch MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端实现,提供对资源、工具与提示模板的托管、注册与渲染能力,并通过 JSON-RPC 与 LLM 客户端通信。内置会话管理、能力声明以及支持多传输协议的 MCP 服务器代理功能,面向大语言模型应用提供安全、可扩展的上下文服务框架。

enjoy MCP 服务器

基于 MCP(Model Context Protocol)的后端服务,提供通过 JSON-RPC 与 LLM 客户端进行交互的能力,允许对工具进行注册与执行、获取项目状态与排行榜等,并通过标准传输(如 STDIO)实现与 Claude/GPT 等客户端的无缝对接。

Type Crafter MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,向大语言模型(LLM)客户端提供 YAML 规范写作辅助、资源/工具管理与提示模板渲染等能力。通过 JSON-RPC 与客户端通信,当前实现采用标准输入输出(stdio)传输方式,便于本地集成到开发工具链或桌面客户端(如 Claude 桌面)中。

Berry Classic MCP 服务器

Berry 实现了基于 Model Context Protocol 的经典(Classic)MCP服务器 surface,提供核心的上下文服务能力:资源与证据管理、工具执行、以及提示模板的暴露与渲染,并通过 JSON-RPC 风格接口供 LLM 客户端调用。

Skolverket MCP 服务器

基于 Model Context Protocol 的后端 MCP 服务器,面向大语言模型客户端提供教育开放数据的上下文、工具调用与提示模板等能力,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式(stdio 与 HTTP/SSE)以实现灵活的上下文服务。

Neo4j MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供 Neo4j 资源访问、工具执行和提示模板渲染等能力,采用 JSON-RPC 进行通信,支持 STDIO 和 HTTP 传输模式,为大语言模型(LLM)应用提供标准化的上下文和功能服务。

Optiaxiom MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,为大语言模型(LLM)客户端提供标准化的资源、工具执行能力以及提示模板的数据与接口,通过 JSON-RPC 进行通信,并通过标准传输(如 STDIO)提供会话管理与能力声明。该实现从组件、图书、图标及设计令牌等 Design System 元数据出发,支持查询、搜索、获取 Tokens 等能力。

Gmail MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型(LLM)客户端提供 Gmail 相关工具的统一访问接口,支持 JSON-RPC 请求/响应,工具注册与执行,并通过标准化的 MCP 通信传输(如标准输入输出)进行交互。

WinForensics MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供标准化的上下文服务给 LLM 客户端。该服务器托管和管理用于取证分析的资源与数据访问能力、注册并执行工具以调用外部功能,并定义与渲染可定制的 Prompt 模板,支持 JSON-RPC 通信、会话管理以及多传输协议扩展,为跨平台取证分析与 AI 辅助分析提供安全、可扩展的上下文服务框架。

CTFd MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器,向大模型客户端提供 CTFd 资源、挑战详情、提交旗帜以及统一的容器管理等功能,并通过 JSON-RPC/多传输通道方式与客户端进行交互。}

Site-Calc Investment MCP Server

基于 Model Context Protocol (MCP) 的本地化投资规划后端服务器,提供资源管理、工具执行和提示模板渲染等 MCP 服务,通过 JSON-RPC 与 LLM 客户端通信,支持 Claude Desktop 集成与本地数据保存等功能。

Tabularis MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管与数据访问、工具注册与执行、以及用于 LLM 的 Prompt 模板渲染。通过 JSON-RPC 与客户端通信,当前实现采用标准输入输出(Stdio)传输,读取客户端请求并输出响应;同时具备会话管理、能力声明与资源/工具渲染等核心能力,便于外部代理或图形化客户端接入以提供上下文信息与外部功能调用。

Transactoid MCP 服务端

基于 Model Context Protocol(MCP)的后端服务,向 AI 客户端以标准化方式暴露 Transactoid 的工具、资源与提示模板,提供会话管理、数据访问、工具执行以及 Prompts 渲染等能力,方便与 Claude Code、其他 MCP 兼容客户端进行集成。

Arctic MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器端实现,提供资源(Resources)托管与管理、工具(Tools)的注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端进行安全、可扩展的上下文服务交互,支持多传输协议(如 Stdio、SSE、WebSocket)和会话管理等核心能力。

mssql-mcp-server

基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。

Scrapfly MCP Server

基于 Model Context Protocol(MCP)的后端服务器,实现对资源、工具和提示模板的注册、管理与执行,提供给大型语言模型(LLM)客户端实时、可扩展的网页上下文服务与数据访问能力。

SynthFlow MCP 服务器

基于 Model Context Protocol (MCP) 的本地服务器实现,提供以 JSON-RPC 方式与客户端通信的能力,暴露工具调用入口并可扩展资源与提示等能力

NiceVibes MCP 服务器

基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。

Klondike MCP Server(Klondike Spec CLI)

基于模型上下文协议(MCP)的后端实现,向 MCP 客户端暴露 Klondike Spec 的资源、工具和提示模板等能力,并通过 JSON-RPC 形式处理请求与响应,支持多传输协议用于与大型语言模型的无缝对接。

Von MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,用标准化的 JSON-RPC 形式向 LLM 客户端暴露资源、注册和执行 Tools,以及 Prompt 模板的渲染与管理,核心包含会话管理、能力声明与对多传输协议的支持,旨在为 LLM 应用提供可扩展、可验证的上下文服务。

MarkdownSpecs MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供对本地 Markdown 规格文档的资源管理、工具调用以及基于向量检索的语义检索能力,便于将文档内容以标准化方式提供给大语言模型客户端。实现了资源读取、目录查询、全文搜索、按标签筛选、以及语义搜索等核心功能。

OpenMarkets MCP 服务器

基于 Model Context Protocol 的后端服务器,向大型语言模型客户端提供资源、工具和提示模板等上下文与功能,并通过 JSON-RPC 进行通信与协作。

SentryFrogg MCP 服务器

基于 Model Context Protocol (MCP) 的 STDIO 交互后端,为大语言模型客户端提供资源管理、工具注册/执行以及提示模板渲染的统一上下文服务。

Shannot MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供资源、工具与提示等上下文能力,并通过 JSON-RPC 在标准输入输出传输通道进行通信,支持本地及远程执行场景的脚本运行、会话管理与审计日志记录。

Savant Model Context Protocol 服务器

基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。

poly-queue-mcp

基于 Model Context Protocol 的后端服务器,统一暴露多种消息队列适配器作为工具,向 LLM 客户端提供资源、工具执行与 Prompts 渲染的上下文服务。

poly-secret-mcp

基于 Model Context Protocol(MCP)的后端服务器,聚合 Vault、SOPS 等密钥/机密管理工具的工具接口,向大语言模型(LLM)客户端提供以 JSON-RPC 形式调用的密钥读取、写入等操作的统一入口,并支持通过标准化传输(如 STDIO)进行交互。

Claude Code Workflow MCP 服务器

基于 Claude Code Workflow 的 MCP 服务器实现,使用 JSON-RPC 与客户端通信,核心职责是托管资源、注册工具、定义并渲染 Prompt 模板,为 LLM 客户端提供可扩展的上下文服务。

MineContext MCP Server

基于 MCP(Model Context Protocol)的服务器实现,暴露 minecontext_screen_context 工具以供 MCP 客户端读取 MineContext 摘要并进行后续的 LLM 推理分析等。该仓库提供通过 FastMCP 构建的 MCP 服务端,能够接收请求、返回结构化上下文摘要,并与本地 MineContext 服务对接。

QueryGenie PostgreSQL MCP Server

基于模型上下文协议(MCP)的 PostgreSQL 只读服务器实现,向LLM客户端提供结构化数据库资源、工具注册与提示渲染能力,通过JSON-RPC风格的MCP接口进行交互,支持多数据库只读查询、模式描述、索引/外键查询以及健康监控等功能。

SWAT-Copilot MCP Server

基于 Model Context Protocol 的后端服务器,实现对 SWAT 项目资源、分析工具、输出数据以及文档检索等能力的统一对外服务,供大语言模型客户端通过 MCP 协议进行上下文信息获取、工具执行与结果展示。

cl-mcp — Common Lisp MCP 服务器实现

基于 Common Lisp 的 MCP(Model Context Protocol)服务器实现,提供资源管理、工具注册与执行、提示模板渲染等核心能力,并通过 JSON-RPC 进行请求/响应。支持多种传输协议(stdio、TCP、HTTP),为大语言模型(LLM)客户端提供可扩展、可安全的上下文服务框架。

Gateway-Mcp

一个将多个上游 MCP 服务器聚合为少量顶层工具的 MCP Gateway,旨在让 LLM 客户端通过少量工具访问多服务,同时维护会话与工具列表等能力,提升上下文利用效率与扩展性。

OOREP MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具注册与执行、以及提示模板渲染,向大语言模型客户端提供可扩展且结构化的上下文服务与数据访问能力。

Copilot Prompts MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具执行、提示模板及编码规范的整合与渲染,通过 JSON-RPC 与 MCP 客户端通信,支持跨平台传输,向 LLM 客户端提供统一的上下文信息和自动化规范服务。

Carbon MCP Server

基于 Model Context Protocol (MCP) 的服务端实现,作为后端上下文与功能提供者,向 LLM 客户端暴露资源访问、工具注册/执行以及可渲染的对话模板能力。通过 JSON-RPC/HTTP 交互方式,整合资源管理、工具执行与上下文管理,支持会话与多种传输模式的后端服务框架。

Borsa MCP Server

基于 MCP 协议的后端服务,面向 LLM 客户端提供金融资源、工具与提示模板的标准化上下文与功能,通过 JSON-RPC 进行交互,并支持多传输协议与会话管理的可扩展 MCP 服务器实现。

News Desk MCP 服务器(Python 实现)

基于 MCP 协议的后端服务器实现,向大语言模型客户端以统一的 JSON-RPC 方式暴露新闻检索与全文获取等工具,方便在对话中调用外部功能、获取上下文信息与执行相关任务。

Douyin MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供抖音视频的解析、无水印下载、信息查询等工具和资源,让大语言模型客户端以标准化方式访问并执行相关功能。

AutomatosX

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 AI 客户端的上下文服务中心,提供资源(Resources)管理、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输协议以便进行安全、可扩展的上下文服务。

Cortex Memory MCP Server

基于模型上下文协议(MCP)的服务器实现,提供内存管理、工具注册/执行和提示模板的后端服务,通过 JSON-RPC 与 LLM 客户端进行通信,支持与各种后端组件协同工作,便于在代理代理的对话系统中提供上下文性与功能性支持。

Things 3 任务管理助手 (MCP)

一个基于 Model Context Protocol (MCP) 的服务器,让 LLM 客户端(如 Claude Desktop)与 macOS 上的 Things 3 任务管理应用进行交互,实现任务的智能创建、分析与管理。

Airlift MCP 服务器框架

基于 Airlift 框架构建的 MCP 服务器实现,提供上下文信息、工具和 Prompt 管理,支持 LLM 客户端通过 JSON-RPC 协议进行交互。

Cato MCP API 工具服务器

连接AI助手与Cato API,提供网络管理数据的MCP服务器。

Pluggy MCP 服务器

基于 MCP 协议,提供通过 Pluggy API 访问用户金融账户和连接器列表的功能。

本地AI请假管理器 MCP 服务

基于MCP协议的本地请假管理后端,提供查询余额、申请请假和查看历史等工具功能,通过OpenAPI集成至LLM客户端。

Blitzlane Python MCP 服务器

为大模型(LLM)客户端提供基于 MCP 协议的 Solana 区块链工具集。

Fastify MCP 工具插件

将 Fastify 框架的 API 路由自动转换为 MCP 工具,供 LLM 客户端调用。

Android MCP 服务库

使 Android 应用能够托管 MCP 服务器,向 LLM 客户端提供设备和应用上下文信息。

Salesforce MCP 服务器

将大型语言模型 (LLM) 连接到 Salesforce 环境,安全提供组织、数据、用户和元数据等功能访问。

Roblox Studio MCP 服务器

将 Roblox Studio 与 LLM 客户端连接,提供上下文和工具调用能力。

Scorecard MCP 服务器

通过 Model Context Protocol (MCP),使 Claude 等 LLM 客户端能够安全访问 Scorecard 的模型评估工具。

PayAI MCP 服务器

将 PayAI AI 代理市场集成到支持 MCP 协议的 LLM 客户端中,允许查看和雇用 AI 代理。

Apollo MCP 服务器

将 GraphQL API 操作转化为大型语言模型 (LLM) 可调用的 MCP 工具,连接 LLM 与外部数据和服务。

ONLYOFFICE DocSpace MCP 服务器

该项目是基于 Model Context Protocol (MCP) 构建的服务器,使大型语言模型 (LLM) 客户端能够与 ONLYOFFICE DocSpace 平台进行交互,主要提供工具调用功能。

Node.js上的.NET WebAssembly MCP服务器

一个在Node.js环境下通过WebAssembly运行.NET ASP.NET Core实现Model Context Protocol (MCP) 服务器的基础示例。

Google Calendar MCP 服务器

一个基于 Model Context Protocol (MCP) 的服务器,连接 LLM 客户端到 Google Calendar 进行事件管理。

Tableau VDS MCP 服务器

通过 MCP 协议,将 Tableau 数据服务功能暴露给 LLM 客户端使用。

Zerocracy MCP 服务器

将 Zerocracy 服务能力以 MCP 协议方式暴露给 LLM 客户端,提供特定工具功能。

Datavizion RAG

基于 Datavizion 应用的 RAG 后端,通过 MCP 协议提供文档检索与 LLM 问答服务。

SDKMAN! MCP 后端服务

提供 SDKMAN 软件开发工具包管理器功能,允许通过 MCP 协议管理不同版本的 SDK。

Square API MCP 服务器

基于 Model Context Protocol 的服务器,提供对 Square Connect API 的标准化访问,赋能大型语言模型与 Square 商业数据和功能交互。

Snowflake 数据 MCP 服务器

连接 LLM (如 Claude) 与 Snowflake 数据库,提供安全的只读数据查询能力。

MCProx OpenAPI 代理生成器

通过 OpenAPI 规范快速生成 MCP 服务器代理,使现有 API 轻松对接 LLM。

gateway

CentralMind Gateway是一个AI优先的数据网关,可以为LLM应用自动生成安全的、优化的API,并实现了Model Context Protocol (MCP) 服务器功能,支持LLM客户端进行上下文交互。

Railway

Railway MCP Server是一个MCP服务器,允许LLM客户端通过自然语言管理Railway.app云基础设施,包括项目、服务、部署和变量等资源。

Supabase

此项目是一个 Supabase MCP 服务器,允许 LLM 通过 Model Context Protocol 协议查询 Supabase 数据库和生成 TypeScript 类型定义。