← 返回首页

"LLM 集成"标签的搜索结果

找到 53 个结果

mssql-mcp-server

基于 Model Context Protocol 的 MCP 服务器实现,用于通过标准化方式向 LLM 客户端提供 MSSQL 数据库的资源、工具和提示等上下文服务,支持多语言实现(Node 与 .NET 版本)以及基于 JSON-RPC 的交互。

Scrapfly MCP Server

基于 Model Context Protocol(MCP)的后端服务器,实现对资源、工具和提示模板的注册、管理与执行,提供给大型语言模型(LLM)客户端实时、可扩展的网页上下文服务与数据访问能力。

SynthFlow MCP 服务器

基于 Model Context Protocol (MCP) 的本地服务器实现,提供以 JSON-RPC 方式与客户端通信的能力,暴露工具调用入口并可扩展资源与提示等能力

NiceVibes MCP 服务器

基于 Model Context Protocol 的 MCP 服务端,为 LLM 客户端提供 NiceGUI 资源、工具、文档与示例等能力,并通过 JSON-RPC 与客户端通信,支持资源读取、工具执行、主题索引、示例检索、组件信息查询以及可选的屏幕截图和主提示渲染等功能。

Klondike MCP Server(Klondike Spec CLI)

基于模型上下文协议(MCP)的后端实现,向 MCP 客户端暴露 Klondike Spec 的资源、工具和提示模板等能力,并通过 JSON-RPC 形式处理请求与响应,支持多传输协议用于与大型语言模型的无缝对接。

Von MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现,用标准化的 JSON-RPC 形式向 LLM 客户端暴露资源、注册和执行 Tools,以及 Prompt 模板的渲染与管理,核心包含会话管理、能力声明与对多传输协议的支持,旨在为 LLM 应用提供可扩展、可验证的上下文服务。

MarkdownSpecs MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供对本地 Markdown 规格文档的资源管理、工具调用以及基于向量检索的语义检索能力,便于将文档内容以标准化方式提供给大语言模型客户端。实现了资源读取、目录查询、全文搜索、按标签筛选、以及语义搜索等核心功能。

OpenMarkets MCP 服务器

基于 Model Context Protocol 的后端服务器,向大型语言模型客户端提供资源、工具和提示模板等上下文与功能,并通过 JSON-RPC 进行通信与协作。

SentryFrogg MCP 服务器

基于 Model Context Protocol (MCP) 的 STDIO 交互后端,为大语言模型客户端提供资源管理、工具注册/执行以及提示模板渲染的统一上下文服务。

Shannot MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,向大语言模型客户端提供资源、工具与提示等上下文能力,并通过 JSON-RPC 在标准输入输出传输通道进行通信,支持本地及远程执行场景的脚本运行、会话管理与审计日志记录。

Savant Model Context Protocol 服务器

基于 Model Context Protocol 构建的后端服务,为对话型客户端提供标准化的资源管理、工具注册与执行、以及可渲染的提示模板等上下文服务,支持多引擎协同、JSON-RPC 通信以及多种传输协议的 MCP 场景实现。

poly-queue-mcp

基于 Model Context Protocol 的后端服务器,统一暴露多种消息队列适配器作为工具,向 LLM 客户端提供资源、工具执行与 Prompts 渲染的上下文服务。

poly-secret-mcp

基于 Model Context Protocol(MCP)的后端服务器,聚合 Vault、SOPS 等密钥/机密管理工具的工具接口,向大语言模型(LLM)客户端提供以 JSON-RPC 形式调用的密钥读取、写入等操作的统一入口,并支持通过标准化传输(如 STDIO)进行交互。

Claude Code Workflow MCP 服务器

基于 Claude Code Workflow 的 MCP 服务器实现,使用 JSON-RPC 与客户端通信,核心职责是托管资源、注册工具、定义并渲染 Prompt 模板,为 LLM 客户端提供可扩展的上下文服务。

MineContext MCP Server

基于 MCP(Model Context Protocol)的服务器实现,暴露 minecontext_screen_context 工具以供 MCP 客户端读取 MineContext 摘要并进行后续的 LLM 推理分析等。该仓库提供通过 FastMCP 构建的 MCP 服务端,能够接收请求、返回结构化上下文摘要,并与本地 MineContext 服务对接。

QueryGenie PostgreSQL MCP Server

基于模型上下文协议(MCP)的 PostgreSQL 只读服务器实现,向LLM客户端提供结构化数据库资源、工具注册与提示渲染能力,通过JSON-RPC风格的MCP接口进行交互,支持多数据库只读查询、模式描述、索引/外键查询以及健康监控等功能。

SWAT-Copilot MCP Server

基于 Model Context Protocol 的后端服务器,实现对 SWAT 项目资源、分析工具、输出数据以及文档检索等能力的统一对外服务,供大语言模型客户端通过 MCP 协议进行上下文信息获取、工具执行与结果展示。

cl-mcp — Common Lisp MCP 服务器实现

基于 Common Lisp 的 MCP(Model Context Protocol)服务器实现,提供资源管理、工具注册与执行、提示模板渲染等核心能力,并通过 JSON-RPC 进行请求/响应。支持多种传输协议(stdio、TCP、HTTP),为大语言模型(LLM)客户端提供可扩展、可安全的上下文服务框架。

Gateway-Mcp

一个将多个上游 MCP 服务器聚合为少量顶层工具的 MCP Gateway,旨在让 LLM 客户端通过少量工具访问多服务,同时维护会话与工具列表等能力,提升上下文利用效率与扩展性。

OOREP MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现资源管理、工具注册与执行、以及提示模板渲染,向大语言模型客户端提供可扩展且结构化的上下文服务与数据访问能力。

Copilot Prompts MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务实现,提供资源管理、工具执行、提示模板及编码规范的整合与渲染,通过 JSON-RPC 与 MCP 客户端通信,支持跨平台传输,向 LLM 客户端提供统一的上下文信息和自动化规范服务。

Carbon MCP Server

基于 Model Context Protocol (MCP) 的服务端实现,作为后端上下文与功能提供者,向 LLM 客户端暴露资源访问、工具注册/执行以及可渲染的对话模板能力。通过 JSON-RPC/HTTP 交互方式,整合资源管理、工具执行与上下文管理,支持会话与多种传输模式的后端服务框架。

Borsa MCP Server

基于 MCP 协议的后端服务,面向 LLM 客户端提供金融资源、工具与提示模板的标准化上下文与功能,通过 JSON-RPC 进行交互,并支持多传输协议与会话管理的可扩展 MCP 服务器实现。

News Desk MCP 服务器(Python 实现)

基于 MCP 协议的后端服务器实现,向大语言模型客户端以统一的 JSON-RPC 方式暴露新闻检索与全文获取等工具,方便在对话中调用外部功能、获取上下文信息与执行相关任务。

Douyin MCP Server

基于 Model Context Protocol (MCP) 的后端服务,提供抖音视频的解析、无水印下载、信息查询等工具和资源,让大语言模型客户端以标准化方式访问并执行相关功能。

AutomatosX

基于 Model Context Protocol (MCP) 的后端服务器实现,作为 AI 客户端的上下文服务中心,提供资源(Resources)管理、工具(Tools)注册与执行、以及 Prompt 模板(Prompts)的定义与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明与多种传输协议以便进行安全、可扩展的上下文服务。

Cortex Memory MCP Server

基于模型上下文协议(MCP)的服务器实现,提供内存管理、工具注册/执行和提示模板的后端服务,通过 JSON-RPC 与 LLM 客户端进行通信,支持与各种后端组件协同工作,便于在代理代理的对话系统中提供上下文性与功能性支持。

Things 3 任务管理助手 (MCP)

一个基于 Model Context Protocol (MCP) 的服务器,让 LLM 客户端(如 Claude Desktop)与 macOS 上的 Things 3 任务管理应用进行交互,实现任务的智能创建、分析与管理。

Airlift MCP 服务器框架

基于 Airlift 框架构建的 MCP 服务器实现,提供上下文信息、工具和 Prompt 管理,支持 LLM 客户端通过 JSON-RPC 协议进行交互。

Cato MCP API 工具服务器

连接AI助手与Cato API,提供网络管理数据的MCP服务器。

Pluggy MCP 服务器

基于 MCP 协议,提供通过 Pluggy API 访问用户金融账户和连接器列表的功能。

本地AI请假管理器 MCP 服务

基于MCP协议的本地请假管理后端,提供查询余额、申请请假和查看历史等工具功能,通过OpenAPI集成至LLM客户端。

Blitzlane Python MCP 服务器

为大模型(LLM)客户端提供基于 MCP 协议的 Solana 区块链工具集。

Fastify MCP 工具插件

将 Fastify 框架的 API 路由自动转换为 MCP 工具,供 LLM 客户端调用。

Android MCP 服务库

使 Android 应用能够托管 MCP 服务器,向 LLM 客户端提供设备和应用上下文信息。

Salesforce MCP 服务器

将大型语言模型 (LLM) 连接到 Salesforce 环境,安全提供组织、数据、用户和元数据等功能访问。

Roblox Studio MCP 服务器

将 Roblox Studio 与 LLM 客户端连接,提供上下文和工具调用能力。

Scorecard MCP 服务器

通过 Model Context Protocol (MCP),使 Claude 等 LLM 客户端能够安全访问 Scorecard 的模型评估工具。

PayAI MCP 服务器

将 PayAI AI 代理市场集成到支持 MCP 协议的 LLM 客户端中,允许查看和雇用 AI 代理。

Apollo MCP 服务器

将 GraphQL API 操作转化为大型语言模型 (LLM) 可调用的 MCP 工具,连接 LLM 与外部数据和服务。

ONLYOFFICE DocSpace MCP 服务器

该项目是基于 Model Context Protocol (MCP) 构建的服务器,使大型语言模型 (LLM) 客户端能够与 ONLYOFFICE DocSpace 平台进行交互,主要提供工具调用功能。

Node.js上的.NET WebAssembly MCP服务器

一个在Node.js环境下通过WebAssembly运行.NET ASP.NET Core实现Model Context Protocol (MCP) 服务器的基础示例。

Google Calendar MCP 服务器

一个基于 Model Context Protocol (MCP) 的服务器,连接 LLM 客户端到 Google Calendar 进行事件管理。

Tableau VDS MCP 服务器

通过 MCP 协议,将 Tableau 数据服务功能暴露给 LLM 客户端使用。

Zerocracy MCP 服务器

将 Zerocracy 服务能力以 MCP 协议方式暴露给 LLM 客户端,提供特定工具功能。

Datavizion RAG

基于 Datavizion 应用的 RAG 后端,通过 MCP 协议提供文档检索与 LLM 问答服务。

SDKMAN! MCP 后端服务

提供 SDKMAN 软件开发工具包管理器功能,允许通过 MCP 协议管理不同版本的 SDK。

Square API MCP 服务器

基于 Model Context Protocol 的服务器,提供对 Square Connect API 的标准化访问,赋能大型语言模型与 Square 商业数据和功能交互。

Snowflake 数据 MCP 服务器

连接 LLM (如 Claude) 与 Snowflake 数据库,提供安全的只读数据查询能力。

MCProx OpenAPI 代理生成器

通过 OpenAPI 规范快速生成 MCP 服务器代理,使现有 API 轻松对接 LLM。

gateway

CentralMind Gateway是一个AI优先的数据网关,可以为LLM应用自动生成安全的、优化的API,并实现了Model Context Protocol (MCP) 服务器功能,支持LLM客户端进行上下文交互。

Railway

Railway MCP Server是一个MCP服务器,允许LLM客户端通过自然语言管理Railway.app云基础设施,包括项目、服务、部署和变量等资源。

Supabase

此项目是一个 Supabase MCP 服务器,允许 LLM 通过 Model Context Protocol 协议查询 Supabase 数据库和生成 TypeScript 类型定义。