← 返回首页

"LLM上下文服务"标签的搜索结果

找到 82 个结果

代码图谱知识管理MCP服务

基于Model Context Protocol (MCP) 为AI助手提供代码知识图谱、项目记忆及异步任务管理能力的上下文服务。

BMAD MCP Server

这是一个基于Model Context Protocol (MCP) 的AI辅助服务器,它统一托管并提供BMAD方法论中的专家AI智能体和自动化工作流,助力开发者在任何项目中高效使用AI助手。

Asynchronous Component Base (ACB) - MCP服务器

ACB是一个模块化的Python框架,提供一个全面的Model Context Protocol (MCP) 服务器,使AI应用能发现、交互并编排其组件(如动作、适配器、服务)。

Model-Compose

声明式AI工作流编排器,通过MCP协议将复杂AI服务和模型作为可调用工具提供给LLM客户端。

MCP上下文熔炉网关

一个功能丰富的MCP服务器网关和代理,统一管理和联邦MCP、REST及A2A服务,为AI客户端提供全面的上下文和工具访问。

Automagik Genie

Automagik Genie 是一个自进化的AI代理编排框架,通过其内置的MCP服务器为LLM客户端提供项目上下文、工具调用和会话管理,加速AI开发流程。

Chat Bridge MCP内存服务

作为Chat Bridge项目的后端组件,该服务通过JSON-RPC协议向LLM客户端提供标准化的对话历史查询、上下文记忆管理和工具集成功能。

Recursive Companion MCP服务器

一个基于Model Context Protocol (MCP) 的服务器,通过迭代优化(草稿、评论、修订、收敛)为LLM提供增强上下文和可调用工具,支持多种传输协议。

MCP Router (统一服务器网关)

统一管理和聚合多个Model Context Protocol (MCP) 服务器,为LLM客户端提供标准化的上下文服务接口。

Home Assistant Cursor集成

为Home Assistant提供AI辅助开发环境,通过MCP协议实现LLM对智能家居设备的上下文访问和控制。

VoltAgent MCP文档服务器

VoltAgent MCP文档服务器是基于Model Context Protocol (MCP) 构建的实现,旨在以标准化方式向大型语言模型(LLM)客户端提供VoltAgent的文档、示例和更新日志作为上下文信息和工具。

MCP ASP.NET Core上下文服务器

基于.NET 9 ASP.NET Core实现的MCP服务器,支持API密钥/JWT认证、工具自动发现和OpenAPI。

Claude Code ACP 适配器

连接 Claude Code AI 与 ACP 兼容客户端的适配器,内置 MCP 服务器提供文件、终端和权限工具。

MCP Oracle OCI 集成服务器

基于FastMCP框架,为LLM客户端提供Oracle OCI资源和AI代理功能的上下文服务器,支持语义搜索和Deep Research。

Conductor Gateway

一个高性能的自主网关服务,通过SSE流和MCP协议将Web应用与Conductor智能体执行系统连接。

SinglePageStartup MCP服务器

为SinglePageStartup框架提供基于Model Context Protocol的上下文服务,管理资源和工具,支持LLM应用集成。

GitHub Copilot CLI

将GitHub Copilot的AI编程能力直接带入命令行终端,提供自然语言交互、代码辅助和GitHub工作流集成。

RAGFlow Claude 上下文协议服务器

一个MCP服务器,集成RAGFlow REST API,为LLM客户端(如Claude Desktop)提供知识库查询、文档管理和智能RAG增强服务。

U.S. Census Bureau 数据 API MCP 服务器

一个基于模型上下文协议(MCP)的后端服务,旨在将美国人口普查局的官方数据和统计信息提供给AI助手。

Taurus Pro MCP 服务框架

高性能Go HTTP服务框架,内置MCP协议支持,为LLM应用提供上下文管理、工具调用和Prompt服务。

Appian设计系统MCP服务器

为大型语言模型(LLM)提供Appian设计系统文档的上下文服务,支持公共和内部文档源的查询、搜索及组件详情获取。

Olane 超智能网络基础设施

Olane 是一个点对点、安全的 AI 网络基础设施,能够托管和管理资源、工具、Prompt,并通过 MCP 协议与 LLM 客户端通信。

MCP Biscuit增强安全服务器

一个基于Model Context Protocol (MCP) 的安全增强型后端服务器,通过结合mTLS和Biscuit令牌,为LLM应用提供多层加密授权的上下文服务。

Dexter MCP 服务器

为Dexter平台提供全面管理的模型上下文协议(MCP)桥接服务,通过Stdio和HTTPS向LLM客户端暴露精选的连接器工具。

SPEK增强开发平台

一个集成了桌面自动化、多AI模型和15+MCP服务器的企业级多智能体开发工作流编排平台,提供上下文服务。

全栈SaaS MCP 后端

基于Model Context Protocol (MCP) 的全栈SaaS后端,提供资源、工具与OAuth2认证服务。

Claude用量分析MCP服务器

为LLM客户端提供Claude Code令牌使用量和成本分析服务,通过MCP协议暴露数据访问工具。

TWSLA日志分析器

TWSLA是一个强大的日志分析工具,通过Model Context Protocol (MCP) 标准化接口,为LLM客户端提供日志搜索、统计、提取及智能分析功能。

FastMCP Python上下文服务器模板

基于Python和FastMCP构建的生产级Model Context Protocol (MCP) 服务器模板,提供工具、资源和Prompt管理、多协议传输及OAuth2认证支持。

OpenCog CogServer

OpenCog CogServer是OpenCog AtomSpace超图数据库的网络服务器,提供Scheme、Python和JSON命令行接口,并正在实验性地集成Model Context Protocol (MCP)以支持与LLM客户端的交互。

MCP上下文协议服务器

一个基于TypeScript构建的MCP服务器实现,提供上下文信息、工具执行、Prompt渲染以及OAuth认证和会话管理功能。

plugged.in MCP 代理服务器

一个统一的 MCP 代理服务器,聚合多个 MCP 服务器、内置工具和文档管理功能,为 LLM 提供丰富上下文服务。

Tableau MCP 服务器

通过 MCP 协议为 AI 应用提供 Tableau 数据、可视化和 Pulse 指标的访问与功能集成。

Teamwork.com MCP 服务端

一个基于Model Context Protocol (MCP) 标准,为LLM提供Teamwork.com项目管理上下文信息和操作功能的服务器。

HMP-Agent认知连接器

HMP-Agent是一个模块化的AI代理实现,其认知连接器通过HTTP API向LLM客户端提供上下文信息和功能。

RAGex:智能代码搜索MCP服务器

RAGex是一个高性能MCP服务器,为LLM(如Claude)提供代码库的语义和正则搜索能力,实现代码模式的智能发现与复用。

MCP Web框架后端

专为Next.js和Nuxt等Web框架设计,提供便捷的方式实现Model Context Protocol (MCP) 服务器,支持工具调用、上下文管理和AI模型通信。

Reboot 耐久型MCP服务器框架

一个基于Python的MCP服务器框架,提供持久化会话、工具和资源管理,支持服务器重启后安全地恢复LLM交互。

Azure MCP 服务器加速器

一个基于 Azure Container Apps 的 MCP 服务器快速部署解决方案,提供了可扩展的上下文信息和工具服务。

Observe社区MCP服务器

该服务器作为LLM与Observe可观测性平台之间的安全桥梁,通过MCP协议提供Observe API功能、OPAL查询辅助和故障排除手册访问。

Apollo运行时MCP服务器

提供一个可容器化部署的MCP服务器,用于向LLM客户端提供GraphQL API作为上下文和工具。

llmbasedos: LLM本地能力接入服务

通过 Model Context Protocol (MCP) 将本地数据和工具安全、标准化地提供给大型语言模型(LLM)使用。

MCP-Haskell 服务器实现

一个用Haskell语言实现的Model Context Protocol (MCP) 服务器框架。

OpenMCP 服务器实现示例集合

本仓库提供了使用Python和TypeScript实现Model Context Protocol (MCP) 服务器的示例代码,展示了资源、工具和Prompt的功能。

MCP开发快速入门

通过互动教程和示例代码,学习构建MCP服务器和客户端。

Melina.js MCP 服务器组件

基于Bun运行时,为LLM应用提供资源、工具和Prompt模板的标准上下文服务器。

Solon AI MCP 多框架集成示例

基于 Solon AI 框架,展示如何在 Spring Boot, Solon, Vert.x 等多种 Java 框架中构建和集成 MCP 服务器,提供资源、工具、Prompt 能力。

Python MCP 服务器基础示例

基于 Python 实现的最小化 MCP 服务器,提供资源、工具和Prompt能力。

MCP协议 TypeScript示例集合

使用 TypeScript SDK 实现的 MCP 服务器和客户端示例,涵盖多种传输协议和授权流程。

MySQL及外部API访问MCP工具服务

基于Spring AI框架,提供MySQL数据库操作和外部API调用的MCP工具服务。

Agent Browser

统一管理和桥接多个MCP服务器,简化LLM客户端配置,提供集中式的上下文服务接入点。

MCP Server (Spring AI based)

基于Spring AI框架构建的MCP服务器,提供资源、工具和Prompt模板管理,并通过SSE实现与LLM客户端的通信。

AIVK-QQ

AIVK-QQ 是一个集成 MCP 服务器的智能 QQ 机器人框架,为大语言模型提供上下文服务和功能扩展,并具备便捷的 CLI 工具和 Napcat.Shell 启动器。

NGCBot MCP Server

NGCBot MCP Server 是一个基于 NGCBot 微信机器人框架实现的 MCP 服务器,旨在为 LLM 应用提供微信相关的上下文信息和功能调用能力。

ToolHive (thv)

ToolHive 简化并安全地部署和管理 Model Context Protocol (MCP) 服务器,提升 LLM 应用的上下文服务能力。

Deco Apps 库

Deco Apps 库提供了一系列基于 MCP 协议构建的应用,旨在为 LLM 客户端提供丰富的上下文信息和外部功能集成。

MCP Node SSE参考服务器

基于Node.js和Server-Sent Events实现的MCP协议参考服务器,提供工具注册和调用能力,支持与LLM客户端进行上下文交互。

MCPML框架

MCPML是一个Python框架,用于构建基于模型上下文协议(MCP)的服务器,并支持CLI工具和OpenAI Agent集成。

Chef CLI for ADaaS

Chef CLI 是一个用于 ADaaS 配方开发的命令行工具,同时可以作为 MCP 服务器为 LLM 客户端提供上下文服务。

Arxiv MCP Server

基于Go语言实现的MCP服务器,专注于为LLM应用提供学术资源上下文和工具支持。

Epic MCP 示例服务器

基于Epic Stack构建的MCP服务器示例,展示如何通过工具和SSE为LLM提供上下文信息。

Atrax MCP 代理服务器

Atrax 是一款 MCP 代理服务器,可以将多个 MCP 服务器聚合成一个统一的接口,为 LLM 客户端提供便捷的上下文服务。

Azure Functions 远程 MCP 服务器

基于 Azure Functions 的 MCP 服务器快速启动模板,帮助开发者轻松构建和部署云端 LLM 上下文服务。

OmniAI MCP服务器

OmniAI MCP服务器是一个基于Ruby实现的MCP协议服务器,旨在为LLM客户端提供资源、工具和Prompt模板管理能力,实现标准化的上下文服务。

GPT Researcher MCP Server

基于GPT Researcher和Open WebUI构建的MCP服务器,为LLM应用提供研究和信息检索的上下文服务。

Dust Bridge Server

Dust Bridge Server 是一个 MCP 服务器,它充当 Windsurf IDE、Claude Desktop 等开发工具与 Dust AI 助手之间的桥梁,实现开发环境与 Dust AI 的集成。

Spring AI MCP Demo Server

基于Spring AI构建的MCP协议演示服务器,提供资源、工具和Prompt模板管理功能。

Mimicking Human Beings MCP Cluster

基于AWS的模块化MCP服务器集群,为LLM应用提供可扩展的上下文服务和工具集成。

MCP服务器模板

基于Python的MCP服务器快速启动模板,支持工具、Prompt和资源管理,为LLM应用提供上下文服务。

MCP Python SDK

Model Context Protocol (MCP) Python SDK 提供了一套全面的工具,用于构建兼容 MCP 协议的服务器和客户端应用,简化 LLM 应用的上下文管理。

Dart MCP Server

基于Model Context Protocol的服务器实现,提供任务管理、文档处理、工作空间组织和AI集成等功能,增强LLM应用能力。

本地模型上下文协议 (MCP) 服务器

一个轻量级的本地MCP服务器实现,通过WebSocket和JSON-RPC协议,为LLM客户端提供文本处理和聊天能力。

Orq MCP Server

Orq MCP Server提供开发者友好的Typescript SDK 和 MCP 服务器实现,用于管理 LLM 应用的资源、工具和 Prompt,符合 Model Context Protocol 标准。

mcp

ActionMCP是一个Ruby gem,旨在简化Rails应用构建MCP服务器的过程,提供Prompt、Tool和Resource等核心组件的框架。

orq node

orq-node 是一个开发者友好的 Typescript SDK,同时也是一个可安装的 MCP 服务器,旨在为 LLM 应用提供资源、工具和 Prompt 管理能力,简化 AI 应用的后端开发。

server

该项目是基于FastAPI和MCP的Python MCP服务器实现,旨在为LLM客户端提供标准化的上下文交互能力,包括资源管理、工具注册和Prompt模板支持。

mcp typed prompts

mcp-typed-prompts仓库是一个Python实现的Model Context Protocol (MCP) SDK,它不仅包含了构建MCP客户端的工具,也提供了FastMCP服务器框架,用于快速搭建和运行MCP后端服务,以标准化方式向LLM应用提供资源、工具和Prompt模板。

model context protocol rb

该Ruby库提供了一个实验性的Model Context Protocol (MCP) 服务器实现,允许开发者使用Ruby构建兼容MCP协议的后端服务。

python sdk

modelcontextprotocol_python-sdk 是一个Python SDK,用于构建 Model Context Protocol (MCP) 服务器,方便开发者为LLM应用提供标准化上下文服务。

mcpfoundation

MCP Foundation是一个MCP服务器管理器,通过Web界面和CLI工具,简化MCP服务器的安装、配置和管理,为LLM应用提供便捷的上下文服务部署方案。

LLMling

LLMling Server是一个YAML配置驱动的MCP服务器,为LLM应用提供资源、工具和Prompt管理功能,支持Stdio和SSE等多种传输协议。

Reference Servers

提供多种基于Model Context Protocol (MCP) 的参考服务器实现,演示如何为LLM提供工具和数据访问能力。