← 返回首页

"LLM 上下文"标签的搜索结果

找到 18 个结果

Omen MCP 服务器端

基于 Model Context Protocol (MCP) 的服务器实现,向 LLM 客户端暴露资源、工具以及 Prompt 模板等分析能力,支持多种传输方式并提供会话与能力声明等 MCP 核心功能。

SkillKit Memory MCP 服务器

基于 Model Context Protocol 的 MCP 服务端实现,提供内存资源与工具访问能力供大模型客户端读取和写入记忆、执行内存相关操作以及与技能系统对接。

tx MCP 服务器实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)注册与执行、以及 Prompt 模板的自定义渲染,使用 JSON-RPC 与客户端通信,支持会话管理、能力声明并可通过多种传输协议(如 Stdio、SSE、WebSocket)对外暴露上下文服务,适用于让 LLM 客户端按统一协议获取上下文与外部功能。

OpenCode Spec Kit MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器实现框架,提供资源管理、工具注册与执行、Prompt 模板渲染,以及多传输协议支持,面向大模型客户端提供标准化的上下文与功能服务。

TemPad Dev MCP 服务器

基于模型上下文协议(MCP)的后端服务实现,提供资源管理、工具执行与提示模板渲染等能力,并通过 JSON-RPC 与客户端通信。实现了服务器端的工具注册与执行、资源导出与资产管理、以及对 Prompts/模板的支持,支持多传输协议(如标准输入/输出、SSE、WebSocket 等),用于为大模型/LLM 客户端提供标准化的上下文服务与能力暴露。

TaskNote Bridge Swift MCP 服务器

将 Apple Notes 和 Things 3 集成到大语言模型客户端的 MCP 服务器。

仓库订单管理 MCP 服务端示例

基于 FastAPI 和 fastapi-mcp 库实现的仓库订单管理 MCP 服务器示例,通过 MCP 协议提供订单管理能力。

OpenAI 文件搜索 MCP 服务器

通过 MCP 协议提供 OpenAI 文件搜索能力的后端服务,将检索结果结构化返回给 LLM 客户端。

Alation 数据目录 MCP 服务器

将 Alation 数据目录的元数据和功能以标准 MCP 协议暴露给 LLM 客户端的应用后端。

ldbc 文档 MCP 服务器

为LLM客户端提供ldbc数据库访问库的文档和教程上下文。

DeepWiki MCP 服务器

提供DeepWiki开源项目文档内容的MCP服务器,支持检索和获取特定页面内容。

ui-kit.ai 组件库 MCP 服务器

基于 MCP 协议,为 LLM 客户端提供 ui-kit.ai 组件库的元数据及使用示例。

笑话 MCP 服务器

基于MCP协议的示例服务器,提供多种笑话API调用服务,可集成到LLM应用。

Filesys MCP 文件系统服务器

提供一个 MCP 服务器,允许 LLM 客户端安全地访问和列出本地文件系统中的文件。

Mastra Playwright MCP on AWS

使用 AWS CDK 部署 Mastra Agent 和 Playwright MCP 服务器,实现基于云端的浏览器自动化和 LLM 上下文服务。

PydanticAI API 模板 MCP 服务器

基于 FastAPI 和 PydanticAI 的 API 模板,内置 MCP 服务器,为 LLM 应用提供工具和上下文服务。

EventCatalog MCP Server

为 EventCatalog 提供 MCP 接口,支持 Claude、Cursor 等 MCP 客户端访问 EventCatalog 的架构文档和信息。

winshot mcp

winshot-mcp 是一个 MCP 服务器,为 LLM 提供窗口截图功能,使 LLM 能够获取和分析应用程序的用户界面。