← 返回首页

"AI上下文"标签的搜索结果

找到 25 个结果

Dolphin 知识库 MCP 服务器

Dolphin 是一个为 AI 接口提供语义代码搜索和知识管理的 MCP 服务器,通过托管资源、注册工具和定义 Prompt 模板,以标准化方式向 LLM 客户端提供上下文信息和功能。

Gandalf 上下文协议服务器

聚合来自多种开发工具的对话历史,为AI辅助开发提供智能上下文。

FAF MCP智能上下文服务器

为LLM提供AI就绪上下文、文件操作和项目分析的MCP服务器,实现高效、可信赖的AI协作。

Rocketship AI上下文服务

Rocketship AI上下文服务为LLM代理提供关于Rocketship测试框架的上下文信息、工具和最佳实践,助力智能生成和管理测试。

本地历史MCP服务器

通过Model Context Protocol (MCP) 为AI助手提供Cursor/VS Code本地历史访问能力,实现智能数据恢复和上下文感知。

Laravel MCP Companion

Laravel生态系统综合文档聚合与导航MCP服务器,为AI助手提供多版本Laravel文档、服务及社区包的统一搜索与智能推荐。

AI人机交互问询服务器

基于MCP协议,允许AI助手在对话或工作中暂停并向人类直接询问上下文信息。

智能助手工具 MCP 服务器

一个全面的 MCP 服务器,为 AI 助手提供强大的任务管理和智能记忆能力,支持项目隔离存储。

MkDocs MCP Search Server

通过Model Context Protocol协议,为LLM客户端提供搜索和获取MkDocs文档网站内容的能力。

X402 & Walrus MCP Server

一个基于MCP协议的AI上下文服务器,提供数据访问和分布式存储工具。

Recall 记忆数据存储

一个用于存储和管理带标签记忆的自托管数据存储,可通过MCP协议供AI模型访问。

MCP Boilerplate 服务器

基于 Model Context Protocol (MCP) SDK 构建的服务器端模板,支持工具、日志及会话管理。

Dependency Context

一个MCP服务器和命令行工具,为AI助手提供项目依赖文档的上下文访问。

Python MCP 服务器示例

一个使用 Python 及其 MCP SDK 构建的 Model Context Protocol (MCP) 服务器基础示例。

RSS MCP 服务器

将 RSS 订阅源数据和管理功能通过 MCP 协议提供给 LLM 客户端,基于 Fever API 实现。

Docy MCP 服务器

为AI模型提供实时技术文档访问,支持快速搜索、获取页面内容和链接。

Memory Bank助手MCP服务器

为AI助手提供项目结构化文档(Memory Bank)上下文和相关工具的MCP服务器。

SearchUnify上下文服务器

连接Claude桌面与SearchUnify,赋能AI获取SearchUnify搜索结果作为上下文。

RR MCP .NET分析服务器

基于MCP协议,为AI提供.NET项目的接口、模型、实体和枚举结构的上下文信息。

Rollbar MCP 服务器

将Rollbar错误监控数据作为上下文提供给AI助手的MCP服务器。

ZenMemory MCP 服务器

基于 MCP 协议和 Solana 构建的去中心化 AI 记忆基础设施,提供资源管理和工具能力。

七牛云 MCP 服务器

基于七牛云构建的 MCP 服务器,提供对象存储 Kodo 和 Dora 服务的资源访问和工具调用能力。

MCP服务器SDK (MoonBit)

基于 MoonBit 和 WASM Component Model 构建 MCP 服务器的 SDK,提供工具注册和资源列表功能,并包含示例客户端。

repomix

Repomix是一个将代码库打包为AI友好格式的工具,并可作为MCP服务器,使AI助手能够通过标准化协议分析本地或远程仓库的代码上下文。

Qdrant Server

mcp-server-qdrant 是一个基于 Model Context Protocol (MCP) 的服务器实现,它允许大型语言模型(LLM)通过 Qdrant 向量搜索引擎存储和检索信息,作为其长期记忆或外部知识库。