OSVM Unikernel 工具执行器是一个高性能、安全隔离的后端,专为 LLM 客户端通过 vsock 协议调用 MCP 工具而设计。
基于 Model Context Protocol 构建的 MCP 服务器,提供访问 Acurast 资源的接口,并支持脚本部署和处理器信息查询等工具。
Hermes Search MCP Server 是一个基于 Model Context Protocol 的后端服务,旨在为 LLM 应用提供强大的数据搜索和索引能力,通过集成 Azure Cognitive Search,实现对结构化和非结构化数据的全文和语义搜索。
基于MCP协议构建的模块化系统,实现LangGraph智能体与远程工具服务器的解耦,支持实时、多服务器和可扩展的AI应用。
这是一个轻量级的C++框架,用于构建本地LLM Agent,集成了模型上下文协议(MCP),提供工具和记忆管理功能,可作为有效的MCP服务器实现。
基于 Azure 函数和 API 管理构建的远程 MCP 服务器,提供工具注册、执行和安全访问控制能力。
Chef CLI 是一个用于 ADaaS 配方开发的命令行工具,同时可以作为 MCP 服务器为 LLM 客户端提供上下文服务。
Nerve Agent Server是一个用于运行LLM Agent并将其功能作为MCP兼容服务对外提供的平台,方便与MCP客户端集成。
Archon Agenteer MCP Server为AI IDE提供 agent 构建能力,支持通过 Model Context Protocol (MCP) 协议与客户端通信,实现agent工具注册、执行和上下文信息管理。
这是一个基于Model Context Protocol (MCP) 的天气信息服务器示例,演示了如何使用工具提供天气查询功能,并集成了synf工具实现热重载开发。
基于Model Context Protocol的示例服务器,演示了如何定义和执行工具,并通过Stdio与客户端通信,实现GitHub用户数据获取功能。
Offeryn是一个Rust实现的Model Context Protocol (MCP) 服务器,专注于通过工具扩展大型语言模型的能力,支持JSON-RPC over Stdio和SSE传输协议。
一个简单的MCP服务器,用于管理笔记资源,提供笔记总结 Prompt,并提供添加、获取、列出笔记以及管理链式MCP服务器的工具。
mcp-server仓库实现了一个简单的MCP服务器,通过工具提供推特发文和读取Google Sheets数据的功能,并通过资源暴露Google Sheets数据,演示了MCP协议在数据访问和功能扩展方面的应用。
Beamlit MCP Gateway桥接Beamlit CLI与LLM客户端,通过Model Context Protocol协议,使AI模型能安全访问和利用Beamlit的功能与资源。