← 返回首页

"工具暴露"标签的搜索结果

找到 19 个结果

Embabel-Agent-MCP Server 示例

基于 Spring Boot 的 MCP(模型上下文协议)服务器实现示例,提供工具暴露、资源管理与 prompts 渲染等核心能力,支持通过 SSE 进行 JSON-RPC 通信,作为 LLM 客户端的上下文与功能后端。包含 Kotlin 与 Java 两种实现以及可直接运行的服务器启动脚本,适配 Claude Desktop 等 MCP 客户端进行集成测试与演示。

Ollama MCP 服务器

将本地 Ollama API 以工具形式暴露给 Cursor、Claude Desktop 等 LLM 客户端的后端服务,提供模型管理、对话、生成与嵌入等能力的 MCP 服务端实现。

DeepSeek MCP 服务器(StdIO 通信实现)

基于 Model Context Protocol(MCP)的本地 MCP 服务器实现,提供对 Tools、Resources、Prompts 的标准化暴露,并通过 JSON-RPC 形式与客户端通信,支持通过标准输入输出(STDIN/STDOUT)进行请求与响应。

Google Workspace MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器实现,向 LLM 客户端以标准化的 JSON-RPC 方式暴露资源管理、工具执行以及提示模板的能力,核心通过 registerTool 将大量 Google Workspace 相关操作暴露为可调用的工具集,支持以 Stdio 传输等多种通信方式进行上下文服务与会话管理。

CoWork OS MCP 服务器集合

基于 Model Context Protocol (MCP) 架构的后端服务器实现集合,提供资源/工具暴露、MCP 客户端注册与执行、以及多工具/多提供者的上下文服务能力,支持通过标准的 MCP JSON-RPC 进行通信和管理。仓库内包含多个独立的 MCP 服务器实现(如 Linear、HubSpot、Jira、Salesforce、Zendesk、Asana 等)以及一个可复用模板,均以 STDIO 形式实现服务端。

AudioReader MCP Server

基于 Model Context Protocol (MCP) 的 AudioReader 后端实现,暴露工具给 LLM 客户端以读取资源、调用工具、获取并渲染 Prompts 等,便于与 Claude/OpenAI 等对接进行上下文服务和功能调用。

DeepCode MCP Server合集

一组基于 Model Context Protocol (MCP) 的 MCP 服务器实现集合,提供资源读取、代码/文档处理、代码索引、网页/文件检索等工具服务。通过 FastMCP 等框架实现服务器端的工具暴露与JSON-RPC通信,支持多种服务器脚本独立运行,用于向 LLM 客户端提供统一的上下文、工具执行和提示渲染能力。

MCP-Plugin-dotnet 服务器端(Bridge 版)

基于 Model Context Protocol (MCP) 的.NET 实现,提供 Tools、Prompts、Resources 的注册与执行,并通过 SignalR 进行与 MCP 客户端的双向通信,支持多传输模式(stdio、http),实现会话管理、能力声明和扩展的 JSON 序列化配置,适合作为本地应用的 MCP 服务器桥接层。

Rogue-基于模型上下文协议的MCP服务器示例

基于模型上下文协议(Model Context Protocol,MCP)的后端示例,封装 Shirtify 代理并通过send_message工具向MCP客户端提供上下文对话能力与外部功能调用,支持 SSE/streamable_http 等传输模式的JSON-RPC风格交互。

SynthFlow MCP 服务器

基于 Model Context Protocol (MCP) 的本地服务器实现,提供以 JSON-RPC 方式与客户端通信的能力,暴露工具调用入口并可扩展资源与提示等能力

Klondike MCP Server(Klondike Spec CLI)

基于模型上下文协议(MCP)的后端实现,向 MCP 客户端暴露 Klondike Spec 的资源、工具和提示模板等能力,并通过 JSON-RPC 形式处理请求与响应,支持多传输协议用于与大型语言模型的无缝对接。

Docmost MCP Bridge 与 MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现与桥接组件,允许 LM 模型/代理通过标准 JSON-RPC 方式读取资源、调用工具、获取与渲染 Prompt 模板等,核心包含一个可运行的 MCP 服务端以及将 Cursor 等客户端接入 Docmost 的桥接层。

PraisonAI MCP 服务器

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及 Prompt 模板的定义与渲染,并通过 JSON-RPC 与客户端通信,支持多传输协议(如 STDIO、SSE、WebSocket)以为 LLM 客户端提供可扩展的上下文服务框架。

Agents Backend MCP 服务器实现

基于 Model Context Protocol(MCP)的服务器实现,用于向 LLM 客户端以标准化方式暴露资源、工具以及 Prompt 模板等上下文服务,支持通过多种传输协议与客户端通信,负责会话管理与能力声明,并可与 LangGraph 生态整合进行工具发现与执行。

Perplexity WebUI MCP 服务端

基于 Model Context Protocol (MCP) 的 MCP 服务器实现,暴露 Perplexity WebUI 的查询能力给大语言模型客户端,通过 FastMCP 提供工具接口,支持会话、模型映射与网页检索等能力。

News Desk MCP 服务器(Python 实现)

基于 MCP 协议的后端服务器实现,向大语言模型客户端以统一的 JSON-RPC 方式暴露新闻检索与全文获取等工具,方便在对话中调用外部功能、获取上下文信息与执行相关任务。

ida-headless-mcp

基于模型上下文协议(MCP)的后端服务器实现,提供资源管理、工具注册与执行、以及提示模板等能力,结合 ida-headless 的二进制分析功能,供大语言模型客户端通过 MCP 进行上下文信息获取与功能调用。

vibing.nvim MCP 服务端

基于 MCP(Model Context Protocol)的 Neovim 后端实现,为 MCP 客户端提供工具暴露与执行、以及与 Neovim 的远程过程调用(RPC)桥接。通过 JSON-RPC 提供标准化的请求/响应,支持在 Studio/stdio 传输环境下与 Claude 等 LLM 客户端协同工作,便于在编辑器内进行上下文管理和外部功能调用。

WebMCP

WebMCP允许网站作为MCP服务器,通过WebSocket连接向客户端LLM提供网站工具、资源和Prompt,无需共享API密钥。