← 返回首页

"服务端"标签的搜索结果

找到 17 个结果

Feishu Cursor MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供工具注册与执行、资源管理及与飞书与 Cursor CLI 集成的上下文服务,通过 JSON-RPC 与客户端通信,支持通过 STDIO 传输的 MCP 服务。

FrontMCP 服务器端框架与插件集合

基于 Model Context Protocol (MCP) 的 TypeScript 服务器端框架,提供资源(Resource)、工具(Tool)、提示(Prompt)等上下文服务,并通过插件体系扩展能力,支持多传输协议(如流式HTTP、SSE、WebSocket)与会话管理,面向构建可扩展的 MCP 后端应用。

LlamaCloud MCP 服务端

基于 Model Context Protocol 的 MCP 服务器实现,作为 LLM 客户端的后端上下文服务,提供资源管理、工具注册与执行、以及提示模板渲染等能力;通过 JSON-RPC 与客户端通信,支持多传输(如 STDIO、HTTP),并包含会话管理、能力声明与日志控制等核心特性。

Sahai MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,实现资源、工具与提示模板的标准化上下文服务,并通过 JSON-RPC 与客户端通信,支持会话管理与 SSE 实时推送。

Azure OpenAI MCP示例服务器

演示如何使用MCP协议与Azure OpenAI集成,提供工具注册和调用的基本MCP服务器功能。

AutoMCP

AutoMCP是一个工具,可以将多种Agent框架(如CrewAI、Langchain等)的工具、Agent或编排器转换为符合Model Context Protocol (MCP) 标准的服务器。

FastAPI A2A Agent 服务模板

基于 FastAPI 框架的 Agent2Agent (A2A) 协议服务器模板,用于快速构建可与 LLM 客户端交互的智能体服务后端。

Calculate MCP服务器

一个简单的MCP服务器,提供基础计算器功能,使LLM能够执行加减乘除等运算。

MCP Oats: OpenAPI 工具服务器

基于MCP协议,将OpenAPI规范转换为可调用的工具,为LLM应用提供API访问能力。

mcp4k框架

mcp4k是一个Kotlin实现的MCP框架,用于快速构建类型安全的MCP客户端和服务器,支持资源、工具、Prompt等核心功能。

代码执行 MCP 服务器

一个 MCP 服务器,允许大型语言模型客户端执行代码片段并获取结果,支持多种编程语言。

Montano MCP 服务器

基于 Model Context Protocol 的服务器实现,提供工具注册和执行能力,并通过标准协议与 LLM 客户端通信。

MCP Demo Weather Server

一个演示性质的MCP服务器,提供天气查询工具和Prompt模板,展示MCP服务器的基本功能。

mcp server template

该项目是一个MCP服务器模板,旨在帮助开发者快速搭建自定义MCP服务器,以便为Cursor或Claude Desktop等LLM客户端提供上下文信息和工具能力。

go mcp

go-mcp 是 Model Context Protocol (MCP) 的 Go 语言实现库,提供构建 MCP 服务器和客户端的基础框架,支持资源、工具和 Prompt 管理,以及 SSE 和 Stdio 传输。

go mcp server service

这是一个使用Go语言编写的MCP服务器示例,专注于笔记管理,实现了资源、Prompt和工具的基本功能,可作为开发自定义MCP服务器的脚手架。

Gemini Pro

基于Model Context Protocol,此仓库提供了一个集成Google Gemini Pro模型的MCP服务器,允许LLM客户端调用Gemini Pro的文本生成能力。