返回首页

"MCP 服务器实现" 标签

3 个结果

标签搜索结果

AI与计算

Open Census MCP Server

基于模型上下文协议(MCP)的后端服务,用于向大型语言模型(LLM)客户端提供规范化的上下文信息和功能。核心职责包括托管和管理资源(Resources)、注册与执行工具(Tools)、以及定义和渲染 Prompt 模板(Prompts)。服务器通过 MCP 规范与客户端以 JSON-RPC 形式进行通信,支持会话管理、能力声明,并可扩展到多种传输通道(如 StdIO、SSE、WebSocket 等)。该实现以 Python 编写,包含对 Census 数据资源的访问、工具注册与调用、以及基于知识库的 Pragmatics 指引,适用于 LLM 场景中的上下文服务框架。

AI与计算

Jaz AI MCP 服务端

基于 Model Context Protocol (MCP) 的本地后端服务器实现,提供资源、工具与提示模板等上下文服务,并通过标准的 JSON-RPC 串行化与客户端交互,支持 STDIO 传输。

网页与API

poly-git-mcp

基于 Model Context Protocol 的 MCP 服务器实现,提供对 GitHub、GitLab、Gitea、Bitbucket 等代码托管平台的工具访问能力,面向向量化的大语言模型客户端提供统一的上下文和功能接口。