← 返回首页

"LLM integration"标签的搜索结果

找到 10 个结果

Steward MCP 服务器(StdIO 实现)

一个基于 Model Context Protocol 的 MCP 服务器实现,使用标准的 JSON-RPC over STDIO 与 MCP 客户端通信,能够托管和管理资源、注册并执行工具、定义并渲染 Prompt,并为 LLM 客户端提供上下文服务和功能调用能力。

Bitbucket MCP Server

基于模型上下文协议(MCP)的后端服务器实现,提供通过 MCP 客户端以标准化 JSON-RPC 方式访问 Bitbucket Cloud 的资源、工具和提示模板,支持在 stdio 传输下与 LLM 应用对接。

Free Crypto News MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,标准化向大语言模型客户端提供新闻资源、工具和提示模板,支持本地 stdio 与 HTTP/SSE 传输,以实现实时上下文和外部功能的访问。

Jakarta Migration MCP Server

基于 Model Context Protocol(MCP)的后端服务,实现对资源、工具与 Prompt 模板的管理与渲染,提供面向 LLM 客户端的上下文服务与交互能力,支持多种传输模式(STDIO、SSE、HTTP),实现 Java 生态中的 Jakarta EE 迁移支持与分析工具的远程调用。

LogicApps MCP Server

基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。

tba-mcp-server

基于 Model Context Protocol 的 MCP 服务器,提供对 The Blue Alliance (TBA) 数据的资源访问与工具调用能力,供 LLM 客户端通过标准化的 JSON-RPC 接口进行交互与上下文注入。

MCP Test Server for Model Context Protocol (MCP)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)等能力,并通过 JSON-RPC 形式与 LLM 客户端交互,支持多种传输方式(如 STDIO、HTTP)。

mcp server diceroll

mcp-server-diceroll 是一个实现了 Model Context Protocol (MCP) 协议的简单服务器,提供了一个“roll_dice”工具,允许语言模型客户端调用该工具来模拟掷骰子并获取结果。

Jupyter Notebook

Jupyter MCP Server是一个MCP服务器实现,它允许LLM客户端与本地JupyterLab环境中的notebook进行交互,执行代码、添加Markdown和下载地球科学数据。

JIRA

连接JIRA与大语言模型的MCP服务器,提供JQL查询和获取JIRA issue详情工具,方便LLM应用访问JIRA数据。