← 返回首页

"LLM integration"标签的搜索结果

找到 6 个结果

LogicApps MCP Server

基于 Model Context Protocol 的 MCP 服务器,向大型语言模型客户端提供对 Azure Logic Apps 的资源、工具与工作流定义的标准化访问,使用 JSON-RPC 进行请求/响应,并通过标准的 Stdio 传输实现本地集成与扩展能力。

tba-mcp-server

基于 Model Context Protocol 的 MCP 服务器,提供对 The Blue Alliance (TBA) 数据的资源访问与工具调用能力,供 LLM 客户端通过标准化的 JSON-RPC 接口进行交互与上下文注入。

MCP Test Server for Model Context Protocol (MCP)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)和提示模板(Prompts)等能力,并通过 JSON-RPC 形式与 LLM 客户端交互,支持多种传输方式(如 STDIO、HTTP)。

mcp server diceroll

mcp-server-diceroll 是一个实现了 Model Context Protocol (MCP) 协议的简单服务器,提供了一个“roll_dice”工具,允许语言模型客户端调用该工具来模拟掷骰子并获取结果。

Jupyter Notebook

Jupyter MCP Server是一个MCP服务器实现,它允许LLM客户端与本地JupyterLab环境中的notebook进行交互,执行代码、添加Markdown和下载地球科学数据。

JIRA

连接JIRA与大语言模型的MCP服务器,提供JQL查询和获取JIRA issue详情工具,方便LLM应用访问JIRA数据。