← 返回首页

"LLM功能扩展"标签的搜索结果

找到 12 个结果

ComputeMate AI MCP 服务器

ComputeMate AI 提供一个基于MCP协议的后端服务,托管并管理丰富的功能工具和设备信息,赋能LLM客户端执行自动化任务。

Discourse MCP服务器

将Discourse论坛功能作为工具暴露给AI代理的Model Context Protocol (MCP) 标准输入输出服务器。

Quarkus MCP 工具服务器

一个基于 Quarkus 框架实现的 MCP 服务器,提供标准化工具接口,支持 AI 代理存储数据到数据库。

MCP通用服务演示

一个集成了多种功能模块的MCP服务器实现,旨在演示如何通过标准化Model Context Protocol为LLM提供工具、资源和Prompt服务。

金融新闻MCP服务

基于Model Context Protocol (MCP) 的金融新闻服务,提供股票新闻情感分析工具,并支持OAuth 2.1安全认证。

Swarm MCP 工具服务器

基于Model Context Protocol (MCP) 标准,为LLM客户端提供托管和管理外部工具(如天气查询、客户信息、网页抓取、维基百科搜索)的能力。

IBM MCP 服务器生态指南

IBM MCP 是 Model Context Protocol (MCP) 服务器、客户端和开发工具的官方集合,旨在通过标准化协议连接 AI 模型与各类企业级资源。

VOICEVOX MCP服务器

VOICEVOX MCP服务器提供标准化的JSON-RPC接口,使AI助手能够利用VOICEVOX进行日语文本转语音、查询可用音色。

MCP多语言上下文协议服务器

提供Python、Go、Rust三种语言实现的生产级Model Context Protocol (MCP) 服务器,旨在标准化AI系统与工具间的交互,支持VS Code集成。

Chronosphere MCP 服务器

Chronosphere MCP 服务器将 Chronosphere 可观测性平台的数据和操作作为LLM工具公开,实现智能上下文交互。

Make_MCP

一个MCP服务器,提供关于如何构建和使用MCP服务器的文档和工具。

Node.js MCP服务器框架

一个使用官方SDK构建的Node.js应用,实现了MCP服务器协议,为AI助手提供可扩展的工具、资源和Prompt上下文服务。