← 返回首页

"AI 助手集成"标签的搜索结果

找到 9 个结果

Thought Logger MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对本地钥日志、屏幕截图及相关资源的访问、工具注册与执行能力,并通过 HTTP 传输实现与客户端(如 Claude Desktop 等 LLM 客户端)的 JSON-RPC 通信。

MsgVault MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,向 MCP 客户端以标准化的 JSON-RPC 方式提供对离线邮件存档的上下文信息、资源访问、工具执行以及提示模板渲染等能力,便于与 Claude Desktop 等 MCP 客户端进行深度集成与对话式分析。该实现包含服务器端代码、会话管理与资源查询逻辑,支持通过多种传输通道与安全的本地部署方式进行扩展使用。

WPS Office MCP 服务器

基于 Model Context Protocol 的本地 MCP 服务器实现,提供统一的资源、工具和提示模板的托管与数据访问能力,并通过 JSON-RPC 与 LLM 客户端通信,为 WPS Office 提供可扩展的上下文服务。

VMark MCP 服务器

基于 Model Context Protocol 的完整 MCP 服务器实现,提供资源管理、工具执行、以及与 LLM 客户端的 JSON-RPC 风格通信,支持多种传输路径与本地侧车集成。

DeFi Rates MCP 服务器

基于 MCP 的后端服务器,向 LLM 客户端提供实时 DeFi 借贷利率数据、Earn 市场数据以及通过工具调用实现数据查询、比较与策略计算的能力,并支持与 Claude Desktop 等 MCP 客户端的集成与通信。

OpenAlgo MCP 交易服务

OpenAlgo MCP 交易服务是为 AI 助手设计的后端,通过标准协议将量化交易平台功能和市场数据工具提供给 LLM 客户端,实现智能交易和资产管理。

Obsidian CLI MCP 服务器

为 Obsidian 笔记库提供上下文管理和工具调用能力的 MCP 服务器,方便 AI 助手集成。

Limitless AI MCP 服务器

将 Limitless AI Pendant 录音集成到 AI 助手的 MCP 服务器。

Intercom MCP 服务器

连接 Intercom 客户支持数据与 AI 助手,提供对话和工单的标准化查询接口。