找到 3 个结果
将本地 Ollama API 以工具形式暴露给 Cursor、Claude Desktop 等 LLM 客户端的后端服务,提供模型管理、对话、生成与嵌入等能力的 MCP 服务端实现。
基于 Model Context Protocol (MCP) 的后端服务器,提供 Roslyn 代码分析、资源/工具/提示模板的托管与管理,并通过 JSON-RPC 规范化与 Claude 类的 LLM 客户端对接,向其提供可读的上下文信息和可执行外部功能。
基于 Model Context Protocol(MCP)的后端实现,提供当前最先进模型的信息、硬件感知的资源筛选、可调用的工具,以及可渲染的提示模板;通过 JSON-RPC 与客户端通信,支持多传输通道,用于在 LLM 客户端中统一提供上下文信息与能力。