基于 Model Context Protocol (MCP) 的后端服务器,标准化向大语言模型客户端提供新闻资源、工具和提示模板,支持本地 stdio 与 HTTP/SSE 传输,以实现实时上下文和外部功能的访问。
基于MCP协议,为AI应用提供与Linear issue追踪系统集成的工具服务,扩展LLM的功能。
Ollama MCP Server是一个桥接Ollama和MCP协议的工具,允许MCP客户端通过标准化的方式调用本地Ollama LLM模型,进行模型管理、运行和OpenAI兼容的聊天补全。