返回首页

"本地 AI 助手" 标签

2 个结果

标签搜索结果

AI与计算

TripPlanner MCP 服务器端

基于 Model Context Protocol(MCP)的后端实现,提供 Trips、Wishlists、Places 等资源的管理、工具执行以及 AI 助手交互能力,通过 /mcp HTTP 接口对外暴露给 MCP 客户端,支持本地 Ollama 模型、URL 导入、地理编码、天气等数据服务,适合作为 LLM 客户端的上下文与功能提供端。

AI与计算

Prodboard MCP 服务器实现

基于 Model Context Protocol (MCP) 的本地后端服务器,实现对资源、工具和提示模板的标准化暴露,提供 JSON-RPC 通信能力、会话管理与任务调度,供 LLM 客户端通过标准接口访问上下文信息与外部功能。