找到 3 个结果
这是一个基于MCP协议的后端服务器,通过标准化的工具接口管理和操作Mistral AI平台上的智能体。
Letta MCP服务器是一个基于Model Context Protocol的后端实现,旨在为LLM客户端提供资源管理、工具执行和Prompt模板服务,构建安全可扩展的上下文服务框架。
CrewAI MCP Server是一个基于Python实现的MCP服务器,它利用Claude API提供AI智能体和任务管理能力,支持通过JSON-RPC协议进行工具调用和会话交互。