基于Spring AI和AWS Bedrock构建的MCP服务器示例,演示了如何管理资源、执行工具并与LLM进行交互。
server-anthropic 是一个 MCP 服务器,它允许通过标准化的 Model Context Protocol 接口安全地访问 Anthropic 的 Claude AI 模型,支持模型列表查询和消息发送功能。
Deepseek R1 MCP Server是一个基于Model Context Protocol的服务器,它为LLM客户端提供Deepseek R1和V3模型的文本生成能力,支持通过Claude Desktop等MCP客户端调用。
Qwen Max MCP Server 是一个基于 Model Context Protocol 的服务器实现,专注于为 Claude Desktop 等 MCP 客户端提供对阿里云 Qwen Max 系列大语言模型的文本生成能力,支持多种Qwen商业模型选择和参数配置。